Mentionsy

Rozmowy w RMF FM
05.10.2025 08:55

AI zamiast psychiatry – groźny trend w internecie

W sieci można natrafić na coraz więcej aplikacji, które obiecują zaopiekować się naszym stanem psychicznym. Pomogą przejść trudne rozstanie, poprawią relacje z własnym ciałem, nauczą nas komunikacji, wesprą w walce z nałogiem. Te rozwiązania technologiczne są w mniejszym lub większym stopniu oparte o sztuczną inteligencję. Czy to znak czasów i jakie mogą być konsekwencje tego, że zamiast skontaktować się z psychiatrą, ściągniemy na nasz telefon polecaną w reklamie aplikację? O tym Marlena Chudzio rozmawiała z profesorem Maciejem Pileckim z Katedry Psychiatrii Uniwersytetu Jagiellońskiego.

Szukaj w treści odcinka

Znaleziono 118 wyników dla "Szpitalu Uniwersyteckim w Krakowie"

Jesteś super i znasz swój biznes, a gdy koszty prowadzenia konta firmowego biją cię po kieszeni, wiesz co robić.

Konto firmowe za zero, karta za zero, przelewy internetowe za zero.

Koszty znikają na stałe, a ty oszczędzasz nawet tysiąc złotych rocznie na opłatach.

Wejdź na nestbank.pl i przenieś konto firmowe już dziś.

I tak niezwykła siła przedsiębiorców pokonuje zbędne koszty w firmie.

Siła przedsiębiorców.

Coraz więcej w internecie możemy spotkać różnego rodzaju aplikacji, która w jakiejś formule chce się troszczyć o nasze zdrowie psychiczne.

Dlatego, że z jednej strony coraz więcej czasu spędzamy w świecie wirtualnym, niesiąc za sobą wiele zagrożeń, ale też zwłaszcza dla młodszych osób to jest taka naturalna przestrzeń do poszukiwania pomocy, zdobywania wiedzy, wchodzenia w różnego rodzaju interakcje, które mogą mieć zarówno korzystny, jak i negatywny wpływ dla zdrowia psychicznego.

Ale właśnie w związku z tym, że tak wiele czasu spędzamy w wirtualnej przestrzeni, w internecie, powoduje, że jest to też miejsce, w którym warto oferować pomoc.

Ale z drugiej strony ta pomoc powinna być...

To znaczy, że powinny być prowadzone jakiś rodzaj badań czy analiz, czy aplikacje, czy programy, które mają troszczyć się o nasz dobrostan psychiczny, wpływać na nasze zdrowie psychiczne, pomagać nam w różnorodnych, czy w różnorakich problemach.

Są rzeczywiście przydatne i przede wszystkim, czy nie są, niebezpieczne.

Spotkałam się, nie będziemy tutaj wymieniać nazw aplikacji, ale spotkałam się z takimi, które na przykład wprost mówiły, będziemy prowadzić Cię terapią behawioralno-poznawczą, że będziesz otrzymał od nas różne wyzwania, różne rzeczy, które masz robić i to w jaki sposób wyciągnie Cię z, i tutaj w zależności od tego jak mnie chyba profilowano, to mogło być albo ADHD, albo pomoc po rozstaniu, no przeróżne tego typu historie.

I teraz terapia behawioralno-poznawcza to jest konkretne narzędzie.

Może być stosowane przez coś takiego, przez taką ślepą maszynę?

Powiedzmy, diabeł tkwi w nazwach, dlatego że nikt nie zaryzykuje takiego określenia, będziemy cię leczyć, ponieważ...

Leczenie jest zarezerwowane dla tej korporacji zawodowej, którą ja reprezentuję i to copyright na nazwę obowiązuje na wielu poziomach.

Natomiast na określenie terapia, psychoterapia nie obowiązuje i w związku z tym właściwie każdy może użyć tego typu określeń, łącząc je z dowolnymi kolejnymi nazwami.

To od razu jakby wzbudzi taki nasz rodzaj pewnego zaniepokojenia czy uważności, jeśli ktoś nam zaproponuje na przykład psychoterapię poznawczo-behawioralną z użyciem tylko i wyłącznie aplikacji, gdzie w żaden sposób nie mamy do czynienia z diagnozą czy interakcją z żywą osobą.

Ale jeśli ktoś nam zaproponuje terapię opartą na analizie biospołecznej, psychospołecznej lub jakiejkolwiek innej, no to nasz krytycyzm czy nasze wątpliwości mogą zostać osłabione właśnie tym, że wydaje się, że ktoś proponuje nam jakieś

Ciekawy, nowy, interesujący produkt.

To kwestie związane ze zdrowiem psychicznym i dobrostanem psychicznym, to są sprawy związane, powiem to może tak mocno, ale związane z życiem i śmiercią.

Dlatego my powinniśmy wiedzieć, czy jeśli korzystamy z jakiejś aplikacji, czy jeśli korzystamy z jakiegoś programu,

no to wiemy, że on został przebadany, że wiadomo, że on pomaga, a przede wszystkim właśnie wiadomo, że on nie szkodzi.

Jeśli coś związane jest z leczeniem, to powinno być w ten sposób przebadane.

Co jest największym ryzykiem w takim przypadku?

Jak rozumiem, jeżeli to jest jakieś chwilowe moje obniżenie nastroju i ktoś, a właściwie coś, jakoś ten nastrój mi będzie próbowało podnieść, no to pewnie nie ma w tym wielkiej szkodliwości, ale być może po drodze przeoczymy coś, co byłoby wskazaniem do poważnego leczenia.

To może powiem, odwołując się do przykładu z mojej własnej praktyki klinicznej.

W pewnym momencie trafiający do mnie pacjenci zaczęli mi mówić, na przykład od 250 dni nie używałem substancji psychoaktywnych.

To, co mnie zaciekawiło, to to, skąd te osoby mają to tak dobrze wyliczone.

Okazało się, że korzystały z aplikacji, która pozwala na liczenie od ilu dni nie miało się jakiegoś problemu, zjawiska.

Czy to ma korzystny czy niekorzystny wpływ?

Wydawałoby się, że to dobrze, bo ten człowiek widzi swój postęp.

No tak, ale z drugiej strony to, co wiemy z terapii osób uzależnionych od alkoholu jest to, że wtedy, kiedy ktoś nie pije od kilkuset dni i na tym buduje swoje poczucie wartości, poczucie sprawstwa i nagle jest jeden dzień wpadki i licznik się zeruje, no to wtedy jego samopoczucie może być...

być negatywne.

To może mieć bardzo negatywny wpływ na to, jak on się czuje.

No i w związku z tym pytanie, czy to, że ktoś liczy czas od ostatniego tego typu zdarzenia, to mu pomaga, czy potencjalnie, jeśli dojdzie do nawrotu objawu, to mu szkodzi.

Przypuszczam, że wprowadzając w dobrych intencjach taką aplikację na rynek nikt tego nie sprawdził.

Podobnie z wszystkimi innymi aplikacjami, które jeśli odwołują się do kwestii, która może spowodować, że ktoś poczuje się lepiej, musi też brać pod uwagę to, że wpływ może być negatywny.

To właśnie zwłaszcza dotyczy wszystkich tego typu oddziaływań skierowanych do osób młodych, nastolatków, dzieci.

Nie jesteśmy w stanie przewidzieć wszystkich konsekwencji różnych rozwiązań, które proponujemy, ale pani redaktor to moim zdaniem nie tylko dotyczy kwestii, które związane są tak wprost ze zdrowiem psychicznym, ale taki duży problem kliniczny, który my teraz mamy i to jest narastająca kwestia, to są dialogi ze sztuczną inteligencją.

które są albo z takimi programami ogólnodostępnymi, albo takimi programami, które są profilowane, gdzie można zaprojektować sobie cechy osobowości, takiego wirtualnego

przyjaciela, partnera, łącznie z takimi cechami, które nie wydają się być relacyjnie zdrowe, że na przykład ktoś będzie w stosunku do nas władczy, albo że może w jakiś sposób próbować nas obrażać, albo

mieć z nami taki rodzaj miłosno-nienawistnej relacji.

Każdy z tych elementów w tych programach może zostać zaprojektowany.

Tam też możliwość zdefiniowania relacji łącznie z relacją romantyczno-seksualną, ze zdjęciami, filmami, mailami, które są do osoby wysyłane.

Powstaje cały nowy obszar, który dostępny jest dla osób nie tylko dorosłych, ale również osób nastoletnich, o których my praktycznie

niewiele wiemy i nie wiemy jaki ma wpływ.

Teraz z grupą studentów z Koła Naukowego Uzależnień w Collegium Medicum Iat badamy takie programy w ten sposób, że oni wchodzą z nimi w interakcji i sprawdzają co z tych interakcji dla osób, które korzystają z tego typu programów może wynikać.

Nie bierzemy tutaj pod uwagę tych programów, które proponują intymne relacje, tylko kontaktują się z ogólnie dostępnymi

programami, które też mogą nie wzbudzać niepokoju nastolatków czy na przykład ich rodziców, jeśli chodzi właśnie o ten rodzaj interakcji.

Jeśli mnie pani redaktor spyta, czy rozmowa z jednym czy drugim programem tzw.

ryzykowna czy nieryzykowna, trudno udzielić na to pytanie odpowiedzi.

Z jednej strony trochę leczy tak czasowo w danym momencie naszą samotność, a z drugiej strony wyobrażam sobie, że to może zabrnąć bardzo, bardzo daleko.

Tak, wydaje się, że najprawdopodobniej to, co się nie stanie, to nie stanie się tak, czy nie wydarzy się w relacji ze sztuczną inteligencją takie zjawisko ghostingu.

Czyli tego, że ta sztuczna inteligencja nagle nam zniknie, przestanie się z nami komunikować.

Choć są takie sytuacje, w których dla kogoś niezwykle traumatyczne jest to, że jakaś historia interakcji, dialogu zostaje wykasowana.

Może też być tak, że jeśli zacznie się dialog ze sztuczną inteligencją, to może potem ktoś nauczy się wchodzić w ten rodzaj kontaktu, który zaciekawi go relacją z prawdziwą osobą.

Z drugiej strony właściwie to jest taka podróż w nieznane, w którą wyruszamy nie sprawdzając tego, nie wiedząc.

Testując czat GPT, jedno z najbardziej popularnych narzędzi pod tym kątem i wpisując mu na przykład objawy, które można by rozpoznać jako chorobowe, akurat ten czat, akurat w tej konwersacji zachowywał się dosyć odpowiedzialnie, kazał mi się skontaktować ze specjalistą.

A z drugiej strony przecież to jest maszyna i to też halucynuje i różne mogę uzyskać odpowiedzi od niego.

Sama będąc też w różnym stanie psychicznym, dla mnie to był eksperyment.

Tak, są w literaturze przedmioty, opisy takich interakcji, gdzie można te zabezpieczenia, o których pani redaktor mówi, ominąć, uzyskać na przykład pomoc w wybraniu jakiejś metody zrobienia sobie krzywdy, czy pomoc w stworzeniu jakiegoś listu pożegnalnego.

Problem z modelami językowymi, które zrobią się coraz bardziej zaawansowane, jest taki, że one, tak jak pani redaktor powiedziała,

halucynują, czyli że one nie myślą, nie są inteligentne, tylko one na podstawie, tak, nie są empatyczne, one udają, udają w taki sposób, który w nas ma stworzyć iluzję, że mamy do czynienia z czymś, co rzeczywiście bierze jakiś rodzaj odpowiedzialności za słowa, ale to, w jakich one relacjach ze sobą pozostają, jest wynikiem czystych obliczeń matematycznych.

No i na przykład jak kiedyś pytałem o miasta, które są nad morzem w Europie, do których warto pojechać, to jednym z tych miast okazało się Zakopane.

Jak zwróciłem uwagę programowi, że Zakopane może nie jest tak bardzo blisko morza, no to zostałem natychmiast przeproszony i zachował się tak, jakby rozumiał ten błąd

i chciał zrobić wszystko, żeby nie odniósł jakiegoś negatywnego wrażenia z tej interakcji.

Kiedyś stworzył jakąś roślinę o zupełnie takich gargantulicznych rozmiarach, metrowej wielkości kapelusza muchomornicy.

No w ogóle nie wiadomo skąd biorących się połączeń i konceptów.

nabieramy pewnej ostrożności, ale w momencie, w którym dialogujemy na temat naszego zdrowia psychicznego, to możemy tego krytycyzmu związanego ze sprawdzaniem twardej wiedzy naukowej nie zachować.

No tak, bo tutaj podstawą do tego, że pan stwierdził, że to był błąd, była pana wiedza.

W momencie, w którym jesteśmy w sytuacji, gdzie nie mamy możliwości i narzędzi do rozpoznania swojego stanu, będziemy bardziej podatni.

Czy popularność szukania takich odpowiedzi w sieci nie wynika też z trudności dostępu do specjalistów?

Z drugiej strony naszego wstydu.

Wciąż jednak wstydu z udaniem się po pomoc.

Wydaje mi się, że jeśli chodzi o osoby nastoletnie, o dzieci, no to tutaj raczej nie mamy problemu dostępu.

Ten dostęp jest możliwy wtedy, kiedy poproszą o ten dostęp dorosłych.

Jest wiele też możliwości kontaktu, czy przez internet, czy telefonów zaufania, na które można zadzwonić.

Choć rzeczywiście ostatnio jedna z nastoletnich osób powiedziała mi, że

że dzwoniła na telefon zaufania i gdzieś miała informację, która jest w kolejności do rozmowy i to było dla niej trudne, żeby tym kryzysie, w którym wtedy się znajdowała, wyczekać.

A modele językowe są dostępne, sztuczne inteligencje są dostępne bez trudu, ale też być może mniej się wstydzimy w takiej rozmowie, ale te modele udają ludzi.

One tak z nami wchodzą w interakcje, używają takich słów, takich zwrotów,

Dziękuję, że podałeś więcej szczegółów.

Tak, dziękuję, że podałeś więcej szczegółów.

Pozwoli mi to lepiej ci pomóc.

To jest złamanie jednego z takich podstawowych praw robotyki, stworzonych przez pisarzy science fiction Asimowa.

które mówiły o tym, że robot nie może udawać człowieka.

Kolejne prawo jest takie, że musi mieć świadomość, że jest robotem, ale do tej świadomości sztucznej inteligencji jeszcze nam chyba kilku lat i megabajtów danych brakuje.

A czy sztuczna inteligencja w rękach państwa, w rękach specjalistów może pomóc w jakiś sposób w diagnozowaniu, w badaniach przesiewowych?

To, na co mam nadzieję, że sztuczna inteligencja może nas jakoś uwolnić i bardzo na to czekam, jako psychiatra, to jest to, że wreszcie będę mógł oderwać ręce od klawiatury.

Czekam na takie programy tworzone w oparciu o sztuczną inteligencję, które...

będą zintegrowane z bazami danych pacjentów, gdzie po prostu konwersacja, rozmowa z pacjentem będzie zapisywana bez konieczności niekończącego się przenoszenia uwagi w czasie rozmowy pomiędzy klawiaturą a osobą, z którą się rozmawia.

Czyli sztuczna inteligencja w roli asystenta, a nie w roli lekarza diagnozującego.

Tak, to jest pierwsze, najbardziej oczywiste i chyba najbardziej przez nas pożądane rozwiązanie.

No ale też są takie badania, między innymi też prowadzone w Szpitalu Uniwersyteckim w Krakowie, gdzie staramy się używając programów sztucznej inteligencji, ale nie modeli językowych, tylko trochę bardziej zaawansowanych, czy może odmiennie skonstruowanych programów, w tym wypadku opartych o tak zwany model grafów.

tak zoperacjonalizowwiedzę dotyczącą pacjentów, żeby program sztucznej inteligencji wspierał nas w predykcji diagnozy postępowania klinicznego,

Być może mniej będzie to przydatne dla doświadczonych psychiatrów, ale może być takim punktem odniesienia dla mniej doświadczonych koleżanek, kolegów albo na przykład psychologów, którzy zastanawiają się nad tym, jak szybko dana osoba powinna być konsultowana psychiatrycznie.

które postępowanie terapeutyczne w wypadku jakiejś konstelacji objawów może być najbardziej przydatne.

Czyli jakby to działało, to narzędzie by słuchało załóżmy rozmowy specjalisty i pacjenta i to co mogłoby umknąć lekarzowi w trakcie rozmowy jeszcze dawało sygnały, uwaga padło takie sformułowanie czy takie?

To, co teraz pani redaktor powiedziała, to jest nasze marzenie dotyczące dziesiątej wersji urządzenia, nad którym teraz pracujemy.

Na razie to, czym się zajmujemy, raczej dostarcza nam więcej pracy, bo poza tym, że notujemy stan pacjenta w dokumentacji medycznej, to jeszcze musimy wypełnić bardzo długi, złożony i taki...

zmieniającej się w zależności od problemu klinicznego kwestionariusz i po prostu pracowicie wpisujemy dane dotyczące tego, jaki jest obraz kliniczny pacjenta.

Poza tym pacjent, rodzice wypełniają ankietę.

Potem te dane trafiają do czarnego pudełka, co się w nim znajduje wiedzą informatycy, z którymi

Współpracujemy i czekamy na to, co z tego pudełka zostanie nam zwrócone w postaci pewnej predykcji kolejnych pacjentów, którzy nie są już tymi pacjentami, którzy nauczyli model.

Bo wbrew temu, że wydaje nam się, że jesteśmy bardzo wyjątkowi, to tak bardzo wyjątkowi w niektórych zachowaniach nie jesteśmy.

Tak, ale też my psychiatrzy nie jesteśmy tacy wyjątkowi.

To znaczy, że człowiek mniej więcej w tym samym momencie może brać pod uwagę około siedmiu elementów, które ma jakoś u siebie w umyśle.

I wtedy, kiedy my robimy diagnozę różnicową pomiędzy dwoma problemami klinicznymi, no to porównujemy...

W gruncie rzeczy te informacje, te dane, które jesteśmy w stanie objąć naszym umysłem, a program komputerowy, sztuczna inteligencja jest w stanie porównać pomiędzy sobą setki, jeśli nie tysiące danych i zobaczyć na ile pewne zjawiska kliniczne są do siebie podobne, a na ile są odmienne.

Czyli z jednej strony programy są, przepraszam za ten kolokwializm, ale głupsze od nas, bo nie myślą,

ale z drugiej strony są znacznie bardziej uważniejsze i dostrzegają więcej szczegółów, które nam po prostu mogą umykać.

Nie są tak łatwe w rozproszeniu.

Więc jeśli zobaczymy, że jeśli system nauczymy danymi 1400 pacjentów, no to mamy nadzieję, że jak pojawi się 1401, to system na podstawie danych, które zostaną wprowadzone, będzie mógł przyporządkować go do jakiejś grupy.

Diagnozy, ryzyka zachowań autoagresywnych, czy takiej grupy najbardziej skutecznej, efektywnej terapii.

To trzymamy kciuki za to narzędzie, ale na razie z ludzkimi problemami przychodzimy do człowieka.

Tak i mam nadzieję, że zawsze będziemy przychodzić i że to, czym się zajmuje psychiatria, psychologia, psychoterapia, zostanie zastąpione przez sztuczną inteligencję, że my zostaniemy zastąpieni przez sztuczną inteligencję, no nie tak szybko.

0:00
0:00