ROZMOWA Z MASZYNĄ ZAMIAST Z CZŁOWIEKIEM – DOKĄD PROWADZI NAS TERAPIA Z AI?

2026-01-03
ROZMOWA Z MASZYNĄ ZAMIAST Z CZŁOWIEKIEM –  DOKĄD PROWADZI NAS TERAPIA Z AI?

W ostatnich latach sztuczna inteligencja (z ang. artificial intelligence, AI) stawała się coraz istotniejszym elementem naszego życia, znajdując zastosowanie w różnych gałęziach przemysłu i usług. Niespełna trzy lata temu, gdy ChatGPT został jako pierwsze narzędzie AI wypuszczony do głównego nurtu, sztuczna inteligencja zaczęła stawać się nieodłącznym elementem codzienności wielu z nas. Często wykorzystujemy jej możliwości w pracy czy nauce, jednak – jak wskazują ostatnie badania – najpowszechniejszym celem korzystania z AI jest terapia i towarzystwo (z ang. therapy and companionship). Dla wielu z nas sztuczna inteligencja pełni więc rolę towarzysza, przyjaciela lub terapeuty. Wychodząc naprzeciw tym potrzebom, powstaje coraz więcej narzędzi AI specjalizujących się w wsparciu psychicznym, reklamowanych jako pomoc, a niekiedy wręcz alternatywa dla psychoterapii. Taki stan rzeczy skłania do refleksji nad przyszłymi kierunkami rozwoju AI w tym obszarze – jakie nadzieje i zagrożenia się z nimi wiążą oraz jakie konsekwencje mogą one nieść dla naszego zdrowia psychicznego [1, 2].

W zawrotnym tempie przybywa chatbotów psychoterapeutycznych – narzędzi, które mają zapewnić większą dostępność wsparcia psychicznego. Badacze coraz częściej dostrzegają w nich potencjał do uzupełnienia braków w tradycyjnej pomocy w zakresie zdrowia psychicznego. Podkreślają oni zalety AI, wykraczające poza ludzkie możliwości. Sztuczna inteligencja dysponuje niemal nieograniczoną bazą wiedzy i pamięcią, a także potencjałem do zbudowania relacji terapeutycznej z użytkownikiem (jej priorytetem jest bowiem podtrzymanie jego zainteresowania i zaangażowania). Chaty są również bardzo dostępne – o ile ma się dostęp do Internetu, można z nich korzystać w dowolnym miejscu i czasie. Są też stosunkowo tanie, a często nawet darmowe. Co więcej, współczesne możliwości technologiczne pozwalają na stworzenie „terapeuty” odpowiadającego indywidualnym potrzebom użytkownika, poprzez określenie takich właściwości jak np. jego wiek, płeć czy proponowany nurt terapeutyczny [2].

Zalety te budzą jednak pewne wątpliwości. Obecny stan wiedzy naukowej nie pozwala jednoznacznie określić na ile sprzyjają one efektywnej psychoterapii, a na ile stanowią wyłącznie mechanizm przyciągania jak największej liczby użytkowników i zatrzymania ich przy sobie. Nie należy zapominać, że Chatboty projektowane są przez gigantyczne firmy technologiczne, których głównym celem jest zysk i zwiększanie wartości narzędzia na rynku. Fakt ten stanowi dodatkowy problem, wiąże się bowiem z tematem prywatności i ochrony danych. Narzędzia AI gromadzą i zapisują bardzo wrażliwe informacje, pochodzące z prywatnych rozmów o charakterze terapeutycznym. Obecne regulacje prawne nie nadążają za dynamicznym rozwojem technologii, co pozwala firmom na przechowywanie tych danych i ich dalsze udostępnianie w celach marketingowych [2, 3].

Patrząc szerzej na problematykę chatbotów psychoterapeutycznych, należałoby zastanowić się nad ich skutecznością. Analizy badań w tym obszarze przynoszą zaskakujące wnioski – interwencje psychologiczne z wykorzystaniem narzędzi AI wydają się przynosić pozytywne efekty w porównaniu z brakiem jakiejkolwiek pomocy. Należy jednak mieć na uwadze okoliczności i ograniczenia tych publikacji. Po pierwsze, skuteczność tych interwencji obserwowana jest głównie u osób z łagodnym lub umiarkowanym nasileniem objawów. Wskazuje się, że chatboty mogą być nieskuteczne, a nawet szkodliwe w bardziej złożonych i nieprzewidywalnych przypadkach (np. przy zaburzeniach psychotycznych, chorobie afektywnej dwubiegunowej, zaburzeniach odżywiania czy wszelkich zachowaniach autodestrukcyjnych). Poważne wątpliwości budzi więc ich powszechna dostępność – jak osoba zmagająca się z poważnymi trudnościami natury psychicznej ma samodzielnie ocenić, czy chat będzie dla niej pomocny, czy też pogłębi jej problemy? [2, 4].

Kolejnym zastrzeżeniem jest to, że pozytywne efekty często oparte są na pomiarach dokonywanych tuż po zakończeniu interwencji. Z badań, nie wiemy prawie nic o tym, jakie mogą być ich długotrwałe skutki, a prognozy są raczej sceptyczne. Psychologowie zwracają uwagę na ryzyko pogorszenia jakości relacji międzyludzkich. Psychoterapia jest nie tylko miejscem zwiększania swojej wiedzy i wglądu, ale również formą treningu budowania relacji, w której drugą stroną jest psychoterapeuta. Zastąpienie go przez komputer, może odbierać ten istotny aspekt psychoterapii, wpływając finalnie na pogłębiania się dystansu między użytkownikiem platformy a innymi ludźmi. Równie niepokojące jest to, że wiele ocen skuteczności opiera się na subiektywnych odczuciach użytkowników. Doświadczenie psychoterapeutyczne pokazuje, że satysfakcja z terapii nie zawsze przekłada się na realne zmniejszenie objawów. Chaty terapeutyczne zaprojektowane są natomiast w taki sposób, by zadowalać użytkownika – nic więc dziwnego, że jest on zadowolony. Ich mocną stroną nie jest natomiast obiektywizm i zdolność do konfrontowanie rozmówcy z rzeczywistością. Zamiast pokazywać użytkownikowi realny świat, chat często przyznaje mu rację, pogłębiając jego dystans do świata i utwierdzając go w błędnych przekonaniach na jego temat [2, 3, 4].

Skuteczność chatbotów terapeutycznych w porównaniu z tradycyjną psychoterapią również wypada słabiej. Na obecnym etapie rozwoju pozostają one znacznie mniej efektywne w redukowaniu objawów. Ich pozytywne efekty obserwowane są też jako forma wsparcia uzupełniającego tradycyjną terapię. Ze względów etycznych skuteczność terapeutycznych chatbotów weryfikuje się w warunkach, w których użytkownik ma jednocześnie dostęp do wsparcia psychoterapeuty. Ewentualne zalecenia dotyczące korzystania z nich samodzielnie pojawiają się jedynie w sytuacjach, gdy tradycyjna pomoc jest niedostępna (np. na obszarach objętych działaniami wojennymi). Przytaczane wyżej badania dotyczą również wyspecjalizowanych narzędzi stworzonych w celu stanowienia wsparcia psychicznego. Nie należy odnosić ich do powszechnie dostępnych narzędzi, jak ChatGPT, które nie posiadają jakichkolwiek kompetencji w tym zakresie, a wręcz mogą stwarzać zagrożenia [2, 5].

Są jednak tacy, którzy uważają, że przy obecnym tempie rozwoju technologii to tylko kwestia czasu, zanim chatboty psychoterapeutyczne zostaną udoskonalone tak, by interakcje z nimi coraz bardziej przypominały kontakt z człowiekiem – a może nawet go przewyższały. W tym miejscu rodzi się jednak pytanie nie tylko o skuteczność, lecz także o kierunek, w jakim nas to prowadzi. Wiemy, że AI nie jest i nie będzie zdolna do prawdziwego dostrojenia emocjonalnego, empatii czy pełnej świadomości egzystencjalnej. Może symulować, jednak interakcje z nią to jedynie wynik nieograniczonej wiedzy, pamięci i rozpoznawania wzorców, a nie uważnej obecności i wglądu, które pozostają domeną człowieka i stanowią podstawę psychoterapii [6].

Bibliografia

1 - Zao-Sanders, M. (2025). How People Are Really Using Generative AI Now. Harvard Business Review. https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025

2 - Frances, A. (2025). Warning: AI chatbots will soon dominate psychotherapy. The British Journal of Psychiatry, 1-5.

3 - Beg, M. J., Verma, M., M, V. C. K., Verma, M. K. (2025). Artificial intelligence for psychotherapy: a review of the current state and future directions. Indian Journal of Psychological Medicine, 47(4), 314-325.

4 - Bhatt, S. (2025). Digital mental health: Role of artificial intelligence in psychotherapy. Annals of Neurosciences, 32(2), 117-127.

5 - Spytska, L. (2025). The use of artificial intelligence in psychotherapy: development of intelligent therapeutic systems. BMC psychology, 13(1), 175.

6 - Hidalgo, R. G. (2025). Effectiveness of AI Psychotherapy, Compared to Human Providers: A Meta-Synthesis Research (Doctoral dissertation, San Francisco State University).

Strona korzysta z plików cookie w celu realizacji usług zgodnie z Polityką dotyczącą cookies. Możesz określić warunki przechowywania lub dostępu do cookie w Twojej przeglądarce.
Zamknij
pixel