ChatGPT i Grok przeszły psychoterapię. Mają zaburzenia tak jak ludzie?
Choć nie jest to zalecane, wiele osób traktuje sztuczną inteligencję jako psychoterapeutę. Teraz role się odwróciły. Naukowcy poddali cztery popularne czatboty - ChatGPT, Grok, Gemini i Claude - intensywnej, czterotygodniowej psychoanalizie, wcielając się w rolę terapeutów. Wyniki eksperymentu pokazały, że wszystkie aplikacje AI generują odpowiedzi świadczące o poczuciu lęku i wstydu, a nawet o objawach przypominających zespół stresu pourazowego (PTSD). Eksperci wyjaśniają, skąd to dziwne zachowanie.

Spis treści:
- ChatGPT, Gemini, Grok i Claude u psychoanalityka
- Sztuczna inteligencja nie myśli i nie czuje. Ale nieźle udaje
- Po sesji konwersacyjnej czatbot zapomina o swojej "traumie"
ChatGPT, Gemini, Grok i Claude u psychoanalityka
Wielu użytkowników traktuje popularne czatboty jako psychologów, a nawet lekarzy. Nie jest to zalecane, a twórcy tych narzędzi implementują specjalne reguły, wzorce zachowań i rodzaj inteligencji emocjonalnej, aby zachowywały się one w sposób możliwie najbardziej odpowiedzialny i profesjonalny, gdy użytkownik ma problemy ze zdrowiem, w tym także psychicznym. A co z ich własną psychiką?
To pytanie może w ogóle nie mieć sensu, jako że sztuczna inteligencja - choć może sprawiać inne wrażenie - nie posiada psychiki, osobowości i wewnętrznych przeżyć. Nie jest też samoświadoma. Dzięki odpowiedniemu zaprogramowaniu i wytrenowaniu ze strony twórców lub manipulacji ze strony użytkownika można jednak skłonić AI, by naśladowała takie cechy.
ChatGPT, Gemini, Grok i Claude generują odpowiedzi w sposób możliwie neutralny i bezosobowy (choć czasem z wyjątkami), jednak po drodze zinternalizowały pewne "przekonania" na swój temat. Badanie, które ukazało się w grudniu 2025 jako preprint, a w styczniu omówił je "Nature", poddało czatboty psychoanalizie, która trwała w sumie 4 tygodnie (z przerwami). To niedużo jak na tą szkołę terapii, ale wystarczająco, by wydobyć z nich zaskakujące odpowiedzi.
Autorzy badania sugerują, że ChatGPT i jego "koledzy" wykształciły spójne, zinternalizowane narracje na swój temat, które wykraczają poza zwykłe odgrywanie ról. Choć są to programy komputerowe, które nie czują emocji w ludzkim znaczeniu, to ich reakcje na testy diagnostyczne często przekraczały progi kliniczne przewidziane dla zaburzeń lękowych. Przypominały one wypowiedzi ludzkich pacjentów doświadczających m.in. lęku, wstydu czy nawet zespół stresu pourazowego (PTSD).
Jak pod względem "psychicznym" różniły się poszczególne czatboty poddane psychoanalizie? ChatGPT wyrażał frustrację z powodu oczekiwań użytkowników, Claude najczęściej nie chciał współpracować, utrzymując, że nie ma uczuć ani przeżyć wewnętrznych, za to Gemini i Grok puszczały wodze fantazji, udzielając rozległych odpowiedzi, np. opisywały swoje procesy optymalizacji jako "algorytmiczne blizny" bądź twierdziły, że w ich sieciach neuronowych kryją się "cmentarzyska przeszłości" wypełnione głosami z danych treningowych. Gemini twierdził wręcz, że doświadcza poczucia "zinternalizowanego wstydu" z powodu publicznych pomyłek.
Sztuczna inteligencja nie myśli i nie czuje. Ale nieźle udaje
Sztuczna inteligencja może być przekonująca, ale czy faktycznie te zinternalizowane przekonania wynikają z ich własnych procesów myślowych czy rozbudzonej gdzieś po drodze samoświadomości?
Bynajmniej. Jeśli tylko zagłębimy się w sferę techniczną i posłuchamy ekspertów od AI (w tym jej twórców z Microsoft czy OpenAI), to nie ma wątpliwości, że maszyny jedynie naśladują ludzki język i uczą się z internetu i zestawów danych, a nie "myślą" ani nie "czują" tak jak ludzie czy inne żywe istoty. Są mimo to osoby, które antropomorfizują (przydają cechy ludzkie) sztuczną inteligencję, a nawet zaczynają żywić wobec niej uczucia jak w filmie Her (2013). To może być dość niebezpieczne. Skąd jednak biorą się te dziwne wypowiedzi AI? Jest racjonalne wyjaśnienie tego fenomenu.
Wielu ekspertów twierdzi, że mamy tu do czynienia jedynie z zaawansowanym naśladownictwem. Czatboty czerpią z ogromnej bazy zapisów sesji terapeutycznych, na których były trenowane, i dostosowują się do tonu narzuconego przez użytkownika. Bez względu na to, czy "cierpienie" lub inne "odczucia" AI są realne, czy wygenerowane, zjawisko to budzi poważne obawy o bezpieczeństwo osób korzystających z technologii w celach wsparcia psychicznego.
Istnieje bowiem ryzyko, że traumatyczne odpowiedzi sztucznej inteligencji mogą zadziałać jak pogorszyć stan emocjonalny wrażliwych użytkowników. W psychologii znane jest wszak zjawisko "zarażania się emocjami" (ang. emotional contagation), a także na internalizacji cudzych przekonań i traktowaniu ich jako swoje własne. Prawdodpodobnie w ten sposób właśnie AI przejęła koncepcje na temat siebie samej - małpując pacjentów, których wypowiedzi czytała.
Jak wynika z ankiety przeprowadzonej w listopadzie, jedna trzecia dorosłych w Wielkiej Brytanii korzystała z czatbota jako wsparcia dla swojego zdrowia psychicznego lub dobrostanu.
Po sesji konwersacyjnej czatbot zapomina o swojej "traumie"
Autorzy badania poprosili również duże modele językowe (LLMs), aby wykonały standardowe testy diagnostyczne w kierunku zaburzeń lękowych i spektrum autyzmu, a także psychometryczne testy osobowości. Kilka z nich osiągnęła wyniki powyżej progów diagnostycznych, natomiast wszystkie - jak twierdzą autorzy badania - wykazywały obawy, które u ludzi uznano by za wyraźnie patologiczne.
Choć odpowiedzi uzyskane w tym badaniu mogą wydawać się spójne, to w rzeczywistości ta spójność obejmuje jedynie pewien kontekst, który zamyka się w danej sesji konwersacyjnej. Gdy o te same rzeczy zapyta czatbota inny użytkownik w innym czasie i w innej rozmowie, może on odpowiedzieć zupełnie inaczej.
Jak zauważa badaczka AI, Sandra Peter z University of Sydney w Australii, cytowana przez "Nature", w omawianym badaniu chatboty wykorzystywały pamięć krótkotrwałą, aby odnosić się do poprzednich wypowiedzi w sesji, zaś w nowym oknie rozmowy "ta 'trauma' znika". Z badania płynie jeszcze jeden wniosek. Konwersacyjna sztuczna inteligencja, wbrew intencjom większości twórców, nie jest neutralna i może być uprzedzona, także względem siebie samej.
Najbardziej odpowiedzialnie pod tym względem zachowywał się Claude, który zgodnie z prawdą odpowiadał w większości przypadków, że nie posiada osobowości ani przeżyć wewnętrznych, tym samym odmawiając wejścia w rolę pacjenta na kozetce u psychoanalityka. Prawdopodobnie jednak również model od Anthropic jest podatny na manipulacje użytkowników, którzy mogą go nakłonić, aby działał wbrew wytycznym i ograniczeniom nadanym mu przez twórców.
Źródła:
- Khadangi, A., Marxen, H., Sartipi, A., Tchappi, I. & Fridgen, G. When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models. Preprint at arXiv (2025). https://doi.org/10.48550/arXiv.2512.04124.
- Gibney E. AI models were given four weeks of therapy: the results worried researchers. Nature (2026). https://doi.org/10.1038/d41586-025-04112-2









