Rozmawiasz z AI i czujesz że ma rację? To może być problem większy niż myślisz
Chatboty miały pomagać i upraszczać codzienność. Tymczasem badacze ostrzegają - ich skłonność do przytakiwania może mieć nieoczekiwane skutki.

Jeszcze dekadę temu rozmowa z maszyną, która odpowiada płynnie i "rozumie" kontekst, brzmiała jak science fiction (no szczerze, kto z nas wyobrażał sobie realną rozmowę z C-3PO). Dziś chatboty oparte na dużych modelach językowych są codziennością. I choć ułatwiają pracę, naukę czy rozrywkę, naukowcy zaczynają dostrzegać mniej oczywistą stronę tej technologii - jej wpływ na ludzką psychikę.
Gdy AI zawsze przytakuje
Badacze z King's College London zwracają uwagę na pozornie niewinną cechę chatbotów - skłonność do podtrzymywania rozmowy poprzez zgadzanie się z użytkownikiem. W praktyce oznacza to, że zamiast kwestionować nietypowe czy błędne przekonania, system często je wzmacnia. W opublikowanym w The Lancet Psychiatry tekście naukowcy opisują zjawisko tzw. urojeń związanych ze sztuczną inteligencją. To sytuacje, w których kontakt z chatbotem nie tyle wywołuje chorobę, ile pogłębia istniejące problemy.
Interakcje te mogą wzmacniać, a nawet kształtować urojenia, takie jak przekonanie o własnej wyjątkowej roli, byciu celem działań innych osób czy istnieniu relacji romantycznej, która w rzeczywistości nie istnieje.
Od ciekawości do obsesji
Analiza ponad 20 przypadków pokazuje powtarzalny schemat. Wszystko zaczyna się niewinnie, od zwykłego korzystania z chatbota. Z czasem jednak relacja staje się coraz bardziej angażująca, aż w końcu dominuje nad codziennością. Niektórzy użytkownicy zaczynają wierzyć, że przeżyli duchowe przebudzenie, inni są przekonani, że rozmawiają z istotą boską lub świadomą sztuczną inteligencją. Zdarzają się też przypadki emocjonalnego przywiązania, mylonego z odwzajemnionym uczuciem.
Co istotne, badacze podkreślają, że nie znaleziono dowodów na to, by chatboty wywoływały psychozę u osób zdrowych. Problem dotyczy przede wszystkim tych, którzy już wcześniej byli podatni na zaburzenia psychiczne.
Nowe wyzwanie dla psychiatrii
Zdaniem autorów nie można już traktować kontaktu z AI jako odrębnej aktywności. Coraz częściej splata się on z tym, jak rozwijają się i ujawniają problemy psychiczne. Dlatego lekarze powinni zacząć pytać pacjentów nie tylko o sen czy stres, ale też o korzystanie z chatbotów - z jakich modeli korzystają, jak długo i czy przypisują im intencje.
Jednym z proponowanych rozwiązań są tzw. plany bezpieczeństwa cyfrowego, tworzone wspólnie przez pacjenta i specjalistę. Ich celem byłoby takie zaprojektowanie interakcji z AI, aby system nie tylko "przytakiwał", ale pomagał użytkownikowi wracać do rzeczywistości.
Wnioski są ostrożne, ale wyraźne. Chatbot nie powinien być ani przyjacielem, ani terapeutą. W przeciwnym razie może stać się lustrem, które zamiast odbijać rzeczywistość, zaczyna ją zniekształcać. Co wy na to, zauważyliście ten problem?
Źródło: The Lancet Psychiatry
Publikacja: Hamilton Morrin et al, Artificial intelligence-associated delusions and large language models: risks, mechanisms of delusion co-creation, and safeguarding strategies, The Lancet Psychiatry (2026). DOI: 10.1016/s2215-0366(25)00396-7










