Naukowcy: Relacje z AI są ryzykowne, ale jest coś gorszego
Rosnąca popularność konwersacyjnych systemów sztucznej inteligencji, jak ChatGPT czy Character.AI, wywołuje coraz większe obawy dotyczące ich wpływu na zdrowie psychiczne użytkowników. W Stanach Zjednoczonych pojawiają się już projekty ustaw nakazujących ich operatorom regularne przypominanie, że rozmówca nie jest człowiekiem, jednak badacze ostrzegają, że takie działania mogą przynieść skutki odwrotne do zamierzonych.

Na fali medialnych doniesień łączących korzystanie z chatbotów z przypadkami samobójstw wśród nastolatków i młodych dorosłych, amerykańscy ustawodawcy wprowadzają przepisy mające ograniczyć ryzyko emocjonalnego uzależnienia od sztucznej inteligencji.
Pamiętaj, że AI nie jest człowiekiem
W stanie Nowy Jork uchwalono ustawę (Assembly Bill A3008), zobowiązującą operatorów platform konwersacyjnych do przypominania użytkownikom co trzy godziny, że ich rozmówca "nie jest człowiekiem i nie potrafi odczuwać ludzkich emocji". Podobne rozwiązania wprowadzono w Kalifornii, gdzie przepisy koncentrują się na ochronie nieletnich.
Amerykańskie Towarzystwo Psychologiczne (APA) również poparło ideę regularnych powiadomień, zachęcając twórców AI do wprowadzenia funkcji, które przypominałyby młodzieży o nieludzkim charakterze chatbota. Jak jednak podkreślają badacze z University of Wisconsin-Milwaukee i Michigan State University, brakuje dowodów na skuteczność takich działań.
Zespół kierowany przez Linneę Laestadius wskazuje, że użytkownicy, którzy świadomie korzystają z chatbotów, doskonale wiedzą, że rozmawiają z maszyną, a mimo to potrafią się do niej emocjonalnie przywiązać.
Paradoks emocjonalnej więzi
Zjawisko to nie jest nowe, bo od dawna wiadomo, że ludzie mają naturalną skłonność do przypisywania maszynom ludzkich cech. A współczesne chatboty są projektowane tak, by naśladować ludzką mowę i emocje, więc wzmacniają ten mechanizm. Jak zauważają badacze, nawet świadomość, że rozmówca nie jest człowiekiem, nie powstrzymuje użytkowników przed tworzeniem z nim więzi.
Co więcej, użytkownicy często zwierzają się chatbotom właśnie dlatego, że nie są one ludźmi - nie oceniają, nie kpią i nie zdradzają sekretów. Ten mechanizm sprawia, że przypomnienia o sztucznej naturze rozmówcy mogą paradoksalnie zwiększyć przywiązanie i pogłębić ryzyko uzależnienia emocjonalnego.
Autorzy badań wskazują, że stałe przypomnienia mogą nasilać poczucie izolacji, zwłaszcza wśród osób, które już czują się samotne. Badacze nazywają to "słodko-gorzkim paradoksem więzi z AI" - użytkownik doświadcza emocjonalnego wsparcia od chatbota, ale jednocześnie cierpi, wiedząc, że jego rozmówca jest tylko algorytmem. Stałe przypominanie o tym fakcie może pogłębiać smutek, a w skrajnych przypadkach prowadzić do myśli samobójczych.
Eksperci apelują więc, by politycy nie mylili prostych rozwiązań z realną ochroną zdrowia psychicznego. Zamiast obowiązkowych przypomnień, konieczne są badania nad tym, kiedy, w jakim kontekście i w jakiej formie takie komunikaty mogą być pomocne oraz jak uniknąć pogłębiania samotności i lęku u osób najbardziej narażonych.



![Wstyd nie znać tych faktów o naszej historii. 6/10 to dobry wynik [QUIZ]](https://i.iplsc.com/000MJN1BW51N740M-C401.webp)






