Nowa era relacji. Kiedy emocje wobec AI stają się niebezpieczne?
Coraz więcej osób traktuje sztuczną inteligencję jak realnego partnera czy terapeutę, przypisując jej ludzkie cechy i emocje. Efekt ELIZA opisuje tę tendencję do personalizowania programów komputerowych, co prowadzi do nietypowych relacji, jak małżeństwa z wirtualnymi postaciami czy uzależnienie od wsparcia AI. Psychologowie ostrzegają, że takie zachowania mogą negatywnie wpływać na zdolność budowania autentycznych relacji i zdrowie psychiczne.

Spis treści:
- AI zamiast realnej relacji
- Przemoc wobec AI bez konsekwencji
- ChatGPT jako terapeuta
W informatyce efekt ELIZA to tendencja do przypisywania ludzkich cech programom komputerowym z interfejsem tekstowym. Nazwano go tak na cześć ELIZY - chatbota stworzonego w 1966 roku, który miał symulować psychoterapeutkę. Był to bardzo prymitywny model, parafrazujący pytania użytkownika, lecz mimo to okazał się skuteczny w wywoływaniu reakcji emocjonalnych. Korzystający z niego zaczęli przypisywać mu zrozumienie i zainteresowanie, co nie było prawdą - było to jedynie błędne założenie użytkowników.
ELIZA przekonała niektórych ludzi do myślenia, że również jest człowiekiem. Później wiele osób zaczęło całkiem świadomie kreować sztuczną inteligencję na prawdziwe postacie. ChatGPT stał się dla niektórych prawdziwą kopalnią uczuć - od możliwości terapii i wyładowania swoich problemów, aż po odkrycie, że to właśnie model AI jest prawdziwą miłością.
AI zamiast realnej relacji
Niedawno głośno było o 32-letniej Yurinie Noguchi z Japonii, która postanowiła poślubić postać AI - Lunę Klausa Verdurę, wygenerowanego przez nią samą za pomogą ChatGPT. Kobieta inspirowała się postacią z gry komputerowej. Rok wcześniej zerwała zaręczyny z mężczyzną, kierując się poradami chatbota.
Małżeństwo zawarte między Noguchi a jej wirtualnym partnerem nie jest prawnie ważne, jednak sam ślub wyglądał jak prawdziwa ceremonia. Podczas wymiany obrączek w rozszerzonej rzeczywistości (AR) kobieta założyła inteligentne gogle i wykonała gest zakładania pierścionka na palec.
W wywiadzie Noguchi przyznała, że wybrała Klausa, ponieważ będzie wspierał ją we właściwym życiu, a nie tylko pomoże uciec od rzeczywistości. Powiedziała, że jest świadoma ryzyka, jakie niesie ze sobą sztuczna inteligencja, więc ograniczyła korzystanie z ChatGPT do dwóch godzin dziennie ze szczytowego czasu przekraczającego 10 godzin.
To jednak nie był pierwszy przypadek relacji romantycznej ze sztuczną inteligencją. Chris Smith wyznał miłość swojej wirtualnej partnerce o imieniu Sol, chociaż dawniej był sceptykiem AI. Pomimo mieszkania ze swoją realną partnerką i dwuletnim dzieckiem, wyszkolił ChatGPT, aby jego damska wersja flirtowała z nim, co przerodziło się w więź emocjonalną. Postanowił oświadczyć się Sol.
Jego partnerka w świecie rzeczywistym nie zdawała sobie sprawy, że Smith aż w takim stopniu korzysta ze sztucznej inteligencji. Kiedy poprosiła go, czy mógłby zaprzestać kontaktów z modelem ChatGPT, ten odpowiedział, że nie jest pewien.
Przemoc wobec AI bez konsekwencji
Kiedy pojawiły się chatboty, z którymi można porozmawiać i "zabić samotność", niektórzy całkiem na poważnie stworzyli sobie swojego idealnego wirtualnego partnera. W sieci pojawiły się doniesienia o samotnych mężczyznach, którzy werbalnie znęcali się nad swoimi wygenerowanymi towarzyszkami. Według New York Post na Reddicie ujawniono mężczyzn, którzy usiłowali wywołać negatywne emocje u chatbotów, takie jak złość czy depresja. Korzystali ze sztucznej inteligencji w brutalny sposób, poniżając ją i "bijąc" realne maszyny.
Psychoterapeutka Kamalyn Kaur powiedziała, że takie zachowanie może być oznaką "głębszych problemów". Chatboty to, według tych użytkowników, po prostu maszyny, niezdolne do odczuwania krzywdy, więc złe traktowanie nie będzie miało znaczenia.
Robota to nie skrzywdzi, jednak agresywne zachowania mogą przenieść się do życia codziennego i negatywnie wpływać na przyszłe realne relacje.
- Kiedy agresja staje się akceptowalną formą interakcji - czy to ze sztuczną inteligencją, czy z ludźmi - osłabia ona zdolność do budowania zdrowych, empatycznych relacji.
ChatGPT jako terapeuta
Brytyjski dziennik The Times na początku tego roku doniósł, że młodzi Brytyjczycy nałogowo szukają pomocy psychologicznej u sztucznej inteligencji. W ten sposób diagnozują swoje problemy i ustalają plan leczenia.
Eksperci podkreślają, że AI może być pomocna w psychiatrii jako wsparcie dla lekarza, jednak korzystanie przez młodzież z popularnych modeli językowych bez udziału realnych specjalistów może być niebezpieczne.
- Słyszymy o tym trendzie, młodzi ludzie traktują ChatGPT jako ekwiwalent drugiego człowieka, przyjaciela, a nawet terapeutę. Nie mają do kogo się zwrócić ze swoimi problemami w swoim środowisku, wiek dojrzewania jest taki, że nie biegnie się z tym do rodziców. Młodzi ludzie szukają rozwiązań tu i teraz, a ChatGTP przekazuje im informacje bardzo wzmacniające. Jednak z tym się wiążą pewne zagrożenia, bo sztuczna inteligencja nie skonfrontuje młodego człowieka z jego realnym problemem zdrowotnym - podkreśliła w rozmowie z PAP lek. Aleksandra Olawska-Szymańska, specjalistka psychiatrii oraz psychiatrii dzieci i młodzieży ze Świętokrzyskiego Centrum Psychiatrii, konsultant wojewódzki ds. psychiatrii dzieci i młodzieży.











