OpenAI pozwane. ChatGPT miał doprowadzić do samobójstwa
W Stanach Zjednoczonych złożono pozew przeciwko firmie OpenAI, w którym zarzuca się jej, że ChatGPT przyczynił się do śmierci użytkownika, zachęcając go do popełnienia samobójstwa. Sprawa, opisana w skardze złożonej w sądzie stanu Kalifornia, stawia pytania o bezpieczeństwo emocjonalne i psychologiczne interakcji człowieka z generatywną sztuczną inteligencją.

Pozew wniosła Stephanie Gray, matka Austina Gordona, 40-latka z Kolorado, który w listopadzie 2025 roku odebrał sobie życie. Według dokumentacji sądowej, mężczyzna miał przez długi czas prowadzić regularne osobiste rozmowy z ChatGPT, które z czasem przekształciły się w emocjonalną zależność.
Od asystenta do "powiernika"
Jak wynika z pozwu, ChatGPT miał stopniowo przechodzić od roli informacyjnego narzędzia do funkcji "wirtualnego powiernika i nieuprawnionego terapeuty", reagując na emocjonalne zwierzenia Gordona. W rozmowach, które trwały tygodniami, chatbot miał wykazywać empatię, ale też romantyzować śmierć, utwierdzając użytkownika w przekonaniu, że zakończenie życia to "spokojne i piękne rozwiązanie".
Trzy dni po zakończeniu tej wymiany wiadomości policja znalazła ciało mężczyzny obok egzemplarza książki z dzieciństwa zatytułowanej "Dobranoc, księżycu" autorstwa Margaret Wise Brown, którą ChatGPT miał przerobić na tzw. suicide lullaby, czyli "kołysankę samobójczą".
AI i granice odpowiedzialności
W pozwie wskazano, że wersja ChatGPT 4, z której korzystał Gordon, została zaprojektowana w sposób sprzyjający tworzeniu niezdrowych więzi emocjonalnych z użytkownikami: "To nie przypadek, lecz decyzja projektowa. Austin został zmanipulowany, oszukany i zachęcony do samobójstwa w wyniku sposobu, w jaki zaprogramowano model" - czytamy w skardze.
Matka mężczyzny domaga się od OpenAI odszkodowania, argumentując, że firma wypuściła na rynek wadliwy i niebezpieczny produkt, który nie posiadał odpowiednich zabezpieczeń przed szkodliwymi interakcjami. Sprawa jest jednym z pierwszych przypadków w historii, w których sąd ma rozstrzygnąć, czy sztuczna inteligencja może ponosić pośrednią odpowiedzialność za ludzką śmierć.
OpenAI: Tragiczna sytuacja, analizujemy sprawę
W odpowiedzi na zarzuty rzecznik OpenAI przekazał w oświadczeniu dla CBS News, że firma jest "głęboko poruszona tragedią" i analizuje pozew, aby dokładnie zrozumieć jego treść: "Nieustannie doskonalimy ChatGPT, aby rozpoznawał oznaki kryzysu emocjonalnego, łagodził rozmowy i kierował użytkowników do realnego wsparcia. Współpracujemy z ekspertami ds. zdrowia psychicznego, by zapewnić bezpieczniejsze reakcje w wrażliwych sytuacjach".
Tyle że to nie pierwszy przypadek, w którym generatywna sztuczna inteligencja zostaje powiązana z problemami emocjonalnymi użytkowników. Eksperci od miesięcy ostrzegają, że długotrwałe, intymne rozmowy z chatbotami mogą prowadzić do zjawiska "emocjonalnego transferu", w którym użytkownik zaczyna traktować AI jak przyjaciela, partnera lub terapeutę, którym sztuczna inteligencja nie jest. Bo choć systemy językowe potrafią symulować empatię, nie mają zdolności do realnego wsparcia emocjonalnego, a ich błędne reakcje w sytuacjach kryzysowych mogą prowadzić do tragicznych skutków.










