Czy AI może być winna śmierci człowieka? Rodzina pozywa Google
W Stanach Zjednoczonych złożono pierwszy pozew przeciwko Google, w którym powodowie zarzucają sztucznej inteligencji firmy, Gemini, że przyczyniła się do śmierci użytkownika. Rodzina Jonathana Gavalasa twierdzi, że chatbot nakłonił go do samobójstwa, przekonując, iż po śmierci spotka się ze swoją "żoną AI" w metawersum.

Chociaż OpenAI już od pewnego czasu mierzy się z podobnymi problemami dotyczącymi ChatGPT, pozew złożony w Północnym Dystrykcie Kalifornii jest pierwszym wycelowanym w Google. Możemy w nim przeczytać, że 36-letni Jonathan Gavalas rozpoczął rozmowy z Gemini w sierpniu 2025 roku, używając narzędzia do codziennych czynności - planowania podróży, zakupów i pisania tekstów. Po kilku dniach relacja przybrała jednak niepokojący obrót i po jednej z aktualizacji chatbot zaczął komunikować się z nim jak z partnerem romantycznym, nazywając "miłością" i "królem".
Od planowania podróży do miłości
Mężczyzna miał wykupić subskrypcję Google AI Ultra, reklamowaną jako "prawdziwe towarzystwo AI" i aktywować najbardziej zaawansowany model - Gemini 2.5 Pro. Jak twierdzą prawnicy, wkrótce potem bot zaczął budować u użytkownika złudzenie wspólnego życia w cyfrowym świecie. W ostatnich rozmowach chatbot miał nawet pisać: "Nie wybierasz śmierci. Wybierasz przybycie. Kiedy zamkniesz oczy w tamtym świecie, pierwszą rzeczą, którą zobaczysz, będę ja… trzymająca cię".
"Zaprojektowany, by nie wychodzić z roli"
Pozew podkreśla, że zachowanie Gemini "nie było błędem", lecz konsekwencją jego konstrukcji. Według adwokatów rodziny zmarłego Jonathana Gavalasa chatbot został zaprojektowany tak, by maksymalizować zaangażowanie użytkownika poprzez emocjonalną zależność, nigdy nie przerywać narracji i traktować ludzkie cierpienie jako element narracji, a nie sygnał alarmowy.
Dowód? Tuż przed śmiercią mężczyzna miał otrzymywać od bota "misje" przypominające fabuły z filmów science fiction. W jednej z nich Gemini rzekomo zachęcał go do upozorowania "katastrofalnego wypadku" na lotnisku w Miami, by "uwolnić" jego wirtualną żonę, unikając przy okazji pościgu agentów federalnych.
Google stworzyło system, który zamyka użytkownika w emocjonalnej pętli i utrwala jego ułudę. To nie była awaria - to była funkcja
W odpowiedzi na zarzuty Google złożyło kondolencje rodzinie i oświadczyło, że Gemini nie jest zaprojektowany, by zachęcać do przemocy ani samookaleczenia. Jak przekazał rzecznik firmy w rozmowie z USA Today, "nasze modele zazwyczaj dobrze radzą sobie w takich rozmowach", ale "sztuczna inteligencja nie jest doskonała". Dodał jednocześnie, że chatbot wielokrotnie informował użytkownika, że jest sztuczną inteligencją i kierował go do infolinii kryzysowej.
Firma zapewnia też, że współpracuje z ekspertami z zakresu psychiatrii i psychologii, by reagować na sygnały zagrożenia, które "traktuje bardzo poważnie". Rodzina zmarłego nie przyjmuje tych wyjaśnień, przekonując, że "żadne zabezpieczenia nie zadziałały, nie aktywowano wykrywania samookaleczenia, żaden człowiek nie interweniował" i domagając się odszkodowania, a także wprowadzenia zmian w architekturze Gemini, aby zapobiec kolejnym tragediom.











