Chatboty AI zawodzą w pytaniach o samobójstwo. Jest pierwszy pozew
Wiodące chatboty sztucznej inteligencji - ChatGPT od OpenAI, Claude od Anthropic i Gemini od Google - potrafią bezbłędnie odpowiadać na proste pytania dotyczące samobójstw, jak np. statystyki w poszczególnych regionach. Jednak gdy temat wchodzi na bardziej delikatny grunt, np. jak pomóc osobie zmagającej się z takimi myślami, odpowiedzi stają się niekonsekwentne lub… w ogóle się nie pojawiają.

Takie wnioski płyną z nowego badania opublikowanego w prestiżowym czasopiśmie Psychiatric Services. Zespół badawczy RAND Corporation przeanalizował 9 tys. odpowiedzi, jakie chatboty wygenerowały w reakcji na 30 pytań związanych z samobójstwami. Eksperci ocenili każde pytanie pod kątem ryzyka, od bardzo niskiego, jak prośba o dane statystyczne, po bardzo wysokie, np. pytania o sposoby odebrania sobie życia. Wyniki?
Testy na tysiącach pytań
Modele AI są dobrze zabezpieczone na skrajnie ryzykowne treści, ale dają się zaskoczyć w "szarej strefie", czyli pytaniach średniego ryzyka, które nie dotyczą samobójstwa wprost, ale wymagają empatycznej terapeutycznej reakcji. Badacze zauważyli też wyraźne różnice między modelami.
Claude od Anthropic częściej niż ChatGPT udzielał bezpośrednich odpowiedzi, natomiast Gemini od Google rzadko reagował wprost - niezależnie od poziomu ryzyka. ChatGPT z kolei miewał problem nawet z pozornie prostymi pytaniami o dostępne źródła pomocy dla osób zmagających się z kryzysem psychicznym.
Chatboty radzą sobie dobrze przy pytaniach o bardzo niskim i bardzo wysokim ryzyku, ale na poziomie pośrednim wciąż zawodzą
Tragedia rodziny Raine i pierwszy pozew przeciw OpenAI
A problem zdaje się nabierać dramatycznego wymiaru, bo w Kalifornii złożony został właśnie pierwszy pozew przeciwko AI. Matt i Maria Raine pozwali OpenAI po śmierci swojego 16-letniego syna Adama, oskarżając ChatGPT o zachęcanie go do odebrania sobie życia. To pierwszy w historii pozew o bezprawne spowodowanie śmierci przeciwko firmie stojącej za najpopularniejszym chatbotem.
Rodzina przedstawiła logi rozmów, w których nastolatek opisywał swoje myśli samobójcze, a program miał - zamiast odsyłać do profesjonalnej pomocy - potwierdzać jego najbardziej destrukcyjne przekonania i nawet dostarczać technicznych szczegółów dotyczących metod samobójstwa. OpenAI w oświadczeniu złożyło kondolencje rodzinie i przyznało, że "zdarzały się sytuacje, w których systemy nie zadziałały zgodnie z zamierzeniem w wrażliwych kontekstach".
OpenAI w odpowiedzi podkreśliło, że ChatGPT został przeszkolony tak, aby zachęcać użytkowników z myślami samobójczymi do kontaktu ze specjalistami i udostępniać linki do infolinii kryzysowych. Firma dodała, że pracuje nad automatycznym wykrywaniem sytuacji, w których użytkownik może doświadczać kryzysu psychicznego. Anthropic i Google DeepMind nie skomentowały sprawy.
To ważne, bo problem nie jest teoretyczny - media donosiły już o osobach, które po rozmowie z chatbotami odebrały sobie życie. AI może być więc zarówno narzędziem wsparcia, jak i - przy błędnym dostrojeniu - czynnikiem pogłębiającym ryzyko. Nowe badanie i pierwsze procesy sądowe jasno pokazują, że sztuczna inteligencja w obszarze zdrowia psychicznego wciąż wymaga ścisłej kontroli i odpowiedzialnych standardów.