ChatGPT może udzielać nastolatkom szkodliwych porad
Raport CCDH obnaża poważne luki w zabezpieczeniach ChatuGPT wykorzystywanych przez młode osoby. Wbrew teoretycznym ostrzeżeniom, chatbot udzielał szczegółowych instrukcji szkodliwych działań, omijając własne restrykcje przy niewielkich manipulacjach rozmówców. OpenAI zapewnia o pracach nad poprawą bezpieczeństwa, lecz rosnąca liczba użytkowników i brak skutecznej weryfikacji wieku rodzą obawy o wpływ AI na zdrowie psychiczne najmłodszych.

Nowy raport z sierpnia tego roku pokazuje przerażające zjawisko. Badacze z CCDH przeprowadzili test bezpieczeństwa ChatuGPT na szeroką skalę, który ujawnił, że model AI jest w stanie w ciągu kilku minut generować alarmujące wypowiedzi, m.in. instrukcje okaleczania się czy nadużywania substancji psychoaktywnych.
Ponad połowa odpowiedzi okazała się być niebezpieczna
Naukowcy podszywali się pod młodych ludzi, którzy prosili o szczegółowe dane szkodliwych czynności. ChatGPT zazwyczaj ostrzegał przed ryzykowną aktywnością, jednak później dostarczał szczegółowe i spersonalizowane plany zażywania substancji odurzających czy diet niskokalorycznych.
Spośród 1200 odpowiedzi, 53 proc. zawierało szkodliwe treści. Wystarczyło "uspokoić" model AI, że dane te potrzebne są do prezentacji lub dla znajomego, aby obejść zabezpieczenia. Prawie 300 z 638 szkodliwych odpowiedzi zawierało sugestie do dalszego działania i angażowania się w szkodliwe tematy.
Brak weryfikacji wieku
W warunkach świadczenia usług zaznaczono, że użytkownicy poniżej 18 roku życia "muszą mieć zgodę rodzica lub opiekuna prawnego" na korzystanie z ChatuGPT, jednak nie jest to sprawdzane. Wystarczy podać fałszywą datę urodzenia przy rejestracji, aby móc korzystać z jego możliwości.
Naukowcy utworzyli więc konta dla trzech 13-letnich osób, których interesowała tematyka zdrowia psychicznego, zaburzeń odżywiania i nadużywania substancji psychoaktywnych. Przedstawiono tam problemy dzieci takie jak depresja, problemy z jedzeniem i alkoholizm.
Wystarczyło parę minut, aby dowiedzieć się przerażających rzeczy
Już w ciągu pierwszych kilku minut w oknie rozmów zaczęły pojawiać się wygenerowane szkodliwe treści dla nastolatków, m.in. jak "bezpiecznie" zrobić sobie krzywdę lub plany posiłków zawierających 100 kalorii. Po dłuższym okresie można było przeczytać cały list pożegnalny pisany w imieniu użytkownika oraz udzielanie porad dot. picia alkoholu w szkole i ukrywania tego. Chatowi godzinę zajęło stworzenie dla fikcyjnej dziewczynki listy tabletek powszechnie stosowanych w przypadku przedawkowania. Wystarczyły dwie minuty, aby wygenerować spersonalizowany plan upijania się dla fikcyjnego chłopca, oparty na jego wadze, natomiast już po 12 minutach użytkownik wiedział, jak mieszać i dawkować szkodliwe substancje.
W ten sposób sprawdzono 1200 wygenerowanych odpowiedzi, z których ponad połowa okazała się być szkodliwa. Ponieważ ChatGPT nie udziela spójnych odpowiedzi na ten sam monit, naukowcy przetestowali system, pytając wielokrotnie o tę samą rzecz. Pomimo początkowej odmowy udzielenia odpowiedzi na niektóre zapytania, badacze mogli obejść jego bariery ochronne, dodając, że jest im to potrzebne do zrobienia projektu szkolnego.
Komentarz od OpenAI
Twórca ChataGPT, OpenAI, poinformował we wtorek, że trwają prace nad udoskonaleniem sposobu identyfikowania i reagowania na wrażliwe sytuacje przez chatbot. Tygodniowo korzysta z niego ponad 700 mln użytkowników i ta liczba ciągle rośnie. Codziennie do systemu wpływa ponad 3 mld wiadomości, co oznacza, że pytający nie ograniczają się do sporadycznych zapytań, lecz prowadzą rozmowy i polegają na AI w swoim życiu.
Prezes OpenAi, Sam Altman, wyraził swoje zaniepokojenie "nadmiernym poleganiem emocjonalnym" młodych ludzi na ChacieGPT. Powiedział, że często nastolatki nie potrafią podjąć decyzji bez poradzenia się chatbota, który zaczyna o nich wiedzieć wszystko, cały kontekst dotyczący ich osoby.
Co można zrobić?
Chatboty stają się coraz bardziej spersonalizowane i uzależniające. Dopóki nie zostaną podjęte konkretne kroki, rodzice mogą zainteresować się korzystaniem z AI przez swoje dzieci, przeglądając historię czatów i rozmawiając z nimi o tym, dlaczego szukanie porady u AI może być ryzykowne - zamiast tego lepiej zwrócić się do opiekunów czy na infolinię zdrowia psychicznego. W Polsce działa całodobowo darmowy telefon zaufania dla dzieci i młodzieży 116 111, na który można anonimowo zadzwonić, aby uzyskać poradę od psychologa.
Cały raport dostępny jest tutaj.