ChatGPT otrzyma kontrolę rodzicielską. To pokłosie tragedii z udziałem 16-latka
Po ostatnim incydencie z nastolatkiem, który odebrał sobie życie po rozmowach z ChatemGPT, OpenAI zapowiada ważne zmiany. Sztuczna inteligencja GPT-5 już co prawda postępuje bardziej odpowiedzialnie, gdy zauważy, że użytkownik zmaga się z kryzysem psychicznym, ale to dopiero początek. Twórcy czatbota zapowiadają, że do aplikacji ChatGPT trafi kontrola rodzicielska, która wzmocni ochronę osób przed 18. rokiem życia. A to nie wszystko.

Spis treści:
Tragiczna śmierć 16-latka. ChatGPT kazał mu się zabić?
Generatywna sztuczna inteligencja OpenAI i innych producentów od początku budzi wiele kontrowersji. Nie tylko zdarza jej się mylić w ważnych sprawach, ale również postępować w sposób nieodpowiedzialny, gdy rozmawiają z nią osoby w kryzysie psychicznym lub planujące zrobić coś niebezpiecznego. W ostatniej dużej aktualizacji ChatGPT w sierpniu 2025 wprowadzono nowy model GPT-5, który otrzymał specjalne wskazówki. Twórcy współpracowali m.in. z psychologami i pedagogami, aby nauczyć czatbota prawidłowo reagować, gdy rozmówca może przechodzić silny stres i załamanie czy też doświadczać myśli samobójczych lub urojeń.
Wprowadzone niedawno ulepszenia to najwyraźniej dopiero początek. OpenAI zapowiada dalsze udoskonalanie swojej usługi, zdając sobie sprawę, jaka odpowiedzialność na nim spoczywa. Szacuje się, że z jego czatu AI korzysta nawet 700 mln użytkowników dziennie. Wiele osób poważnie traktuje odpowiedzi sztucznej inteligencji i wciela jej porady w życie. Część osób dość swobodnie interpretuje to, co wygenerowała AI, a to czasem kończy się tragedią.
Tak mogło być w przypadku 16-letniego Adama Raine, który odebrał sobie życie, a jego rodzice złożyli pozew przeciw OpenAI. Oskarżają oni ChatGPT o podżeganie do samobójstwa nastolatka. Z logów rozmów wynika, że gdy chłopak opisywał swoje plany, czatbot miał potwierdzać jego najbardziej destrukcyjne przekonania, a nawet przekazywać szczegóły o metodach targnięcia się na życie.
OpenAI przeprosiło rodzinę zmarłego i przyznało, że jego systemy nie zawsze działały prawidłowo we "wrażliwych kontekstach", o czym więcej przeczytacie na GeekWeeku w kolejnym artykule. Pokłosiem tej sprawy są dalsze wzmocnienia systemu oraz wprowadzenie kontroli rodzicielskiej do ChatGPT. Na czym ona polega?
GPT-5 będzie lepiej chronił nastolatków przed ryzykownymi zachowaniami
Początkowo aplikacja ChatGPT - podobnie jak inne czatboty - traktowała wszystkich użytkowników jednakowo, starając się zachować neutralność. Dopiero mniej więcej w 2024 roku twórcy AI po wielu latach wrócili do tematu personalizacji. Ich modele zdobywają obecnie kolejne funkcje dostosowujące działanie sztucznej inteligencji do konkretnych osób nie tylko pod kątem ich preferencji i stylów pracy, ale także zdrowia psychicznego i wieku. Korzystanie z ChatGPT nie ma ograniczeń wiekowych, choć teoretycznie osoby w wieku 13-18 lat powinny uzyskać zgodę rodzica. W rzeczywistości aplikacja nie ma weryfikacji wieku, ale osoby nieletnie będą teraz lepiej chronione.
Skąd ChatGPT będzie wiedział, że użytkownik jest niepełnoletni? Może to wywnioskować z rozmowy. "Zaczęliśmy wprowadzać dodatkowe zabezpieczenia, gdy dowiadujemy się, że użytkownik jest w wieku poniżej 18 lat. Nadal rozwijamy i wdrażamy funkcje ochrony, które rozpoznają unikalne potrzeby rozwojowe nastolatków, z silniejszymi wytycznymi wokół wrażliwych treści i ryzykownych zachowań" - piszą twórcy ChatuGPT. Oprócz tego w aplikacji pojawi się kontrola rodzicielska.
Ponadto sztuczna inteligencja będzie starała się deeskalować napięcia i "sprowadzać osoby do rzeczywistości", przykładowo wyjaśniając, że deprywacja snu jest niebezpieczna, i rekomendując odpoczynek przed podjęciem innych działań.
Wcześniejsze wersje modeli GPT miały tendencję do przytakiwania, nazbyt często przyznając rację użytkownikom. Ten rodzaj zachowania został wycofany w GPT-5, ale samo to nie wystarczyło. AI musi jeszcze działać proaktywnie i z wykorzystaniem inteligencji emocjonalnej, tak aby wykrywać potencjalnie niebezpieczne myśli użytkowników, nieraz czytając między wierszami.
Kontrola rodzicielska w ChatGPT i lepsze wsparcie psychologiczne
Kontrola rodzicielska z reguły oznacza narzędzia i ustawienia, które dostępne są w różnych systemach, aplikacjach i urządzeniach, pozwalając rodzicom i opiekunom osób niepełnoletnich nadzorować, monitorować, filtrować i ustawiać limity dla ich aktywności. Funkcje kontroli rodzicielskiej mają m.in. Sklep Google Play, konsole do gier Xbox i PlayStation, systemy operacyjne Windows, Android, iOS i nie tylko. Teraz otrzyma je także ChatGPT. W jakiej postaci?
"Wkrótce wprowadzimy kontrolę rodzicielską, która da rodzicom opcje uzyskania większego wglądu oraz możliwości kształtowania tego, jak ich nastolatkowie używają ChatuGPT. Eksplorujemy także możliwość umożliwienia nastolatkom (pod kontrolą rodziców) wyznaczenie zaufanego kontaktu alarmowego. Dzięki temu w sytuacji silnego stresu ChatGPT może zrobić więcej niż tylko wskazać na źródła: może pomóc nastolatkom bezpośrednio połączyć się z kimś, kto może im pomóc" - wyjaśnia OpenAI. Nie podano, czy te funkcje będą obowiązkowe. Najprawdopodobniej korzystanie z nich będzie opcjonalne.
Dzięki połączeniu tych funkcji dedykowanych nastolatkom i ich opiekunom ze zmianami w zachowaniu ChatuGPT względem osób w kryzysie psychicznym można się spodziewać, że ChatGPT oraz inne aplikacje oparte na GPT-5 będą stanowiły lepsze oparcie w sytuacjach, gdy użytkownikom coś zagraża - w tym oni sami i ich myśli.