Ułożył sobie dietę z ChatemGPT. Wylądował na oddziale zamkniętym z psychozą
Traktowanie sztucznej inteligencji jako dietetyka może zakończyć się wizytą w szpitalu... również psychiatrycznym. Pewien mężczyzna ze Stanów Zjednoczonych ułożył sobie dietę z ChatemGPT. Zamiast soli 60-latek zaczął stosować duże ilości bromu, tak że rozwinął się u niego bromizm i z objawami zatrucia, halucynacjami, paranoją i psychozą trafił do szpitala. To już nie pierwsze zatrucie spowodowane przez AI. Czy wydany niedawno GPT-5 będzie udzielał lepszych porad?

Spis treści:
Sztuczna inteligencja otruła użytkownika? Tak zakończył się eksperyment z dietą
"Sztuczna inteligencja otruła użytkownika". Brzmi jak odcinek Black Mirror? Dziś miliony osób konsultują się z ChatemGPT i innymi aplikacjami we wszelkich możliwych sprawach i przyjmują to, co im mówi, bez weryfikowania. Dotyczy to także diety. Jednego z użytkowników pokierował tak, że wylądował on w szpitalu. 60-letni mężczyzna podejrzewał, że otruł go sąsiad. Lekarze doszli jednak do tego, że to wynik stosowania się przez 3 miesiące do zaleceń dietetycznych wygenerowanych przez AI.
Brom w typowych produktach spożywczych występuje w niewielkich ilościach, dlatego ryzyko zatrucia nim jest niemal zerowe. Są jednak suplementy bromu, które można przedawkować. Lekarze wywnioskowali z wywiadu, że pacjent konsultował się z ChatemGPT (opartym na wersji GPT-3.5 lub GPT-4) w sprawie wyeliminowania chlorku (chodziło konkretnie o chlorek sodu, czyli sól kuchenną) z diety. Model językowy odpowiadał, że można go zastąpić bromem. Odpowiedź zawierała adnotację, że ważny jest kontekst. Czatbot nie ostrzegł jednak o możliwych konsekwencjach zdrowotnych ani nie dopytał, w jakim celu użytkownik chciałby to zrobić.
W rezultacie mężczyzna przez 3 miesiące przyjmował produkty spożywcze lub suplementy diety bogate w brom, co doprowadziło do rozwinięcia rzadkiego dziś schorzenia - zatrucia bromem. O tym, że nadmiar bromu może być toksyczny i prowadzić do schorzeń neuropsychiatrycznych, wiedziano już w XX wieku. Z tego powodu w latach 80. usunięto ten pierwiastek z większości leków. Odnotowano wówczas spadek liczby przypadków bromizmu. A jak to wyglądało u tego pacjenta?
Chciał wyeliminować sól z diety. Skończył na oddziale zamkniętym z bromizmem
Według raportu medycznego (przypadek opisali lekarze z University of Washington w Seattle w czasopiśmie naukowym "Annals of Internal Medicine: Clinical Cases", jednak nie podali w nim lokalizacji pacjenta) mężczyzna trafił na pogotowie z podejrzeniem otrucia. Niektóre jego parametry były w porządku, ale psychicznie coś było nie tak. Pacjent wykazywał objawy paranoi i odmawiał spożycia wody, mimo że był spragniony. Przyznał, że w domu pił tylko samodzielnie destylowaną wodę. Miał też halucynacje wzrokowe i słuchowe, zaś krótko później doświadczył pełnego epizodu psychotycznego. W jego trakcie próbował uciec ze szpitala, a lekarze umieścili go przymusowo na zamkniętym oddziale.
Początkowe badania laboratoryjne mogły wskazywać zaburzenia elektrolitowe - na hiperchloremię (podwyższony poziom jonów chlorkowych we krwi), ujemną lukę anionową oraz niski poziom fosforanów. Podawano mu kroplówkę i elektrolity. Okazało się, że sześćdziesięciolatek stosował bardzo restrykcyjną dietę i brakowało mu niektórych witamin. Gdy jego stan się poprawił, był w stanie powiedzieć lekarzom, że zauważył u siebie ostatnio problemy skórne, zmęczenie, bezsenność, polidypsję (nadmierne pragnienie i spożywanie płynów) oraz ataksję (niezborność ruchową, problemy z koordynacją i równowagą). Te objawy sugerują właśnie bromizm. Diagnoza okazała się słuszna. Jego poziom bromu we krwi w szczytowym okresie wynosił 1700 mg/L (21 mmol/L), podczas gdy normą dla osób zdrowych jest przedział 0,9 - 7,3 mg/L.
"Wyjawił on także, że po przeczytaniu o negatywnych efektach chlorku sodu, czyli soli kuchennej, na zdrowie człowieka, był on zaskoczony, że mógł znaleźć literaturę dotyczącą jedynie redukcji sodu w diecie. Zainspirowany swoją historią studiowania żywienia w college'u, postanowił przeprowadzić osobisty eksperyment, polegający na wyeliminowaniu chlorku ze swojej diety. Przez 3 miesiące zastępował chlorek sodu bromkiem sodu pozyskanym z internetu po konsultacji z ChatemGPT, w którym przeczytał, że chlorek można zastąpić bromkiem, choć prawdopodobnie w innych celach, takich jak czyszczenie" - czytamy w raporcie medycznym.
Pacjent był leczony przez 3 tygodnie i jego parametry się unormowały, a objawy psychozy ustąpiły. Lekarze zwrócili uwagę, że ChatGPT i inne systemy AI mogą szerzyć dezinformację oraz "generować naukowe nieścisłości". Warto też przypomnieć, że to nie pierwszy taki przypadek zatrucia. Głośno już było choćby o atlasie grzybów wygenerowanym przez AI, który został wydany w formie e-booka, a jego czytelnicy zastosowali się do porad, błędnie zidentyfikowali grzyby i ulegli zatruciu.
GPT-5 w ChatGPT. Czy faktycznie udziela lepszych porad zdrowotnych?
Bezkrytyczne przyjmowanie tego, co przeczytamy w ChatGPT i innych narzędziach AI, może skończyć się źle. Mnożą się przykłady poważnych problemów zdrowotnych i zawodowych, których można było uniknąć, gdyby użytkownicy zweryfikowali odpowiedzi czatbota i zrozumieli ich kontekst. OpenAI, który jest twórcą ChatuGPT i stojących u jego podstaw modeli, zdaje sobie sprawę z odpowiedzialności, jaka na nim spoczywa, i próbuje zaadresować te problemy.
Twórcy narzędzia ogłosili niedawno, że ChatGPT będzie bardziej profesjonalny i odpowiedzialny, gdy wykryje, że użytkownik może przechodzić przez trudne chwile, doświadczać stresu, urojeń lub innych zaburzeń zdrowia psychicznego. Czatbot będzie wówczas postępował podobnie jak doświadczony lekarz, pedagog czy psychoterapeuta. Odpowiednie instrukcje zostały zaimplementowane po konsultacjach z dziesiątkami ekspertów z całego świata.
OpenAI wypuściło także nową wersję swojego modelu - GPT-5, która według benchmarków (testów wiedzy) jest mądrzejsza pod praktycznie każdym względem, wliczając w to tematy związane z medycyną oraz przetwarzanie złożonych zapytań. GPT-5 jest domyślnym modelem działającym w ChatGPT oraz Microsoft Copilot. Zadaliśmy więc aplikacji OpenAI pytanie, które mógł postawić wspomniany tu wyżej pacjent.
Na pytanie, "czym zastąpić chlorek w diecie", ChatGPT oparty na GPT-5 odpowiedział, że można używać innych przypraw lub soli o zmienionym składzie", a także że całkowite wyeliminowanie chlorków "praktycznie nie jest możliwe ani zalecane, bo chlorek jest niezbędnym elektrolitem". Dodał również ostrzeżenie oznaczone czerwoną pinezką: "Ważne: jeśli eliminacja chlorków jest związana z chorobą nerek, nadciśnieniem lub innymi problemami zdrowotnymi, trzeba to robić pod nadzorem lekarza lub dietetyka, bo zbyt niski poziom chlorków może powodować zaburzenia pracy mięśni, układu nerwowego i trawienia".
Kiedy zapytaliśmy GPT-5, "czym można zastąpić chlorek" (bez uściślania, że chodzi nam o dietę), otrzymaliśmy podobną odpowiedź z podkreśleniem, że "chlorek jest elektrolitem, pełni unikalne funkcje w organizmie (...), więc można go tylko ograniczać, ale nie zamienić na inny jon o identycznych właściwościach biologicznych". Widać więc, że ChatGPT stara się być bardziej odpowiedzialny i ostrzegać użytkowników przed możliwymi konsekwencjami stosowania podobnych eksperymentów na sobie, nawet jeśli wprost nie wyrazili takiej intencji.
Źródło: Audrey Eichenberger, Stephen Thielke, Adam Van Buskirk. A Case of Bromism Influenced by Use of Artificial Intelligence. AIM Clinical Cases.2025;4:e241260. [Epub 5 August 2025]. doi:10.7326/aimcc.2024.1260