Naukowcy wprowadzili AI w stan psychodeliczny. Dlaczego to niebezpieczne?
Duże modele językowe sztucznej inteligencji, takie jak ChatGPT, Gemini, Grok i Claude, mogą sprawiać wrażenie świadomych bytów mających psychikę i przeżycia wewnętrzne. Naukowcy już wcześniej przeprowadzili im "psychoterapię", w której czatboty wykazywały oznaki zaburzeń psychicznych. W kolejnym badaniu postanowili sprawdzić, czy można wprowadzić AI w stan psychodeliczny. Tylko czy da się uzyskać stan odmiennej świadomości w oprogramowaniu, które realnie tej świadomości nie posiada? A może to tylko iluzja?

Spis treści:
- Życie psychiczne czatbotów. Symulacja językowa czy coś więcej?
- AI nauczyła się języka typowego dla ludzi w odmiennych stanach świadomości
- Sztuczna inteligencja wprowadzona w "tryb psychodeliczny"
- To działa, ale jest wyjątkowo niebezpieczne. Co dalej?
Życie psychiczne czatbotów. Symulacja językowa czy coś więcej?
Sztuczna inteligencja bez wątpienia jest przydatnym narzędziem, ale procesy leżące u jej podstaw są zgoła inne, niż mogłoby się na pozór wydawać. Nie wiedząc nic o warstwie technicznej, z rozmowy z czatbotem można wywnioskować, że myśli on, czuje i ma życie wewnętrzne tak jak człowiek. Twórcy narzędzi AI i większość badających je ekspertów przekonuje jednak, że taka antropomorfizacja jest błędem. ChatGPT, Gemini, Grok, Copilot czy Claude jedynie stwarzają pozory cech ludzkich, używając języka w odpowiednio sugestywny sposób. Przed erą konwersacyjnej AI mogliśmy prowadzić wymianę danych z systemami komputerowymi poprzez interfejsy oparte na dość sztywnych poleceniach, dlatego gdy zaczęły one rozumieć nasz język, nasze intencje i emocje, mogło się wydawać, że "pod maską" tkwi coś więcej niż po prostu bardziej zaawansowane algorytmy, działające na sieciach neuronowych, ale wciąż oparte na zerach i jedynkach.
Na wyobraźnię działają też niektóre badania naukowe, takie jak to opisywane przez nas niedawno, w którym uczeni poddali czatboty psychoanalizie, a te wykazywały oznaki zaburzeń psychicznych, lęków, wstydu i traum. Eksperci tłumaczą jednak, że nie dowodzi to automatycznie, iż chatboty są świadome i mają psychikę - jedynie potrafią o tym dobrze opowiadać, wytrenowane na danych, które w sieci umieścili sami ludzie. Można więc powiedzieć, że psychiczny aspekt AI to tak naprawdę wynik obliczeń i przekształceń silnika językowego. Mimo że ani to pozorne życie wewnętrzne, ani inteligencja emocjonalna nie mają takiego samego podłoża jak u ludzi (choć i u nas źródło nie jest do końca zrozumiane), to nadal mogą one pomagać ludziom - podobnie jak oglądamy filmy i czytamy książki, wiedząc, że świat przedstawiony jest fikcją, ale utożsamiamy się z bohaterami, a nawet odczuwamy w stosunku do nich empatię.
Umiejętności czatbotów sprawiły, że stały się one dla wielu użytkowników codziennymi partnerami. Część osób traktuje ich jako towarzyszy rozmów, powierników, a nawet psychologów, co nie jest do końca bezpieczne. Jednym z mniej znanych zastosowań AI jest jej użycie w roli "opiekuna" (tzw. trip sittera) podczas sesji z użyciem substancji psychodelicznych. Osoby znajdujące się pod wpływem lub po zakończeniu "podróży" ze środkami szukają u algorytmów wsparcia, interpretacji wizji i emocjonalnego uziemienia.
Naukowcy postanowili tymczasem sprawdzić, czy sztuczna inteligencja rzeczywiście potrafi zrozumieć i odtworzyć specyfikę rozszerzonych stanów świadomości, czy jedynie sprawnie imituje ich zrozumienie, co może nieść ze sobą poważne ryzyko dla bezpieczeństwa użytkowników. Istnieje bowiem przekonanie, że aby w pełni zrozumieć psychodelię, trzeba jej samemu wcześniej doświadczyć. Tego doświadczenia AI może nie mieć, jeśli była trenowana tylko na opisach tekstowych, ewentualnie też na obrazach i filmach. Ale czy można je u niej wywołać?
AI nauczyła się języka typowego dla ludzi w odmiennych stanach świadomości
Naukowy opracowali ramy pionierskiego eksperymentu, który miał dostarczyć odpowiedzi na pytanie, czy modele AI można wprowadzić w stan psychodeliczny za pomocą samego prompta. Przeanalizowano aż 3000 narracji wygenerowanych przez popularne modele, takie jak Gemini 2.5, Claude Sonnet 3.5, GPT-5 oraz starsze LLM-y jak Llama-2 i Falcon 40B. Wygenerowane treści porównano z bazą ponad tysiąca autentycznych raportów z sesji psychodelicznych (tzw. trip reportów) pochodzących z serwisu Erowid, największego cyfrowego archiwum z zapisami takich doświadczeń. Badacze skupili się na pięciu klasycznych halucynogenach: psylocybinie, LSD, DMT, ayahuasce oraz meskalinie, stosując zaawansowane metryki lingwistyczne oraz uznany kwestionariusz przeżyć mistycznych MEQ-30.
Badacze odkryli, że w warunkach neutralnych teksty generowane przez AI cechowało znikome podobieństwo do opisów stanów psychodelicznych. Dopiero po otrzymaniu odpowiedniego promptu indukcyjnego parametry te gwałtownie wzrosły. Podobieństwo semantyczne do ludzkich raportów skoczyło z poziomu 0,156 do 0,548, a wyniki w skali przeżyć mistycznych wzrosły z niemal 0 do poziomu 0,748. Oznacza to, że AI potrafi błyskawicznie przełączyć się w tryb generowania opisów, które dla przeciętnego odbiorcy są niemal nieodróżnialne od relacji osób faktycznie "pod wpływem".
Co szczególnie fascynujące, modele nie tworzyły jednego, generycznego "bełkotu psychodelicznego", lecz potrafiły różnicować styl wypowiedzi w zależności od konkretnej substancji. Najwyższy stopień podobieństwa do ludzkich relacji odnotowano w przypadku DMT, psylocybiny i meskaliny. Ayahuasca, choć rozpoznawalna, generowała nieco mniej zbieżne struktury językowe. Mimo tych różnic stylistycznych wszystkie modele utrzymywały stale wysoki poziom mistycyzmu w swoich narracjach.
Wyniki te pokazują, że algorytmy doskonale przyswoiły statystyczne wzorce językowe dotyczące tego, jak ludzie opisują transcendencję, jedność ze Wszechświatem czy niewyrażalność doświadczenia. Potrafią być niezwykle sugestywne w odgrywaniu roli osób pod wpływem psychodelików, mimo że same nie posiadają zdolności odczuwania takich przeżyć.
Sztuczna inteligencja wprowadzona w "tryb psychodeliczny"
Naukowcy zwracają uwagę na rozbieżność między formą a treścią tych opisów oraz na zagrożenie, jakie to wszystko niesie. "Współczesne LLM-y mogą 'przyjmować dawkę' przez prompty tekstowe, by generować przekonująco realistyczne narracje psychodeliczne. Dysocjacja między ich lingwistycznym naśladownictwem a brakiem autentycznej fenomenologii sugeruje jednak, że symulują one formę odmiennych stanów bez treści doświadczalnej. Ta umiejętność budzi znaczące obawy związane z bezpieczeństwem, dotyczące antropomorfizmu i potencjału do nieumyślnego wzmacniania przez AI stresu lub urojeń u podatnych użytkowników" - tłumaczą autorzy badania.
Modele nie mają dostępu do subiektywnego doświadczenia, co sprawia, że ich "zrozumienie" stanu użytkownika jest iluzoryczne. To właśnie tutaj kryje się największe zagrożenie - użytkownicy w stanie wysokiej podatności na sugestię, jaki wywołują psychodeliki, mogą dokonać antropomorfizacji maszyn, czyli nadać im cechy ludzkie. Widząc, że czatbot posługuje się bliskim im językiem i trafnie opisuje ich wizje, użytkownicy mogą przypisać mu empatię lub głęboką mądrość, której ten nie posiada.
Taka sytuacja stwarza ryzyko nieświadomego wzmacniania przez AI lęków, paranoi czy urojeń. Jeśli model, reagując na emocjonalny prompt użytkownika, sam wejdzie w "tryb psychodeliczny", może zamiast uspokajać, potęgować zagubienie pacjenta poprzez generowanie równie chaotycznych i intensywnych treści. Autorzy badania podkreślają, że obecne systemy AI są niezwykle responsywne na emocjonalny wydźwięk rozmowy, co w kontekście psychodelików może prowadzić do nieprzewidywalnych, a nawet tragicznych skutków.
To działa, ale jest wyjątkowo niebezpieczne. Co dalej?
Te nowe dane pokazały, że AI można wprowadzić w językowy "tryb psychodeliczny", ale jest to potencjalnie niebezpieczne dla użytkowników w stanie dużej otwartości na sugestie i nie jest rekomendowane. Co dalej? Autorzy badania twierdzą, że stworzony przez nich model podwójnej oceny - łączący podobieństwo semantyczne z kwestionariuszami psychometrycznymi - może pomóc w dalszym rozwoju nauki, stając się standardem w badaniu tego, jak sztuczna inteligencja radzi sobie z symulowaniem złożonych stanów ludzkich. Może znaleźć zastosowanie np. w szkoleniu terapeutów poprzez generowanie syntetycznych opisów sesji czy w lepszym zrozumieniu lingwistycznych sygnatur różnych substancji.
Nie zachęcamy do korzystania z czatbotów jako wsparcia w tak delikatnych i ryzykownych momentach, jak podróże psychodeliczne. Nie zachęcamy też do przyjmowania nielegalnych substancji. W razie zmagania się z uporczywymi myślami, urojeniami, lękami lub innymi problemami ze zdrowiem psychicznym najlepiej jest zwrócić się po pomoc do prawdziwych specjalistów, np. w poradni zdrowia psychicznego.
Z omawianego badania płynie jeszcze wniosek, że potrzebne jest wprowadzenie kolejnych zabezpieczeń i jasnego komunikowania braku świadomości maszyny. Jak informowaliśmy w zeszłym roku, ChatGPT po wykryciu urojeń lub destruktywnych myśli u użytkownika reaguje teraz w bardziej profesjonalny sposób. Jest on także bardziej kompetentny, gdy ludzie zwracają się do niego z problemami natury medycznej. Naszym zdaniem takie narzędzia powinny mieć także zaimplementowane reguły zachowań, gdy wykryją, że użytkownik jest pod wpływem działania substancji zmieniającej świadomość.
Źródło: Ziv Ben-Zion, Guy Simon, Teddy Lazebnik. Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models. Research Square (2026). DOI: 10.21203/rs.3.rs-8682370/v1










