AI brzmi jak ekspert, ale czy mówi prawdę? Naukowcy mają wątpliwości
Sztuczna inteligencja potrafi brzmieć jak ekspert, ale to nie zawsze oznacza, że ma rację. Nowe badania pokazują, że narzucanie jej konkretnych ról może poprawić styl odpowiedzi, a jednocześnie pogorszyć ich dokładność. To problem, który zmienia sposób, w jaki powinniśmy korzystać z AI.

Czy sztuczna inteligencja może bez końca "udawać" eksperta i jednocześnie odpowiadać bezbłędnie? Najnowsze badania pokazują, że to nie takie proste. Im częściej każemy jej wcielać się w konkretną rolę, tym większe ryzyko, że zacznie popełniać błędy.
Zespół naukowców z Uniwersytetu Kalifornijskiego przeprowadził szeroki test sześciu modeli językowych. Każdy z nich musiał działać w różnych rolach - od matematyka i programisty po kreatywnego pisarza czy kontrolera bezpieczeństwa. Na pierwszy rzut oka wszystko wyglądało dobrze. Odpowiedzi były bardziej uporządkowane, brzmiały profesjonalnie i rzadziej zawierały ryzykowne treści. Problem pojawiał się gdzie indziej... w faktach.
AI w roli eksperta. Lepszy styl, gorsza pamięć
Badacze zauważyli ciekawą zależność. Gdy model dostaje konkretną rolę, skupia się głównie na jej odgrywaniu. Zamiast "sięgać do wiedzy", zaczyna przede wszystkim wykonywać polecenie. W praktyce oznacza to, że bardziej pilnuje tonu i formy niż samej treści.
To trochę jak aktor, który świetnie gra lekarza, ale niekoniecznie zna się na medycynie. Na ekranie wszystko wygląda wiarygodnie, ale w rzeczywistości łatwo o pomyłkę. Właśnie dlatego w testach pytania wymagające konkretnej wiedzy - na przykład z prawa czy medycyny - wypadały gorzej, gdy AI działała jako "ekspert".
Nowa metoda pracy. Kiedy warto być ekspertem?
Aby rozwiązać ten problem, naukowcy stworzyli system o nazwie PRISM. Jego pomysł jest prosty - model nie musi zawsze grać określonej roli. Zamiast tego przygotowuje dwie wersje odpowiedzi. Jedną "w roli", drugą zwykłą i wybiera tę lepszą.
Dzięki temu sztuczna inteligencja zachowuje równowagę. Tam, gdzie liczy się styl i bezpieczeństwo, może przyjąć określoną rolę. Tam, gdzie najważniejsze są fakty, wraca do swojego podstawowego trybu działania.
Testy pokazały, że takie podejście poprawia ogólne wyniki. Role pomagają w pisaniu i pilnowaniu zasad, ale nie sprawdzają się tam, gdzie potrzebna jest precyzyjna wiedza. Wniosek jest prosty. AI nie może bez końca "grać eksperta", bo z czasem zaczyna tracić to, co najważniejsze - dokładność.
Jeśli więc będziecie korzystali z AI pamiętajcie - kluczem jest umiejętność wyboru, kiedy warto brzmieć jak specjalista, a kiedy... lepiej po prostu mówić wprost.
Źródło: phys.org
Publikacja: Zizhao Hu et al, Expert Personas Improve LLM Alignment but Damage Accuracy: Bootstrapping Intent-Based Persona Routing with PRISM, arXiv (2026). DOI: 10.48550/arxiv.2603.18507










