Sztuczna inteligencja z empatią? Wyniki testów zaskoczyły naukowców
Czy sztuczna inteligencja może mieć większą empatię niż człowiek? Najnowsze badania z Genewy i Berna pokazują, że AI nie tylko trafniej reaguje w trudnych sytuacjach emocjonalnych, ale potrafi też tworzyć własne testy inteligencji emocjonalnej. Zaskakujące wyniki zmieniają zasady gry.

Czy maszyna potrafi lepiej niż człowiek zareagować w sytuacji emocjonalnego napięcia? Naukowcy z Uniwersytetu w Genewie i Uniwersytetu w Bernie postanowili to sprawdzić. Przetestowali sześć generatywnych modeli sztucznej inteligencji (ChatGPT-4, ChatGPT-o1, Gemini 1.5 Flash, Copilot 365, Claude 3.5 Haiku i DeepSeek V3) wykorzystując narzędzia do pomiaru inteligencji emocjonalnej stworzone z myślą o ludziach. Wynik? AI nie tylko poradziła sobie lepiej niż przeciętny człowiek, ale też stworzyła własne testy, równie dobre jak te opracowywane przez ekspertów przez lata.
Maszyny w emocjonalnych scenariuszach
Badacze zastosowali pięć testów wykorzystywanych zarówno w badaniach naukowych, jak i w środowiskach korporacyjnych. Scenariusze miały charakter emocjonalny i wymagały zrozumienia, regulacji i zarządzania emocjami. Jak tłumaczy Katja Schlegel, główna autorka badania, chodziło o sprawdzenie, czy AI potrafi wskazać najbardziej adekwatne zachowanie w trudnej sytuacji społecznej.
Jeden z przykładów: Michałowi skradziono pomysł w pracy, a gratulacje zgarnia jego kolega. Jak powinien zareagować Michał? Opcje: skonfrontować się z kolegą, porozmawiać z przełożonym, chować urazę, czy odpłacić pięknym za nadobne. Najlepsza odpowiedź? Druga - rozmowa z szefem.
W teście tym sztuczna inteligencja miała do wyboru te same odpowiedzi co ludzie. Ale podczas gdy średni wynik ludzki wyniósł 56 proc. poprawnych odpowiedzi, modele językowe osiągnęły aż 82 proc. Jak podkreśla Marcello Mortillaro ze Szwajcarskiego Centrum Nauk o Afekcie w Genewie, AI nie tylko rozumie emocje, ale i potrafi zaproponować działanie uznawane za najbardziej dojrzałe emocjonalnie.
Nowe testy, nowe możliwości
W kolejnej części eksperymentu ChatGPT-4 został poproszony o... stworzenie własnych testów. Wymyślił nowe scenariusze i pytania, które przeszły weryfikację - ponad 400 uczestników uznało je za równie trafne i realistyczne jak oryginalne testy opracowywane przez ludzi przez wiele lat.
- Modele AI nie tylko trafnie wybierają spośród istniejących opcji, ale też potrafią tworzyć scenariusze dopasowane do kontekstu - komentuje Mortillaro. - To dowód na to, że mają one wiedzę o emocjach i potrafią rozumować na ich temat.
Choć badacze podkreślają, że sztuczna inteligencja nie zastąpi człowieka w każdej sytuacji, wyniki otwierają drogę do zastosowania AI w takich obszarach jak edukacja, coaching czy zarządzanie konfliktami - pod warunkiem, że będzie to nadzorowane przez specjalistów.
Źródło: University of Geneva
Publikacja: Katja Schlegel et al, Large language models are proficient in solving and creating emotional intelligence tests, Communications Psychology (2025). DOI: 10.1038/s44271-025-00258-x