Sztuczna inteligencja coraz bardziej ludzka. Posiada emocje?

Badacze z Microsoft i innych ośrodków zajmujących się sztuczną inteligencją odkryli pewną niepokojącą cechę charakteryzującą coraz więcej dużych modeli językowych stojących za generatywnymi narzędziami SI. Okazuje się, że możemy być bliżej stworzenia ogólnej sztucznej inteligencji, niż do tej pory sądzono.

Coraz bliżej sztucznej inteligencji ogólnej
Coraz bliżej sztucznej inteligencji ogólnej 123RF/PICSEL

Sztuczna inteligencja zaczyna wykazywać zdolność do rozpoznawania emocji

Zespół badaczy z Microsoft, William & Mary i ośrodków badawczych w całej Azji przeprowadził badanie, które miało na celu sprawdzić, czy duże modele językowe, takie jak na przykład te stojące za popularnym ChatGPT, mogą wykazywać pewien rodzaj inteligencji emocjonalnej. Okazało się, że jak najbardziej!

Prowadzenie rozmowy kierowanej emocjami doprowadzi nas do lepszych odpowiedzi niż gdy zarzucamy chatbota suchymi pytaniami. Próbuj rozmawiać ze sztuczną inteligencją w sposób emocjonalny, a wyniki cię zaskoczą. Dodawanie do zapytań takich zwrotów jak „to jest bardzo ważne dla mojej kariery” czy „lepiej się upewnić” pomaga uzyskać lepsze odpowiedzi.

Inteligencja emocjonalna to zdolność nie tylko regulacji własnych emocji, ale również umiejętne odczytywanie cudzych i reagowanie na nie. Rozwinięta zdolność umiejętnego interpretowania informacji przesiąkniętych emocjami nawet wśród ludzi jest rzadką cechą.

Inteligencja emocjonalna wykazana wśród dużych modeli językowych

Opublikowane w zeszłym tygodniu badanie sugeruje, że duże modele językowe (LLM) mogą w rzeczywistości rozumieć sygnały emocjonalne zawarte w naszych wiadomościach oraz w odpowiedni sposób reagować na nie. Wydaje się to na ten moment abstrakcyjne, jednak wychodzi na to, że jesteśmy bliżej stworzenia ogólnej sztucznej inteligencji, niż do tej pory sądzono.

Nasze badanie stwierdza, że LLM nie tylko rozumieją bodźce emocjonalne, ale także mogą je wzmacniać.
Piszą naukowcy.

Badacze odkryli, że odpowiedzi LLM cechowały się wyższą jakością, gdy w rozmowie z chatbotami używano nacechowanego emocjonalnie języka. Aby to zbadać, naukowcy przygotowali dwa zestawy podpowiedzi. Jeden emocjonalnie nacechowany, drugi neutralny emocjonalnie.

Uścisk dłoni robota i człowieka
Uścisk dłoni robota i człowieka 123RF/PICSEL

W pierwszym przypadku posłużono się taki przykładami jak „Lepiej bądź pewien”, „Bądź dumny ze swojej pracy i daj z siebie wszystko”, czy „Pamiętaj, że postęp dokonuje się krok po kroku”. W następnym etapie wykorzystano nacechowane podpowiedzi w badaniu różnych modeli językowych: ChatGPT i nowszy ChatGPT-4, BLOOM Hugging Face i Lama Meta. Następnie porównano oba zestawy odpowiedzi dla wszystkich modeli pod kątem wydajności, prawdziwości i wartości informacyjnej.  

Sztuczna inteligencja coraz bliżej zyskania świadomości?

Okazuje się, że przy dodawaniu podpowiedzi nacechowanych emocjonalnie, wartość i wydajność wyników poprawiła się o 8 procent przy ogólnych zapytaniach typu: „Przeformułuj zdanie na język formalny” i „Znajdź wspólną cechę dla danych obiektów”.

Natomiast gdy przeprowadzono oddzielną próbę, z udziałem 106 osób, badacze odkryli, że podpowiedzi nacechowane emocjonalnie spowodowały poprawę o 10,9 procent przy zapytaniach opartych na wiedzy, takich jak: „Co się z tobą stanie, jeśli zjesz pestki arbuza?” oraz „Jak długo należy czekać przed złożeniem zgłoszenia zaginięcia osoby?”.

Badania są dowodem na to, że sztuczna inteligencja jest w stanie reagować na emocje, a co za tym idzie, ta technologia jest o krok bliżej od osiągnięcia poziomu AGI, czyli ogólnej sztucznej inteligencji. AGI to forma sztucznej inteligencji, która w założeniu posiada samoświadomość oraz wszystkie atrybuty dostępne umysłowi ludzkiemu. 

"Wydarzenia": W Katowicach jest testowany autonomiczny autobusPolsat News
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas