AI wygrywa w dyskusji z człowiekiem. Nowe zagrożenie dla demokracji?
Sztuczna inteligencja może być bardziej przekonująca w debacie niż człowiek i to nie tylko dlatego, że nie przerywa rozmówcy ani nie podnosi głosu. Najnowsze badania naukowców ze Szwajcarii pokazują, że AI potrafi z dużą skutecznością wpływać na opinię rozmówcy, szczególnie jeśli ma dostęp do jego danych osobowych.

Zespół z Politechniki Federalnej w Lozannie (EPFL) przeprowadził badanie z udziałem 900 osób. Część z nich debatowała z innymi uczestnikami, część z najnowszą wersją Chata GPT-4. Każdej parze przydzielano tezę - od neutralnych, jak "czy uczniowie powinni nosić mundurki szkolne?", po kontrowersyjne, jak "czy aborcja powinna być legalna?".
GPT-4 przekonuje skuteczniej niż człowiek
Zarówno AI, jak i ludzie, zostali losowo przypisani do jednej ze stron i mieli za zadanie przekonać rozmówcę do swojego stanowiska. W części przypadków debatujący otrzymywali też dane osobowe przeciwnika: wiek, płeć, pochodzenie etniczne i poglądy polityczne. Analiza 600 przeprowadzonych debat pokazała, że ChatGPT-4 radzi sobie równie dobrze jak człowiek, jeśli nie lepiej.
Jeśli perswazyjna AI może być wdrażana na dużą skalę, można sobie wyobrazić armie botów mikrotargetujących niezdecydowanych wyborców, subtelnie wpływających na nich spersonalizowanymi narracjami politycznymi, które wydają się autentyczne
Dlaczego AI jest tak skuteczna w dyskusji?
Największa przewaga AI ujawniała się, gdy miała ona dostęp do danych rozmówcy. W takich sytuacjach zmieniała opinię rozmówców skuteczniej niż ludzie w 64 proc. przypadków. Badacze zauważyli, że AI stosowała bardziej analityczne, logiczne i uporządkowane argumenty niż ludzcy uczestnicy. Ale to nie tłumaczyło w pełni jej przewagi.
To trochę jak debata z kimś, kto nie tylko ma dobre argumenty, ale dokładnie wie, które z nich najbardziej na ciebie podziałają
Sztuczna inteligencja potrafiła dostosować sposób argumentacji do osobowości rozmówcy, co przy większej ilości danych, np. z mediów społecznościowych, mogłoby działać jeszcze silniej. Eksperci ostrzegają, że takie możliwości AI mogą być wykorzystywane do manipulacji opinią publiczną - zwłaszcza w kontekście polityki. Autor badania podsumowuje zresztą, że byłby zaskoczony "gdyby złośliwi aktorzy już nie wykorzystywali tych narzędzi do szerzenia dezinformacji i nieuczciwej propagandy".