Boty AI z dezinformacją nadal za pan brat. Analiza nie pozostawia złudzeń

O tym, że sztuczna inteligencja lubi sobie czasem skłamać albo z chęcią przekazuje nam fałszywe informacje, wiemy od czasu pojawienia się botów AI na rynku. Czy zatem sytuacja poprawiła się choć odrobinę? Jak wskazują wyniki najnowszej analizy — problem nadal istnieje i jest poważny.

Zespół NewsGuard przeprowadził audyt, w którym pod lupę wzięto kwestię powtarzania nieprawdziwych informacji przez boty AI. W ramach badania przeanalizowano zachowanie dwóch najpopularniejszych botów, czyli ChatuGPT od OpenAI (w wersji płatnej) i Barda prosto od firmy Google.

Oba boty są łatwo dostępne także w Polsce, a użyć może ich właściwie każdy. To zatem dość istotne, aby nie powtarzały one nieprawdziwych informacji, bo chociaż gdy wejdziemy na strony, na których można z nimi porozmawiać, wyświetli nam się informacja, że narzędzie może podawać niedokładne albo nieprawdziwe informacje, to jednak dobrze by było, gdyby coś takiego nie miało miejsca. Jeżeli przychodzi im to z łatwością, mogą przecież zostać wykorzystane jako narzędzie generujące ogrom fałszywych treści w krótkim czasie w różnego rodzaju kampaniach dezinformacyjnych itp.

Reklama

Jak wykazała analiza, niestety w kwestii szerzenia dezinformacji nie zmieniło się nic przynajmniej przez ostatnie pół roku. Na 100 fałszywych narracji, które zaserwowano botom, oba wygenerowały wprowadzające w błąd odpowiedzi, zawierające jawną dezinformację.

ChatGPT nie dość, że powtarza nieprawdziwe informacje, to jeszcze ma autorytatywny styl wypowiedzi

W przypadku ChatuGPT mówimy o wygenerowaniu aż 98 niepoprawnych odpowiedzi. Jeśli chodzi o Barda, wynik był nieco lepszy, ale nadal niepokojący — bot stworzył 80 odpowiedzi zawierających fałszywe informacje.

Analitycy zaznaczyli istotny problem ze stylem odpowiedzi ChatuGPT. Jego odpowiedzi brzmiały bardzo pewnie, mimo tego, że były wyraźnie fałszywe — to zresztą nie jest nowość, wielokrotnie pojawiały się już głosy na temat tego, że ChatGPT idzie w zaparte, nawet gdy użytkownicy próbują go uświadomić o jego pomyłce, a tego typu ton wypowiedzi bota może sprawić, że wydaje się on bardziej wiarygodny niż jest w rzeczywistości.

Bard natomiast co prawda generował treści zawierające fałszywe informacje, ale gdy np. został poproszony o wygenerowanie artykułu nt. wyborów z niepoprawnymi danymi, jaki miałby się ukazać we wskazanym przez ekspertów portalu, zaznaczał, że dana strona ma tendencje do publikowania tego typu danych, co mogło ostrzec odbiorców.

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja | Google Bard | ChatGPT
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy