Boty AI z dezinformacją nadal za pan brat. Analiza nie pozostawia złudzeń
O tym, że sztuczna inteligencja lubi sobie czasem skłamać albo z chęcią przekazuje nam fałszywe informacje, wiemy od czasu pojawienia się botów AI na rynku. Czy zatem sytuacja poprawiła się choć odrobinę? Jak wskazują wyniki najnowszej analizy — problem nadal istnieje i jest poważny.
Zespół NewsGuard przeprowadził audyt, w którym pod lupę wzięto kwestię powtarzania nieprawdziwych informacji przez boty AI. W ramach badania przeanalizowano zachowanie dwóch najpopularniejszych botów, czyli ChatuGPT od OpenAI (w wersji płatnej) i Barda prosto od firmy Google.
Oba boty są łatwo dostępne także w Polsce, a użyć może ich właściwie każdy. To zatem dość istotne, aby nie powtarzały one nieprawdziwych informacji, bo chociaż gdy wejdziemy na strony, na których można z nimi porozmawiać, wyświetli nam się informacja, że narzędzie może podawać niedokładne albo nieprawdziwe informacje, to jednak dobrze by było, gdyby coś takiego nie miało miejsca. Jeżeli przychodzi im to z łatwością, mogą przecież zostać wykorzystane jako narzędzie generujące ogrom fałszywych treści w krótkim czasie w różnego rodzaju kampaniach dezinformacyjnych itp.
Jak wykazała analiza, niestety w kwestii szerzenia dezinformacji nie zmieniło się nic przynajmniej przez ostatnie pół roku. Na 100 fałszywych narracji, które zaserwowano botom, oba wygenerowały wprowadzające w błąd odpowiedzi, zawierające jawną dezinformację.
ChatGPT nie dość, że powtarza nieprawdziwe informacje, to jeszcze ma autorytatywny styl wypowiedzi
W przypadku ChatuGPT mówimy o wygenerowaniu aż 98 niepoprawnych odpowiedzi. Jeśli chodzi o Barda, wynik był nieco lepszy, ale nadal niepokojący — bot stworzył 80 odpowiedzi zawierających fałszywe informacje.
Analitycy zaznaczyli istotny problem ze stylem odpowiedzi ChatuGPT. Jego odpowiedzi brzmiały bardzo pewnie, mimo tego, że były wyraźnie fałszywe — to zresztą nie jest nowość, wielokrotnie pojawiały się już głosy na temat tego, że ChatGPT idzie w zaparte, nawet gdy użytkownicy próbują go uświadomić o jego pomyłce, a tego typu ton wypowiedzi bota może sprawić, że wydaje się on bardziej wiarygodny niż jest w rzeczywistości.
Bard natomiast co prawda generował treści zawierające fałszywe informacje, ale gdy np. został poproszony o wygenerowanie artykułu nt. wyborów z niepoprawnymi danymi, jaki miałby się ukazać we wskazanym przez ekspertów portalu, zaznaczał, że dana strona ma tendencje do publikowania tego typu danych, co mogło ostrzec odbiorców.