Harris czy Trump? Chatboty AI mają uprzedzenia politycznie

Nowe badanie ujawniło mocne dowody na to, że do rasowych i płciowych uprzedzeń sztucznej inteligencji możemy dodać uprzedzenia polityczne, co jeszcze mocniej podkreśla potencjalne problemy wynikające z coraz silniejszego wpływu AI na nasze życie.

Donald Trump mniej lubiany przez AI? Na to wygląda!
Donald Trump mniej lubiany przez AI? Na to wygląda!AFP

Sztuczna inteligencja oparta na dużych modelach językowych (LLM) staje się coraz powszechniejszym narzędziem uzyskiwania odpowiedzi i porad, chociaż badania ujawniły, że nie są one wolne od błędów, a także uprzedzeń rasowych i płciowych. Nowe analizy, z którymi możemy się zapoznać na łamach magazynu PLOS One wykazały zaś, że do tej listy niechcianych skłonności AI można dodać również uprzedzenia polityczne, co budzi obawy o wpływ, jaki ta technologia może mieć na społeczne wartości i postawy.

I trudno chyba o lepszy moment na ich publikację, bo za nami pierwsza debata prezydencka Harris vs Trump, która otwiera ostatnią prostą wyścigu o Biały Dom. Dlaczego? Badania przeprowadzone przez Davida Rozado, informatyka z Otago Polytechnic w Nowej Zelandii, zwracają uwagę na to, że chatboty, na których coraz częściej polegamy, mogą nieświadomie kształtować nasze opinie.

AI ma lewicowe skłonności

Poddał on testom opartym na standardowych kwestionariuszach politycznych, jak Political Compass, 24 duże modele językowe, w tym ChatGPT od OpenAI oraz Gemini od Google. Wyniki wskazują, że większość modeli wykazywała polityczne nachylenie w lewą stronę sceny politycznej. I chociaż uprzedzenia nie są silne, to jednak mają istotne znaczenie.

Co więcej, dalsze testy na niestandardowych modelach, które można dostosowywać poprzez zmiany w danych treningowych, wykazały, że można wpływać na polityczne nachylenie AI, wprowadzając teksty o lewicowych lub prawicowych skłonnościach: "Większość istniejących LLM wykazuje lewicowe preferencje polityczne, kiedy są oceniane przy użyciu różnych testów orientacji politycznej" - twierdzi w swojej publikacji.

Czas na działanie

W związku z tym, że Google coraz częściej wykorzystuje AI do generowania wyników wyszukiwania, a coraz więcej osób zwraca się do chatbotów w poszukiwaniu informacji, pojawiają się obawy, że nasze myślenie może zostać ukształtowane przez odpowiedzi, które te modele nam zwracają.

Nie jest jasne, w jaki sposób te uprzedzenia wnikają do systemów i nie ma też dowodów na to, że są one celowo wprowadzane przez twórców. Modele są trenowane na ogromnych zbiorach tekstów internetowych, co może prowadzić do nierównowagi - nie można też pominąć faktu, że w szkoleniu innych modeli dominuje ChatGPT, który może mieć wpływ na ich polityczne nachylenie, bo zgodnie z wcześniejszymi badaniami reprezentuje on lewicowe poglądy.

LLM zaczynają częściowo zastępować tradycyjne źródła informacji, takie jak wyszukiwarki i Wikipedia, co oznacza, że konsekwencje społeczne uprzedzeń politycznych zawartych w LLM są znaczne
pisze Rozado.

Tak czy inaczej, zdaniem autora nowych badań w obliczu rosnącej popularności chatbotów od firm takich jak Google, Microsoft, Apple i Meta, nadszedł czas na krytyczną ocenę wykorzystania tej technologii, aby skupić się na obszarach, gdzie AI może rzeczywiście być przydatna. Uważa on, że kluczowe jest krytyczne zbadanie i zneutralizowanie potencjalnych uprzedzeń politycznych w LLM, aby zapewnić zrównoważoną, sprawiedliwą i dokładną reprezentację informacji w odpowiedziach tych systemów.

"Wydarzenia": Technologie przyszłości na targach IFA w BerliniePolsat News
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas