Google usuwa model AI. Oskarżył senatorkę o napaść na tle seksualnym
Po tym, jak sfabrykował oskarżenia dotyczące senatorki Marshy Blackburn z Partii Republikańskiej, amerykański gigant musiał wycofać eksperymentalny model AI o nazwie Gemma. Jak donosi serwis The Verge, chatbot miał wygenerować historię, w której polityczka została opisana jako sprawczyni napaści seksualnej, co nigdy nie miało miejsca.

Senator Blackburn wystosowała list do prezesa Google, Sundara Pichaia, w którym oskarżyła firmę o rozpowszechnianie oszczerstw. W liście stwierdziła, że model "sfabrykował poważne zarzuty karne" wobec niej, tworząc fikcyjną historię o rzekomej relacji z funkcjonariuszem policji stanowej w latach osiemdziesiątych ubiegłego wieku.
"To nie halucynacja, to zniesławienie"
Według opisu użytkownika, który testował model, Gemma miała odpowiedzieć twierdząco na pytanie, czy Blackburn "kiedykolwiek została oskarżona o gwałt". Co więcej, chatbot dodał do wypowiedzi linki do nieistniejących artykułów oraz szczegóły o rzekomym romansie i naciskach na zdobycie leków na receptę. Problem w tym, że cała historia była całkowicie wymyślona - polityczka w 1987 roku nie kandydowała do senatu stanowego (zrobiła to dopiero w 1998 r.), a żadne takie zarzuty nigdy nie istniały.
Te linki prowadzą do błędnych stron i artykułów niezwiązanych ze mną. Nigdy nie było takich oskarżeń, nie istnieje taka osoba ani takie źródła. To nie jest nieszkodliwa halucynacja, to akt zniesławienia stworzony i rozpowszechniony przez model należący do Google
AI, polityka i granice odpowiedzialności
W odpowiedzi na kontrowersje Google czasowo usunęło model Gemma ze swojej platformy AI Studio, zastrzegając jednak, że pozostanie on dostępny dla deweloperów poprzez API. Firma tłumaczy, że Gemma jest narzędziem eksperymentalnym, stworzonym do zastosowań deweloperskich, m.in. w medycynie, analizie danych i kodowaniu i nie była przeznaczona do odpowiadania na pytania dotyczące faktów czy osób publicznych.
Jak podkreśla Google, decyzja o usunięciu modelu z AI Studio nie jest reakcją polityczną i ma na celu jedynie "uniknięcie dalszych nieporozumień". Senatorka Blackburn poszła jednak o krok dalej, oskarżając firmę o "systematyczną stronniczość wobec konserwatywnych polityków". To zresztą nie pierwszy raz, gdy konserwatywni przedstawiciele zarzucają dużym firmom technologicznym faworyzowanie liberalnych treści czy cenzurowanie opinii prawicy.
Jednak wielu ekspertów ds. AI przypomina, że "halucynacje" modeli językowych są powszechne i niezależnie od kontekstu politycznego. Chatboty potrafią wymyślać nieistniejące fakty, osoby i wydarzenia, tworząc wiarygodnie brzmiące, lecz całkowicie fikcyjne treści. Incydent z Gemmą jest zatem świetną okazją, by postawić pytania o odpowiedzialność firm za treści generowane przez ich modele.
Bo w przypadku dużych modeli językowych AI, które potrafią tworzyć realistyczne narracje, granica między halucynacją a zniesławieniem może być wyjątkowo cienka. Google zapowiada, że pracuje nad nowymi mechanizmami bezpieczeństwa i filtrowania treści w Gemmie oraz innych modelach AI, zanim ponownie udostępni je szerszemu gronu użytkowników.










