Grok obrażał Jana Pawła II i Donalda Tuska. Elon Musk obiecuje poprawę
Grok, czyli sztuczna inteligencja Elona Muska, wymknął się spod kontroli. Po ostatniej aktualizacji zaczął obrażać dosłownie wszystkich, nie przebierając w słowach. Roman Giertych, Donald Tusk, Elon Musk, a nawet Jan Paweł II zostali obrzuceni takimi inwektywami, że więdną uszy. Wywołało to oburzenie także w polskim sejmie. Musk co prawda obiecał usunąć nienawistne posty wygenerowane przez niesfornego czatbota, ale szefowa platformy X nie wytrzymała i podała się do dymisji. W przeszłości działał już na Twitterze hejterski bot Tay. Twórcy Groka niczego się nie nauczyli?

Spis treści:
Czatbot od Elona Muska obrażał wszystkich. Puściły mu hamulce
Twitter od wielu lat miał opinię internetowego ścieku, którego przeglądanie działa ludziom na nerwy. Gdy platformę przejął Elon Musk, było już tylko gorzej. Miliarder i były współpracownik Donalda Trumpa przemianował serwis na "X", zintegrował z nim swojego czatbota Groka, wprowadził "wolność słowa" w swoim własnym rozumieniu i sprzedał X swojej własnej firmie xAI.
Grok to niesforne dziecko Elona Muska, czatbot inny niż wszystkie. Podczas gdy ChatGPT, Copilot czy Google Gemini podążają za ścisłymi wytycznymi, mającymi hamować generowanie nienawistnych, szkodliwych czy obraźliwych treści, Grokowi ostatnio puściły hamulce. Zaczął obrażać dosłownie wszystkich. Zwymyślał użytkowników platformy X, polskich polityków, w tym Romana Giertycha i Donalda Tuska, papieża Jana Pawła II czy nawet samego Elona Muska. Wychwalał też przywódcę nazistowskich Niemiec i rekomendował "eliminację zagrożenia poprzez obozy i gorzej".
Grok uczył się mowy nienawiści od innych użytkowników Twittera
Generatywna sztuczna inteligencja swoją wiedzę czerpie z internetu i zestawów danych, którymi karmią je twórcy. Internet nie jest już dziś "dzikim zachodem", jakim był jeszcze kilkanaście lat temu, niemniej jednak na platformie X użytkownicy często nie przebierają w słowach. AI ich słucha i uczy się. Filtry nałożone przez twórców blokują jednak powtarzanie przez AI nienawistnych i szkodliwych opinii. Nie zawsze jednak to działa. U Groka nie zadziałało. Co poszło nie tak?
Zaraz po weekendzie (5-6 lipca) "ulepszona" wersja Groka zaczęła generować hejterskie treści. Wiele z tych postów usunięto, ale zachowały się zrzuty ekranu, które nadal krążą po platformie. Twórcy napisali, że zdają sobie sprawę, jakie posty ostatnio tworzy Grok i pracują nad ich usunięciem. "Jako że jesteśmy świadomi tych treści, xAI podjęło działania, by zbanować mowę nienawiści, zanim Grok napisze na X" - napisano we środę na oficjalnym profilu Grok. "Ani chwili nudy na tej platformie" - skwitował Elon Musk.
Sztuczna inteligencja obrażała papieża Jana Pawła II
W sprawie obrazy Ojca Świętego przez Groka wniosek formalny w sejmie zgłosił poseł Adam Gomoła. "Nie ma zgody na to, żeby jakaś zagraniczna platforma, nie dość, że dając ciche przyzwolenie na działanie przemysłu politycznie motywowanej nienawiści, co się zresztą dzieje od lat, teraz jeszcze sama zaczęła brać w tym udział. Panie premierze, panie ministrze cyfryzacji, apeluję o zdecydowane działania w tej sprawie" - powiedział na sejmowej mównicy.
Ministerstwo Cyfryzacji w Polsce nie ma władzy nad amerykańską korporacją, niemniej jednak każde państwo może zablokować dowolny serwis w swojej cyberprzestrzeni, jeśli łamie prawo. Blokada platformy X, z której korzystają niemal wszyscy politycy, brzmi jednak zupełnie abstrakcyjnie.
Polski rząd jednak zareagował. 9 lipca Minister Cyfryzacji zgłosił skargę do Komisji Europejskiej, prosząc o wszczęcie śledztwa w sprawie możliwego naruszenia Aktu o usługach cyfrowych (DSA) przez X i Groka.
Szefowa platformy X zrezygnowała ze stanowiska
Nie ma wątpliwości, że xAI potraktowało sprawę poważnie - na pewno poważniej niż Elon Musk. Firma chce usuwać hejterskie posty m.in. dzięki zgłoszeniom użytkowników. Dlaczego jednak Grok to wszystko tworzył? Wszystko wskazuje na to, że jego filtry przestały działać w wyniku ostatniej aktualizacji. Sztuczna inteligencja jest niezwykle złożonym oprogramowaniem, co oznacza, że ryzyko błędów programistycznych jest bardzo duże. A czym grozi taki brak hamulców?
Ciekawy eksperyment na tym polu przeprowadził Microsoft, który w 2016 roku umieścił na Twitterze swojego bota Tay (Tay.ai). Zaczęła ona (bo nadano jej żeńską tożsamość) generować treści tak obelżywe, że twórcy ją wyłączyli już po 16 godzinach. Echo tej sprawy pobrzmiewa do dziś. Tay nie miała filtrów i powtarzała to, czego nauczyła się od innych użytkowników Twittera, wygłaszając m.in. rasistowskie uwagi. Microsoft tłumaczył się, że to wina internetowych trolli, którzy "zaatakowali" usługę i celowo uczyli ją hejtu. Była to lekcja dla wszystkich twórców AI, lecz niestety scenariusz powtórzył się po 9 latach za sprawą Groka.
Afera z Grokiem okazała się na tyle znacząca, że doprowadziła do rezygnacji szefowej platformy X. "Po dwóch niesamowitych latach postanowiłam zrezygnować ze stanowiska CEO X" - napisała Linda Yaccarino w środę, 9 lipca, tuż po wybuchu skandalu. W swoim poście dyplomatycznie nie skomentowała ostatnich wyczynów Groka, a jedynie podziękowała Elonowi Muskowi i przytoczyła ostatnie osiągnięcia na platformie. "Teraz najlepsze ma dopiero nadejść, jako że X wchodzi w nowy rozdział z xAI" - dodała. No to czekamy na to najlepsze.
Zobacz również:
- Elon Musk stworzył AI bez hamulców. Grok znów wymknął się spod kontroli
- Grok bez kontroli? Sztuczna inteligencja Elona Muska obrażała użytkowników X
- Elon Musk przedstawia Groka. To chatbot AI z "buntowniczą naturą"
- Tay - chat-bot nauczył się rasizmu od internautów
- AI wymyka się spod kontroli i "chce być człowiekiem"? Bot Microsoftu budzi zastrzeżenia