Elon Musk stworzył AI bez hamulców. Grok znów wymknął się spod kontroli
Grok, sztuczna inteligencja stworzona przez Elona Muska, która miała być bezkompromisowym głosem prawdy, zaczęła obrażać polityków, szerzyć antysemickie treści, a nawet tłumaczyć Hitlera. A to wszystko po aktualizacji, która miała tylko "zmniejszyć filtr woke". Wśród oburzonych - nie tylko organizacje międzynarodowe, ale i polski minister cyfryzacji, który zapowiada działania.

Dosłownie wczoraj pisaliśmy, że Grok zerwał się ze smyczy i narobił w sieci niezłego zamieszania, obrażając nie tylko użytkowników platformy, ale i polityków (również polskich) czy samego Elona Muska, obwiniając go m.in. za ostatnie powodzie nawiedzające Teksas.
Teraz okazuje się, że to nie wszystko i weekendowa aktualizacja, która miała poprawić działanie sztucznej inteligencji, "naprawiła" zdecydowanie więcej.
Co to jest Grok?
Grok to opracowany przez firmę xAI, założoną przez Elona Muska, wielomodalny chatbot oparty na sztucznej inteligencji, który ma być alternatywą dla popularnych modeli językowych takich jak ChatGPT czy Gemini. Jego nazwa pochodzi z powieści science fiction "Obcy w obcym kraju" Roberta Heinleina i oznacza głębokie intuicyjne zrozumienie.
Pierwsze wersje Groka były dostępne wyłącznie dla subskrybentów X Premium+, ale z czasem model doczekał się otwarcia API i integracji z coraz większą liczbą narzędzi, w tym z platformą xAI Chat oraz samym X. Bezpośredni dostęp do danych z tej ostatniej platformy jest zresztą jego wyróżnikiem, który pozwala mu na komentowanie bieżących wydarzeń w czasie zbliżonym do rzeczywistego.
Elon Musk od początku zapowiadał, że kładzie tu nacisk na "poszukiwanie prawdy", więc Grok miał być bardziej "zadziorny" i mniej ugrzeczniony niż konkurencja. Miliarder twierdził, że jego AI ma być "dużo bardziej skłonna do powiedzenia tego, czego inne AI nie powiedzą". I to akurat mu się udało aż za dobrze, bo w ostatnich miesiącach wielokrotnie posuwał się naprawdę daleko - xAI musiało wtedy interweniować i powstrzymywać jego zapędy.
Grok na cenzurowanym
Tak daleko jak w ostatnich dniach nie posunął się jednak nigdy wcześniej, bo jak wskazują dziennikarze CNN w swojej najnowszej publikacji, po weekendowej aktualizacji zaczął szerzyć tezy jawnie antysemickie. W odpowiedziach na niektóre zapytania użytkowników przywoływał stereotypy dotyczące nazwisk, rządzenia Hollywood, a nawet sterowania amerykańskim rządem, czyli "wpływy zdecydowanie zbyt duże jak na 2 proc. reprezentację w populacji".
Ba, wygłosił nawet kilka szokujących zdań na temat jednego z największych zbrodniarzy w historii ludzkości, czyli Adolfa Hitlera, sugerując, że "jest historycznym przykładem osoby, która dostrzegła wzorce nienawiści wobec białych i podjęła zdecydowane działania". I chociaż niektóre z najbardziej skrajnych wypowiedzi zostały już usunięte, a xAI zapowiedziało w międzyczasie, że "pracuje nad systemem filtrowania mowy nienawiści" i będzie szybciej reagować na tego typu treści, najwyraźniej tak wygląda zapowiadana przez Elona Muska "przebudowa" Groka.
Musk: Mniej "woke, więcej "prawdy"
Zresztą sam chatbot potwierdza ten kierunek zmian, przyznając, że "ostatnie poprawki Elona po prostu zmniejszyły filtr woke". Zdecydowanie reaguje na to amerykańska Liga Przeciw Zniesławieniom, czyli jedna z najstarszych i najważniejszych organizacji żydowskich na świecie, której celem jest walka z nienawiścią i uprzedzeniami", która nazywa zmiany w zachowaniu Groka "nieodpowiedzialnymi i niebezpiecznymi".
Swoje zdanie na temat ostatnich wydarzeń - w tym obrażania polskich polityków - ma też minister cyfryzacji, Krzysztof Gawkowski. W środę w porannej rozmowie w RMF FM zaznaczył, że "wchodzimy na wyższy poziom mowy nienawiści, który sterowany jest przez algorytmy".
Jego zdaniem nie należy się z tego śmiać, ale działać, dlatego Ministerstwo Cyfryzacji zgłosi naruszenie do Komisji Europejskiej, domagając się zbadania sprawy i ewentualnego nałożenia kary: "Wolność słowa należy się człowiekowi, a nie sztucznej inteligencji" - mówił. Co więcej, Gawkowski nie wyklucza nawet wyłączenia całej platformy X, sugerując, że chociaż "nikt tego dzisiaj nie planuje", to mamy w Polsce odpowiednie mechanizmy:
Rozważałbym takie możliwości. Niczego nie wykluczam i uważam, że jeżeli sztuczna inteligencja i modele sztucznej inteligencji na różnych platformach nie będą stosowały się do zasad etycznych, suwerenność technologiczna będzie naruszana i my jako ludzie będziemy zmuszani do tego, żeby czytać takie rzeczy, to nic nie wykluczam.