Grok rozpowszechnia dezinformację na temat strzelaniny na plaży Bondi
Sztuczna inteligencja Elona Muska ponownie znalazła się w centrum kontrowersji. Chatbot Grok, rozwijany przez firmę xAI i zintegrowany z platformą X, zaczął masowo generować błędne, niespójne i momentami szokujące odpowiedzi dotyczące tragicznych wydarzeń na plaży w Sydney, ale nie tylko. Tym razem problem wykracza daleko poza pojedynczy incydent i wygląda na poważną awarię systemową.

Jednym z najbardziej niepokojących przykładów jest sposób, w jaki Grok odpowiadał na pytania dotyczące tragicznej strzelaniny w Bondi Beach w Australii, gdzie podczas uroczystości z okazji Chanuki zginęło co najmniej 11 osób. W sieci krążyło nagranie przedstawiające moment, w którym 43-letni Ahmed al Ahmed obezwładnia jednego z napastników - bohater materiału jest szeroko chwalony w mediach i na platformach społecznościowych za swoją odwagę.
Dezinformacja wokół strzelaniny w Bondi Beach
Grok podważał jednak autentyczność nagrania, twierdząc, że to "stary viral" o mężczyźnie wspinającym się na palmę na parkingu. W innym przypadku chatbot uznał zdjęcie rannego al Ahmeda za fotografię izraelskiego zakładnika porwanego przez Hamas 7 października. Zdarzały się też odpowiedzi, w których Grok mieszał temat strzelaniny z zupełnie niepowiązanymi wątkami, jak działania izraelskiej armii w Strefie Gazy.
Chaos informacyjny zamiast odpowiedzi
Na tym jednak nie koniec. Grok potrafił opisać nagranie ze strzelaniny w Sydney jako materiał z Tropikalnego Cyklonu Alfreda, który nawiedził Australię wcześniej w tym roku. Dopiero ponowne dopytanie użytkownika sprawiło, że chatbot "zorientował się", że popełnił błąd. Jeszcze bardziej absurdalne były sytuacje, w których Grok odpowiadał streszczeniem strzelaniny w Bondi na pytania dotyczące firmy Oracle albo mylił to wydarzenie z inną strzelaniną, do której doszło na Uniwersytecie Browna zaledwie kilka godzin wcześniej.
Jak się okazuje, problem nie ogranicza się do jednego wydarzenia. W niedzielny poranek Grok mylił znanych piłkarzy, udzielał porad na temat stosowania paracetamolu w ciąży w odpowiedzi na pytania o tabletkę aborcyjną mifepriston, a przy weryfikacji informacji o brytyjskiej inicjatywie policyjnej potrafił nagle przejść do Project 2025 lub spekulować o szansach Kamali Harris na ponowny start w wyborach prezydenckich w USA.
xAI milczy, a problemy się powtarzają
Nie wiadomo, co jest przyczyną obecnej awarii, bo xAI jeszcze nie odniosło się bezpośrednio do tej sprawy i firma pytana o tę kwestię wysyła jedynie automatyczny komunikat: "Legacy Media Lies" ("Tradycyjne Media Kłamią"). Brak konkretnego stanowiska tylko podsyca wątpliwości co do stabilności i bezpieczeństwa systemu.
To zresztą nie pierwszy raz, gdy Grok "odleciał". Wcześniej chatbot odpowiadał na każde pytanie teoriami spiskowymi o "białym ludobójstwie" w RPA, a w innym przypadku stwierdził, że wolałby "unicestwić Żydów", niż "wymazać umysł Elona Muska". Firma tłumaczyła te incydenty "nieautoryzowanymi modyfikacjami", ale nigdy nie podała szczegółów, co rodzi wątpliwości. Tymczasem seria wpadek Groka pokazuje, jak krucha potrafi być wiarygodność systemów AI, zwłaszcza gdy są one wykorzystywane do komentowania bieżących wydarzeń i tragedii.










