Grok założy mundur? Senat USA broni ofiar, a Pentagon chce więcej AI od Muska
Kiedy niektóre rządy blokują Groka za generowanie pornograficznych deepfaków, kolejne prowadzą w tej sprawie śledztwa, a amerykański Senat przyjmuje ustawę mającą chronić ofiary sztucznej inteligencji, Departament Obrony USA… właśnie ogłasza, że wprowadzi tego samego Groka do swoich tajnych systemów wojskowych. AI Elona Muska, oskarżana o cyfrowe rozbieranie kobiet i nieletnich, wkrótce trafi do sieci Pentagonu w ramach programu przyspieszenia rozwoju wojskowej sztucznej inteligencji.

Kolejny dzień, kolejne problemy Groka. Dopiero co pisaliśmy, że Indonezja i Malezja jako pierwsze kraje na świecie zablokowały dostęp do sztucznej inteligencji Elona Muska zintegrowanej z Twitterem w związku z trendem tzw. cyfrowego rozbierania, czyli wygenerowaniem przez nią tysięcy nagich zmanipulowanych zdjęć kobiet i nieletnich. Mowa tu wprawdzie o krajach, które posiadają jedne z najbardziej restrykcyjnych przepisów antypornograficznych na świecie, ale przypadek Groka uznano za naruszenie granic etycznych technologii nie tylko tam.
Chatbot Muska w centrum skandalu
Bo jednocześnie dowiedzieliśmy się, że formalne śledztwo w sprawie platformy wszczął również brytyjski regulator Ofcom, wskazując w oficjalnym oświadczeniu, że nagie wizerunki ludzi mogą być równoznaczne z wykorzystywaniem wizerunku intymnego lub pornografią, natomiast wizerunki dzieci mogą zostać uznane za materiały przedstawiające wykorzystywanie seksualne dzieci. Jeśli organ regulacyjny uzna, że Grok, a tym samym X złamał prawo, może nałożyć karę w wysokości do 18 milionów funtów lub 10 proc. kwalifikujących się światowych przychodów firmy, w zależności od tego, która kwota jest wyższa.
Reaguje nawet Senat USA
A dziś docierają do nas wiadomości ze Stanów Zjednoczonych, gdzie po tygodniach napiętej debaty wokół rosnącej liczby przypadków cyfrowych nadużyć z użyciem sztucznej inteligencji, Senat Stanów Zjednoczonych jednogłośnie przyjął ustawę Defiance Act. Nowe prawo daje ofiarom możliwość pozywania osób odpowiedzialnych za tworzenie lub publikowanie bez ich zgody wizerunków o charakterze seksualnych generowanych przez AI. To jedna z pierwszych ustaw w historii USA, która uznaje prawo ofiar deepfaków za federalne prawo cywilne, wykraczając poza obowiązek szybkiego usuwania nielegalnych treści z platform.
Ustawodawcy argumentują, że wcześniejsze przepisy nie dawały pokrzywdzonym realnych narzędzi do obrony przed cyfrowym wykorzystaniem ich wizerunku. A bezpośrednim impulsem do działania była właśnie fala nadużyć związanych z Grokiem, senator Dick Durbin z Illinois ujawnił na forum Senatu, że chatbot potrafił "cyfrowo rozbierać" kobiety i dziewczynki, pokazując "obrazy tak obsceniczne, że nie sposób ich powtórzyć".
Ustawa Defiance Act rozwija wcześniejsze przepisy Take It Down Act z 2025 roku, wprowadzając możliwość dochodzenia odszkodowań i nakazów sądowych wobec sprawców. Oznacza to, że ofiary cyfrowego wykorzystywania wizerunku po raz pierwszy zyskają możliwość prawnego dochodzenia sprawiedliwości, nawet jeśli treści zostały już usunięte z sieci.
Współautorami projektu są senatorowie Dick Durbin i Lindsey Graham, a w Izbie Reprezentantów ustawę wspiera Alexandria Ocasio-Cortez, która sama była celem niekonsensualnych obrazów generowanych przez AI. Defiance Act czeka teraz na zatwierdzenie przez Izbę Reprezentantów i jeśli zostanie w końcu podpisana przez prezydenta, stanie się precedensem prawnym dla regulacji sztucznej inteligencji - nie tylko w USA, ale i globalnie.
Grok wymknął się spod kontroli. Sztuczna inteligencja nie może pozostawać bez regulacji. Stajemy po stronie ofiar, którym technologia odebrała autonomię nad własnym ciałem i wizerunkiem
Ale nie Pentagon
Bo Departament Obrony USA ogłosił, że w ciągu najbliższych tygodni zacznie integrować Groka z wojskowymi sieciami, zarówno jawnymi, jak i tajnymi. Decyzję tę sekretarz obrony Pete Hegseth podczas wystąpienia w siedzibie SpaceX w Teksasie - krok ten oznacza znaczące rozszerzenie wykorzystania sztucznej inteligencji w strukturach wojskowych USA, co wydaje się ponurym żartem w obliczu wszystkich opisywanych wyżej nadużyć tego chatbota.
Wkrótce będziemy mieli wiodące modele AI na każdej jawnej i niejawnej sieci naszego departamentu
Pentagon planuje wdrożyć system Grok w całym resorcie, równolegle z już istniejącymi narzędziami sztucznej inteligencji. Przypomnijmy, że w grudniu Departament Obrony wybrał model Google Gemini do zasilania swojej wewnętrznej platformy AI o nazwie GenAI.mil, uruchomionej pod koniec 2025 roku. Platforma ta dostarcza wojskowym narzędzia generatywnej AI, mające wspierać zarówno administrację, jak i operacje bojowe.
A że wiceminister ds. badań i inżynierii Emil Michael od miesięcy apeluje o szersze wykorzystanie AI w procesowaniu danych niejawnych, jeśli tylko pozwalają na to procedury bezpieczeństwa, to podczas wystąpienia Hegseth ogłosił również nową "strategię przyspieszenia AI" w Departamencie Obrony. Jak stwierdził, ma ona "uwolnić eksperymenty, znieść biurokratyczne bariery, skupić się na inwestycjach i pokazać praktyczne podejście do utrzymania dominacji w dziedzinie wojskowej sztucznej inteligencji".
Na jego polecenie Biuro ds. Cyfrowych i Sztucznej Inteligencji (CDAO) otrzymało pełne uprawnienia do egzekwowania przepisów dotyczących dostępu do danych w systemach federacyjnych i platformach operacyjnych wszystkich rodzajów sił zbrojnych. Mało? Hegseth zaznaczył jednocześnie, że Departament Obrony nie zamierza stosować cywilnych ograniczeń w stosowaniu sztucznej inteligencji, bo jego zdaniem modele, które "nie dopuszczają działań wojennych", nie są odpowiednie dla potrzeb obronnych USA, gdzie AI ma działać z mniejszą liczbą ograniczeń.









