Grok tworzy problem. X udaje, że go rozwiązuje ukrytym przyciskiem
Od czasu przejęcia Twittera przez Elona Muska, przemianowania go na X i integracji z Grokiem jego reputacja jest jeszcze bardziej szargana. Dochodzi do tego problem z deepfake'ami, czyli zdjęciami przerabianymi przez AI, które mogą szerzyć dezinformację lub po prostu być nieetyczne - jak w przypadku "rozbierania" kobiet przez sztuczną inteligencję Grok. Nowe narzędzie ma temu zapobiec. Analizy wskazują jednak na jego niewielką skuteczność i trudność jego odkrycia w interfejsie.

Spis treści:
- Grok rozbiera ludzi bez ich zgody. Przeróbki lądują na platformie X
- Nowa funkcja miała chronić użytkowników. Odkryto w niej liczne luki
- Przełącznik tylko na iOS. Jak można rozwiązać problem deepfake'ów?
Grok rozbiera ludzi bez ich zgody. Przeróbki lądują na platformie X
Serwis X (dawniej znany jako Twitter) ma od lat zszarganą reputację. Spośród czołowych portali społecznościowych to do niego przylgnęła łatka miejsca, w którym z dużą swobodą szerzą się fake newsy, hejt i spam rozpowszechniany przez boty. Specyficznie pojmowana przez Elona Muska "wolność słowa" umożliwia dość swobodną ekspresję. Oliwy do ognia dolała integracja z Grokiem, którego niesława wynika choćby z obrażania papieża i czołowych polityków, o czym pisaliśmy wcześniej w GeekWeeku.
Niesformy model AI jest również krytykowany za nieetyczne działania polegające na wirtualnym "rozbieraniu" kobiet na zdjęciach bez ich wiedzy i zgody. Użytkownicy odkryli bowiem kilka miesięcy temu, że model stworzony przez xAI pozwala na generowanie seksualizowanych i niecenzuralnych obrazów osób trzecich bez ich zgody. Takie przeróbki masowo lądowały na tablicach użytkowników platformy X.
Aby uporać się jakoś z tym skandalem, na platformę trafiło nowe narzędzie, które ma ograniczyć możliwość modyfikowania prywatnych materiałów przez sztuczną inteligencję. Pierwsze analizy wskazują jednak na jego znikomą skuteczność. Rozwiązanie wydaje się być jedynie powierzchowną zmianą, która ma pokazać, że wydawca serwisu coś faktycznie robi.
Nowa funkcja miała chronić użytkowników. Odkryto w niej liczne luki
Co dokładnie zmieniło się na platformie X? W jej aplikacji na iOS niedawno pojawił się dyskretny przełącznik, dostępny podczas przesyłania zdjęć lub filmów. Funkcja opisana jako "blokowanie modyfikacji przez Groka" ma teoretycznie chronić autorskie treści przed ingerencją bota. W praktyce oznacza to, że po aktywacji tej opcji inni użytkownicy nie będą mogli wywołać Groka bezpośrednio pod postem za pomocą tagowania, aby poprosić go o modyfikację komentowanego materiału. Jest to próba ukrócenia powszechnego zjawiska, w którym odpowiedzi pod postami są zalewane prośbami do AI o edycję cudzych zdjęć.
Szczegółowa analiza przeprowadzona przez redakcję The Verge odkryła jednak liczne luki w tym systemie. Funkcja ma niezwykle wąski zakres działania - blokuje jedynie publiczne wywołanie bota w wątku, ale nie chroni obrazu przed edycją w samej aplikacji Grok. Użytkownicy nadal mogą skorzystać z menu kontekstowego po przytrzymaniu zdjęcia i wybrać opcję "Edytuj obraz za pomocą Groka", co przenosi materiał bezpośrednio do narzędzia AI, omijając nową blokadę.
Co więcej, zabezpieczenie można łatwo obejść, pobierając zdjęcie na urządzenie i przesyłając je ponownie jako własne. Do obrazu nie są dołączane żadne metadane (np. niewidoczny gołym okiem znak wodny), które powstrzymywałyby Groka przed nieetycznymi przeróbkami.
Przełącznik tylko na iOS. Jak można rozwiązać problem deepfake'ów?
Jak zauważają eksperci, nowy przełącznik jest trudny do znalezienia i dostępny jedynie dla wąskiej grupy użytkowników korzystających z urządzeń Apple. Opcja została ukryta głęboko w menu edycji, pod niewiele mówiącym symbolem pędzla. Ponadto z jakiegoś powodu xAI nie zintegrowało go z aplikacją na Androida ani na przeglądarki. Zdaniem krytyków świadczy to o tym, że X realizuje jedynie absolutne minimum w zakresie bezpieczeństwa użytkowników.
Nie jest to pierwsze podejście firmy do problemu deepfake'ów (czyli bardzo realistycznych przeróbek zdjęć lub filmów przez AI). Wcześniejsza próba opanowania sytuacji poprzez przeniesienie funkcji edycji obrazów przez Groka za płatną subskrypcję została odebrana przez wielu nie jako rozwiązanie problemu, lecz jako próba monetyzacji nadużyć.
Tak powierzchowne działania mogą nie wystarczyć, by uspokoić organy regulacyjne i opinię publiczną. Wiele instytucji na całym świecie wszczęło dochodzenia w sprawie X i Groka po doniesieniach o tworzeniu materiałów o charakterze seksualnym bez zgody osób zainteresowanych, w tym z wizerunkami osób nieletnich. Sposób wdrożenia obecnych rozwiązań budzi wątpliwości, czy xAI faktycznie zależy na rozwiązywaniu problemu wirtualnej przemocy na tle seksualnym.
Rozwiązaniem tego problemu mogłaby być modyfikacja samego Groka, polegająca na nałożeniu na niego blokad, takich jak te w modelach OpenAI czy Google, które odmawiają generowania zdjęć o charakterze erotycznym czy krzywdzącym w inny sposób. Do tego jednak firma Elona Muska się jakoś nie pali.










