AI generuje wojnę w Iranie. Facebook postawiony pod ścianą
Wraz z szeroką dostępnością narzędzi AI do generowania wideo rośnie też skala dezinformacji w internecie. Fałszywe filmiki z wojny w Iranie to tylko jedno z problematycznych zastosowań nowej technologii. Giganci z branży big tech od lat starają się walczyć z deepfake'ami. W ostatnich dniach ich wysiłki przybrały na sile. Nowości w tym obszarze ogłosiła Meta, przyciśnięta przez własną radę nadzorczą. Co zrobią twórcy Facebooka i Instagrama, aby ograniczyć rozpowszechnianie fejkowych nagrań?

Spis treści:
- Deepfake'i z wojny w Iranie krążą po sieci
- Interwencja rady nadzorczej. Zarzuca Mecie pobłażliwość
- Meta przyciśnięta do ściany. Nie będzie już bagatelizować zgłoszeń?
Deepfake'i z wojny w Iranie krążą po sieci
Kiedy w 2022 roku Rosja napadła na Ukrainę, technologia generowania wideo przez AI była jeszcze dość prymitywna, ale boty i fejkowe konta rozpoczęły ofensywę w mediach społecznościowych, rozpowszechniając przerobione zdjęcia, obrazy pochodzące z zupełnie niepowiązanych miejsc (a nawet z filmów pełnometrażowych i gier komputerowych) czy po prostu zwykłe fake newsy. 4 lata później sprawa tylko się komplikuje. Szeroka dostępność, łatwość użycia i przede wszystkim wysoki realizm generatorów filmów sprawiają, że internet zalewa potok fałszywych filmików ukazujących rzekomo oblicze wojny w Iranie.
W ostatnim czasie umiejętności sztucznej inteligencji poszły mocno w górę. "To, co się zmieniło w ciągu ostatniego roku, to fakt, że generatywna AI stała się znacznie szerzej dostępna i możliwe jest teraz tworzenie bardzo wiarygodnych filmów i obrazów, które wydają się przedstawiać znaczące zdarzenia wojenne, które trudno jest rozpoznać niewyszkolonym lub gołym okiem" - powiedział w rozmowie z BBC dziennikarz i demaskator fejków wojennych, Shayan Sardarizadeh.
Wiele takich deepfake'ów hula po sieci, wliczając w to portale społecznościowe i platformy streamingowe z wideo. To element wojny informacyjnej, wchodzącej w skład wojny hybrydowej, którą prowadzą mocarstwa z całego świata, w tym oczywiście strony konfliktu. Wpływ manipulacji oraz to, jaką kaskadę zdarzeń może ona wywołać, jest trudny do oszacowania, jednak nie ma wątpliwości, że jest to zjawisko szkodliwe, którego giganci z sektora gig tech najchętniej by się pozbyli. Część z nich bagatelizuje jednak zgłoszenia. Co dokładnie oni robią w ostatnim czasie?
Interwencja rady nadzorczej. Zarzuca Mecie pobłażliwość
W walkę z deepfake'ami zaangażowała się mocniej firma Meta. Zalecenie nadeszło od rady nadzorczej koncernu, która oficjalne upomniała giganta mediów społecznościowych, zarzucając mu niewystarczające działania w obliczu narastającej fali fałszywych treści generowanych przez sztuczną inteligencję.
Na wpół niezależny organ doradczy wyraził zaniepokojenie sposobem, w jaki Facebook, Instagram i WhatsApp zarządzają zmanipulowanymi materiałami. Zdaniem ekspertów podważa to zaufanie publiczne do wszelkich informacji i utrudnia odróżnienie prawdy od fikcji, szczególnie w sytuacjach kryzysowych, takich jak trwający konflikt w Iranie.
Oversight Board zainterweniowała po upowszechnieniu się filmiku przedstawiającego ogromne zniszczenia w izraelskim mieście Hajfa, dokonane przez siły irańskie. Mimo że nagranie było całkowicie sfabrykowane przy użyciu AI, Meta odmówiła jego usunięcia lub nawet oznaczenia jako nieprawdziwego materiału.
Sytuacja ta stała się punktem wyjścia do szerszej krytyki obecnych standardów firmy. Rada nadzorcza podkreśliła, że obecna skala i szybkość rozprzestrzeniania się treści z generatora AI wymagają od koncernu proaktywnego podejścia, a nie opierania się jedynie na zgłoszeniach użytkowników.
Meta przyciśnięta do ściany. Nie będzie już bagatelizować zgłoszeń?
Do tej pory Meta stosowała dość wysoki próg interwencji w przypadku dezinformacji. Gremium uznało tę metodę działania za nieadekwatną, zwłaszcza w kontekście globalnych napięć militarnych. Analizy wskazują, że fałszywe materiały zarówno proizraelskie, jak i proirańskie, mogą zdobywać dziesiątki milionów wyświetleń, zanim zostaną podjęte jakiekolwiek kroki.
Meta musi robić więcej, by odpowiedzieć na problem rozprzestrzeniania się zwodniczych, wygenerowanych przez AI treści na swoich platformach, tak by użytkownicy mogli rozróżnić, co jest prawdziwe, a co fałszywe
W przypadku nagrania z największego miasta w północnym Izraelu, które zyskało niemal milion odsłon, Meta zareagowała dopiero po bezpośredniej interwencji rady, wcześniej ignorując skargi użytkowników. Dlaczego moderatorzy treści nie zareagowali wcześniej? Firma tłumaczy, że nagranie "nie przyczyniło się bezpośrednio do ryzyka nagłych szkód fizycznych".
W odpowiedzi na wezwanie rady nadzorczej Meta zapowiedziała, że w ciągu 7 dni nałoży odpowiednią etykietę na kontrowersyjne nagranie. Gigant zadeklarował też, że w przyszłości będzie stosować się do sugestii rady w sytuacjach dotyczących identycznych treści publikowanych w podobnym kontekście. To już kolejny przykład na to, że firma Marka Zuckerberga reaguje stanowczo dopiero, gdy zostanie przyciśnięta.









