Jak naukowcy chcą walczyć z deepfake?
Świat nie zdołał jeszcze uporać się z fałszywymi informacjami, a wśród nas jest już kolejne zagrożenie. Deepfake może być wykorzystywane do tworzenia zabawnych przeróbek i memów — technologia ta jest niestety zdolna również do wywołania sporego zamieszania. Jak się przed tym chronić?
Deepfake to nowoczesna technologia wykorzystująca sztuczną inteligencję. W dużym skrócie pozwala na wykorzystanie wizerunku np. znanej osoby i przy pomocy fotografii oraz algorytmu wprowadzi całość w ruch. Stworzone tą metodą materiały wideo do złudzenia przypminać mogą prawdziwe i oficjalne nagrania.
O ile wykorzystanie takiej technologii do zażartowania ze znajomej osoby nie jest (na pozór) niczym złym, to w niepowołanych i wprawnych rękach skutki mogą być naprawdę katastrofalne. Nie brak w Internecie filmików, na których widać szalenie realistycznie odwzorowane postacie znane z pierwszych stron gazet.
Co gorsza, deepfake nie ogranicza się do wizerunku — owe twory przemawiają głosem swoich ludzkich pierwowzorów, a wiele osób zwyczajnie się na to nabiera. Problem urósł do takich rozmiarów, że prewencją wobec tej technologii zajmują się już naukowcy z największych światowych uniwersytetów. Przykładem mogą być badacze z amerykańskiego MIT.
Grupa naukowców z MIT opracowała niewielki program, którego działanie pozwala bardzo skutecznie obronić zdjęcie przed wykorzystaniem go do stworzenia deepfake’a. Odkryli oni, że swego rodzaju „zatrucie” fotografii znacząco utrudnia wykorzystanie jej w niepożądanych działaniach zewnętrznych programów.
Owym zatruciem określono dodanie niemal niezauważalnego szumu na powierzchni całej fotografii. Eksperyment dowiódł, że sztuczna inteligencja o wiele gorzej radzi sobie z wykorzystywaniem takiego materiału do swojej obróbki. Co ważne, jeszcze lepiej nowatorska metoda działa w przypadku zdjęć o wyższej rozdzielczości — więcej pikseli to również większa powierzchnia dla zastosowanego szumu.