Trump podpisał ustawę "Take It Down". Do 3 lat więzienia za intymne deepfaki
Im lepiej poznajemy możliwości technologii deepfake, tym bardziej przerażająca się ona wydaje. Bo o ile jeszcze kilka lat temu większość fałszywych filmów, obrazek czy nagrań głosowych można było stosunkowo łatwo odróżnić od oryginałów, tak dziś jest to często niemożliwe. Wystarczy wspomnieć, że w 2021 roku technologia ta pokonała specjalistyczne detektory zaprojektowane do jej wykrywania, a wraz z rozwojem sztucznej inteligencji tylko doskonali swoje możliwości.

Technologia deepfake, czyli obrazy, treści dźwiękowe lub treści wideo przypominające istniejące osoby, podmioty lub zdarzenia, które odbiorca ma niesłusznie uznać za autentyczne, niesie ze sobą wiele zagrożeń. Jak choćby możliwość wpływania na wybory i decyzje polityczne (słynne już przemówienie Władimira Putina ostrzegające Stany Zjednoczone przed ingerencją w wybory), siania dezinformacji (Wołodymyr Zełenski informujący o zawieszeniu broni przez armię ukraińską), prowadzenia działalności przestępczej, np. wyłudzania pieniędzy czy stosowania przemocy (umieszczanie wizerunków w filmach pornograficznych, w tym tzw. revange porn).
Będą kary za deepfaki w USA
Eksperci od dłuższego czasu zastanawiają się, jak z nią walczyć, skoro nie działają nawet specjalnie zaprojektowane detektory - jednym ze sposobów może być karanie osób udostępniających tego rodzaju treści. I taką właśnie drogą poszły Stany Zjednoczone, bo prezydent Donald Trump podpisał ustawę "Take It Down", która penalizuje publikowanie "intymnych materiałów" bez zgody, także tych wygenerowanych przez sztuczną inteligencję i nakłada obowiązek ich szybkiego usuwania z platform społecznościowych.
Co przewiduje ustawa "Take It Down"?
Zgodnie z ustawą, rozpowszechnianie niekonsensualnych intymnych treści (NCII, ang. Non-Consensual Intimate Image) - niezależnie od tego, czy są prawdziwe, czy też stworzone przez AI - jest zagrożone karą do 3 lat pozbawienia wolności i grzywną. Serwisy społecznościowe będą miały 48 godzin od momentu zgłoszenia na ich usunięcie i będą też zobowiązane do "rozsądnych starań" w celu wyeliminowania kopii.
Za egzekwowanie przepisów odpowiadać będzie Federalna Komisja Handlu (FTC), a platformy mają rok na dostosowanie się do nowych wymagań. I chociaż ustawa zyskała szerokie poparcie firm technologicznych i wielu organizacji młodzieżowych, nie wszyscy podzielają ten entuzjazm i to z różnych powodów. I tak, Cyber Civil Rights Initiative (CCRI), czyli organizacja od lat walcząca z przemocą opartą na obrazach, słowami swojej prezes Mary Anne Franks wypowiedzianymi w rozmowie z portalem The Verge ostrzega, że nowe prawo może stworzyć fałszywe poczucie bezpieczeństwa:
To toksyczna pigułka, która prawdopodobnie bardziej zaszkodzi ofiarom, niż im pomoże. (...) Platformy, które czują się pewne, że FTC ich nie ruszy (np. te związane z obecną administracją), mogą po prostu ignorować zgłoszenia. Z kolei inne zostaną zasypane fałszywymi zgłoszeniami, które sparaliżują ich działanie.
Organizacje takie jak Electronic Frontier Foundation (EFF) i Center for Democracy and Technology (CDT) wskazują zaś, że zapis o obowiązkowym usuwaniu treści może zagrozić prywatności - zwłaszcza jeśli chodzi o szyfrowane komunikatory, które nie mają dostępu do wiadomości użytkowników. Tak czy inaczej, eksperci przewidują, że pierwsze pozwy i ewentualne próby podważenia ustawy w sądzie mogą pojawić się dopiero wtedy, gdy FTC zacznie egzekwować przepisy, czyli nie tak szybko.