YouTube ma broń na wideo AI. To narzędzie wykryje przeróbki
Po sieci krąży sporo fałszywych filmików z wklejonymi twarzami znanych polityków czy dziennikarzy, także w związku z trwającym konfliktem w Iranie. Treści wygenerowane przez AI są znanym problemem na YouTube. Jego wydawcy ogłosili rozszerzenie dostępności narzędzia do wykrywania deepfake'ów. Samo jego użycie i dokonanie zgłoszenia nie gwarantuje jednak, że wideo zniknie z internetu. Jakie są kryteria i co dalej planuje zrobić wydawca platformy?

Spis treści:
- YouTube rozszerza dostępność narzędzia do wykrywania podobieństwa
- Satyra i parodia dozwolone. Wnioski będą rozpatrywane indywidualnie
- YouTube nie będzie sprzyjał szerzeniu dezinformacji opartej na AI
YouTube rozszerza dostępność narzędzia do wykrywania podobieństwa
Alarmujące doniesienia o rozprzestrzenianiu się fałszywych filmików, obrazujących rzekomo realia wojny Izraela i USA z Iranem, prawdopodobnie skłoniły YouTube'a do zintensyfikowania wysiłków mających na celu zwalczanie zwodniczych treści wygenerowanych przez AI.
10 marca wydawca platformy ogłosił, że rozszerza funkcjonalność swojego narzędzia do wykrywania fałszywych filmików. YouTube zdaje sobie sprawę, że stanowi jedno z głównych źródeł informacji dla ludzi z całego świata, wliczając w to dane o wydarzeniach, które mogą mieć realny wpływ na ich życie. Zdarza się jednak, że treści wideo są zmanipulowane i długo pozostają nieusunięte.
Serwis należący do Google'a jest jednym z pionierów wykrywania deepfake'ów. W 2025 roku wprowadził on do swojego programu partnerskiego narzędzie do wykrywania podobnych treści. Teraz rozszerza on dostęp do niego na przedstawicieli rządu, dziennikarzy i politycznych kandydatów. Jak będą mogli je wykorzystać?
Satyra i parodia dozwolone. Wnioski będą rozpatrywane indywidualnie
"Wykrywanie podobieństwa na YouTube" przypomina mechanizm Content ID, jednak zamiast ochrony praw autorskich do muzyki czy filmów, skupia się na identyfikacji cech charakterystycznych danej osoby. Narzędzie przeszukuje zasoby serwisu pod kątem cyfrowych kopii twarzy, co pozwala na wykrywanie filmów, do których te wizerunki zostały wklejone.
Co się dzieje, gdy system znajdzie dopasowanie? "Wykrycie nie gwarantuje usunięcia. YouTube ma długą historię ochrony wolności ekspresji i treści w interesie publicznym - w tym zachowując treści, takie jak parodia i satyra, nawet gdy krytykują światowych liderów lub wpływowe osoby. Będziemy ostrożnie rozważać te wyjątki, gdy otrzymamy prośbę o usunięcie" - tłumaczą Amjad Hanif i Leslie Miller z YouTube'a.
Osoba, której wizerunek został powielony, zyskuje jedynie możliwość zweryfikowania nagrania i złożenia wniosku o jego usunięcie. Procedura ta jest powiązana z wytycznymi dotyczącymi prywatności. Każde zgłoszenie podlega indywidualnej ocenie moderatorów.
YouTube nie będzie sprzyjał szerzeniu dezinformacji opartej na AI
Zgodnie z oficjalnymi wytycznymi YouTube'a osoby zaniepokojone wykorzystaniem ich wizerunku mają możliwość zgłaszania incydentów lub wytaczania spraw dotyczących konkretnych nagrań. Kluczowym kryterium jest szkodliwość materiału. Serwis zastrzega, że jeśli nagranie zostanie uznane za niegroźne, może ono pozostać na platformie mimo wykorzystania technologii AI. Podszywanie się pod polityków czy dziennikarzy można jednak uznać za wyjątkowo szkodliwe społecznie.
Podobnie jak Meta, YouTube również od lat zmaga się z opinią miejsca sprzyjającego szerzeniu dezinformacji opartej na sztucznej inteligencji. W przeszłości na łamach serwisu wielokrotnie pojawiały się zmanipulowane filmy z udziałem osób publicznych, co zmusiło YouTube'a do zaostrzenia polityki bezpieczeństwa. Najnowsze zapowiedzi to kolejny etap ewolucji platformy w obliczu dynamicznego rozwoju deepfake'ów.
Obecnie dostęp do technologii jest ograniczony do wybranej grupy testowej, co ma pozwolić na dopasowanie narzędzia do specyficznych potrzeb użytkowników. Wydawca planuje jednak znaczące rozszerzenie dostępności "Wykrywania podobieństwa na YouTube" w nadchodzących miesiącach.










