Deepfake jak rzeczywistość. Co tworzy sztuczna inteligencja Google?
Generatywna sztuczna inteligencja tworzy nie tylko tekst i obrazy, ale także filmy. Google Veo 3, który został udostępniony w zeszłym tygodniu, pokazuje swoje niezwykłę umiejętności, które zdaniem niektórych przewyższają nawet model Sora od OpenAI. Użytkownicy wypróbowali nową usługę, tworząc przeróbki viralowych wideo. Takie deepfaki są niemalże nie do odróżnienia od rzeczywistości.

Spis treści:
Virale zyskują nowe życie dzięki przeróbkom AI
Virale, czyli niezwykle popularne i szybko rozprzestrzeniające się treści w internecie, są jednym z fenomenów dzisiejszej sieci. Krótkie filmiki albo zdjęcia błyskawicznie zyskują rozgłos i w kulturze remiksu czy popularnego ostatnio zjawiska brainrot są w nieskończoność udostępniane i przerabiane. Zwykle stanowią lotny temat na krótko, po czym świat albo o nich zapomina, albo przeciwnie - stają się hitami internetu z przeszłości, do których czasem się jeszcze wraca.
Przykład takiego virala to niesławne Hawk tuah z 2024 roku. W polskim internecie znane są choćby takie fenomeny, jak Ale urwał, Bober, Paweł Jumper albo Jestem hardkorem. Kultowe nagrania inspirowały niezliczoną rzeszę naśladowców, a także stały się swoistymi cytatami, wchodząc do języka potocznego. Filmiki były też przerabiane i odtwarzane, choć dotąd głównie tradycyjnymi metodami, np. przez aktorów-amatorów i postacie w grach. Sztuczna inteligencja pozwala na znacznie więcej.
Google Veo 3 tworzy realistyczne deepfake'i
Zaprezentowany na Google I/O 2025 model sztucznej inteligencji Google Veo 3 (veo-3.0-generate-preview) jest już dostępny w wersji zapoznawczej dla płatnych subskrybentów. Umożliwia on generowanie nie tylko wideo, ale też dźwięku. Użytkownicy mogą własnymi słowami opisać, co model ma wygenerować, albo też wprowadzić obraz, który AI ma animować. Nic więc dziwnego, że ludzie wprowadzają do niego popularne treści, które zyskują drugie (albo i trzecie) życie. Słynne virale mogą przez to całkowicie zmienić swój sens.
Przykładem jest choćby skandaliczne nagranie Hawk tuah, w którym Haliey Welch (znana później z afery z kryptowalutami) udziela na ulicy wywiadu na temat... zupełnie inny niż to, co wygenerowało Google Veo 3. "Jaki jest jeden ruch z AI, który za każdym razem sprawia, że hejterzy wariują" - pyta mężczyzna z mikrofonem. "Och, muszę wam to dać, to jest dzikie, to jest szalone. To koniec, jesteśmy ugotowani, czaicie?" - odpowiada Hawk tuah girl. Czysty obłęd.
Nie doszukujemy się w tym głębszego sensu. Chodzi raczej o wyjątkowy poziom realizmu, który nigdy wcześniej nie był możliwy do osiągnięcia. Zarówno twarz i ruchy ust, jak też sklonowany głos prezentują się całkowicie realistycznie. Jeśli ktoś nie oglądał oryginału, mógłby pomyśleć, że jest to autentyczne nagranie, a nie robota AI. Tym samym deepfake wchodzi na wyższy, bardziej niebezpieczny poziom.
Sztuczna inteligencja zna się na żartach. Nie wszystkim jest jednak do śmiechu
Nieraz można usłyszeć zarzuty, że sztuczna inteligencja nie ma poczucia humoru. Jej twórcy dopracowali jednakże ten aspekt, o czym można się przekonać, korzystając z Google Veo 3. Jeden z subskrybentów wprowadził do modelu prompt "Człowiek robiący komedię stand-upową w małym obiekcie opowiada kawał (dołącz ten kawał w tym dialogu". AI wygenerowała realistyczny filmik, który faktycznie wygląda jak prawdziwy. Jest to jednak najprawdziwszy deepfake.
"Więc pewnego dnia poszedłem do zoo i wszystko, co mieli, to jeden pies i to był shih tzoo" - mówi wygenerowana postać. W tle słychać śmiechy publiczności. AI umie jednak żartować i sprawić, by wszystko to wyglądało autentycznie. Są to na razie tylko testy potężnej funkcjonalności w celach rozrywkowych. Potencjalnie może jednak wpaść ona w ręce siewców dezinformacji. Google, podobnie jak inni czołowi dostawcy usług AI, nakłada na swoje modele ograniczenia, np. nie zezwalając na przetwarzanie wizerunku i głosu znanych polityków. Są jednak modele, które na to pozwalają.
Google przedstawiło też na swojej konferencji technologię, która pozwala wykryć, czy dany materiał został wygenerowany przez AI. Nosi ono nazwę SynthID Detector i sprawdza, czy materiał stworzono przy pomocy narzędzi Google. Nie ma jednak pojedynczej metody, by zbadać autentyczność każdego możliwego materiału, bowiem silników AI jest całe mnóstwo i nie wszystkie wstawiają do swoich wyników znak wodny.
***
Bądź na bieżąco i zostań jednym z 87 tys. obserwujących nasz fanpage - polub GeekWeek na Facebooku i komentuj tam nasze artykuły!
Zobacz również:
- Deepfake, czyli jak trudno jest odróżnić fikcję od rzeczywistości. Możemy stracić oszczędności
- Cyberprzemoc i deepfake. Nowe zagrożenie dla prywatności online
- Sztuczna inteligencja robi niewiarygodne rzeczy w wyszukiwarce Google
- Gemini w Chrome. Sztuczna inteligencja wie, co robisz w przeglądarce
- Sztuczna inteligencja, jakiej jeszcze nikt nie widział. Android XR wchodzi w tym roku