Deepfake, czyli jak trudno jest odróżnić fikcję od rzeczywistości. Możemy stracić oszczędności
Sztuczna inteligencja rozwija się w zawrotnym tempie. Technologie deepfake dosłownie z dnia na dzień stają się coraz bardziej realistyczne, a to już niesie ze sobą ogromne zagrożenia, z którymi bardzo ciężko jest walczyć. Przybliżymy kilka przykładów wykorzystania takich technologii przez cyberprzestępców przeciw użytkownikom sieci.
Eksperci od rozwoju technologii sztucznej inteligencji nie mają wątpliwości, że żyjemy w czasach, w których fikcja miesza się z rzeczywistością, a nawet zaczyna nad nią dominować. Każdego dnia i ze wszystkich stron jesteśmy atakowani najróżniejszymi materiałami, które zostały przerobione. Deepfake to technologia, która pozwala w czasie rzeczywistym podmienić zarówno twarz, jak i głos znanej osoby na materiale filmowym.
Oznacza to, że cyberprzestępcy mogą podszyć się pod kogoś znanego i zaufanego, a następnie oszukać widzów, by osiągnąć gigantyczne korzyści finansowe. Jak ogromnym zagrożeniem jest ta technologia, niech za przykład posłuży ostatni filmik z Jennifer Aniston w roli głównej. Wygenerowany wizerunek (twarz i głos) celebrytki prezentował na serwisach społecznościowych "największe rozdanie MacBook w historii za jedyne 10 dolarów".
To największe zagrożenie XXI wieku
Niestety, jakość tego fałszywego materiału była tak dobra, że tysiące osób z całego świata nabrało się na tę akcję i straciło mnóstwo pieniędzy, których już nigdy nie odzyskają. Podobna akcja miała miejsce w zeszłym miesiącu w Polsce. Mowa tutaj o "reklamie" z prezydentem Polski w roli głównej. Andrzej Duda obiecuje w niej 4 tysiące złotych dla rodaków każdego dnia. Jest to oczywiście nieprawda i film został przygotowany przez oszustów. Niedawno pojawiły się też fałszywe filmy z Mateuszem Morawieckim, Donaldem Tuskiem, Rafałem Trzaskowskim czy Jarosławem Kaczyńskim.
Eksperci od cyberprzestępstw w globalnej sieci biją na alarm, że obecnie jest dostępnych tak dużo programów do przygotowania filmów deepfake, że niebawem każdy, a nawet specjalnie nie interesujący się taką tematyką, będzie mógł w domowym zaciszu generować bardzo realną fikcję i oszukiwać nią miliony ludzi na całym świecie.
Teraz każdy może generować realistyczną fikcję
Najgorszy jest w tym wszystkim fakt, że dziecinnie łatwo jest opublikować takie niezwykle niebezpieczne treści w Facebooku, Instagramie czy X. Młodzież w szkołach potrafi dzięki temu przerabiać potencjalnie niegroźne zdjęcia swoich rówieśników, co często kończy się piętnowaniem i nękaniem ofiar. Systemy weryfikacji kompletnie nie nadążają za ich usuwaniem. Cyberprzestępcy mają więc sporo czasu na zorganizowanie swojej akcji, oszukanie nawet milionów użytkowników i zniknięcie.
Dlatego eksperci zorganizowali jedną z największych w ostatnich latach Konferencję Bezpieczeństwa, która odbyła się kilka dni temu w Monachium. Giganci branży technologicznej, tacy jak: Meta, Microsoft, Google, Amazon, Adobe i IBM, podpisali tam dobrowolne zobowiązanie, że dołożą wszelkich starań w walce z dezinformacjami wyborczymi oraz będą przeciwdziałać niebezpiecznej technologii.
Deepfake może wpłynąć na wyniki państwowych wyborów
Teraz gdy technologie są coraz bardziej realistyczne, ogromnym zagrożeniem stają się one dla świata polityki. Jak alarmuje Brad Smith, wiceprezes i prezes firmy Microsoft, "sektor technologiczny w żaden sposób nie jest w stanie sam ochronić wyborców przed nowym rodzajem nadużyć wyborczych". Smith ma na myśli tutaj np. szerzące się w serwisach społecznościowych fałszywe filmy w roli głównej z politykami, którzy wygłaszają mowy wyborcze.
Problem w tym, że zwykli użytkownicy nie są już w stanie odróżnić fikcji od rzeczywistości i w szybki sposób zweryfikować tych wypowiedzi. To wszystko może prowadzić do sytuacji, w której pewne grupy interesu mogą w szybki, tani i efektywny sposób wpłynąć na wyniki wyborów w danych krajach. Nie trzeba tutaj specjalnie podkreślać, że tego typu techniki są oczkiem w głowie np. władz na Kremlu.
Jak rozpoznać, czy mamy do czynienia z technologią deepfake?
Jak zatem rozpoznać deepfake? Podajemy kilka trików, które mogą nam w tym pomóc i pozwolić lepiej zadbać o bezpieczeństwo swoje oraz rodziny i znajomych. Przede wszystkim, jeśli mamy do czynienia z materiałem filmowym i nie wiemy, czy jest prawdziwy, powinniśmy sprawdzić, czy gdzieś w sieci nie jest dostępny w lepszej jakości. Dzięki temu będziemy mogli dostrzec charakterystyczne szczegóły twarzy i łatwiej wykryć pewne nieregularności obrazu, takie jak: nienaturalne cienie, widoczne piksele czy drgania obrazu, które ujawnią scam.
Nie możemy zapomnieć również o dźwiękach i głosie w materiale filmowym. Cyberprzestępcy mogą teraz bez żadnego problemu generować głosy znanych ludzi i podkładać je do filmów. Tutaj powinniśmy zwrócić uwagę, czy w materiałach pojawiają się zakłócenia, dziwne wtrącenia, trzaski czy sztuczne brzmienie. Warto również sięgnąć po słuchawki, by intensywniej wsłuchać się w nagranie. Na koniec, standardowo nie zapominajmy o przyjrzeniu się bliżej ruchowi ust i sprawdzeniu, czy jest zsynchronizowany z dźwiękiem.
Jeśli w dalszym ciągu nie mamy pewności, co do autentyczności nagrania, warto wstrzymać się z wszelką interakcją i poczekać na działające w serwisach społecznościowych systemy weryfikacji czy adnotacje społeczności, które często dysponują większymi możliwościami wykrycia fałszerstw i ochrony przed nimi użytkowników.