Głos AI prosi przez telefon o pomoc. Cyberprzestępcy podrasowali metodę oszustwa
Pamiętacie oszustwo "na wnuczka"? Oszuści dzwonili do starszych osób, podszywając się pod bliskie im osoby (rzecz wykraczała również poza relacje babcia/dziadek—wnukowie) i przekonując, że potrzebują pilnej pożyczki. Powód? Nawet nie zawsze jest podawany. Oszuści pamiętają jednak, by zaznaczyć jak ważna jest dyskrecja względem pozostałych członków rodziny. Zapewniają też, że szybko zwrócą pożyczone fundusze. Oprócz gotówki interesują się także wartościową biżuterią. I to wszystko samo w sobie jest już przebiegłe, co może być więc gorsze? Gdy w oszustwo dodatkowo zmieszana jest sztuczna inteligencja.
Federalna Komisja Handlu podaje, że jedynie w 2022 roku zgłoszono ponad 36 tysięcy oszustw polegających na podszywaniu się, z czego ponad 5 tysięcy miało miejsce przez telefon. Oszustwa te przyniosły ofiarom niemałe straty— ich łączna wysokość to 11 milionów dolarów. Istnieje spora obawa, że wykorzystanie sztucznej inteligencji sprawi, że jeszcze więcej osób wpadnie w sidła cyberprzestępców.
To właśnie AI sprawiła, że to długotrwałe już oszustwo jest jeszcze bardziej skuteczne. Jak czytamy w raporcie "The Washington Post" cyberprzestępcy wznieśli tę metodę na zupełnie nowy poziom. Wykorzystują oni sztuczną inteligencję zdolną do... klonowania głosów, jeszcze bardziej zwiększając prawdopodobieństwo, że nieświadome i chcące pomóc starsze osoby staną się ofiarami. Oszustom wystarczy krótkie nagranie zawierające wypowiedziane kilka zdań, by robić swoje. I niestety, wcale nie jest trudno tego typu nagranie pozyskać — zwłaszcza jeśli regularnie używamy mediów społecznościowych i umieszczamy tam treści.
"Potrzebuję pomocy, bardzo was kocham, jestem w więzieniu" — mówi twój głos wygenerowany przez AI
Jak czytamy na łamach "The Washington Post", oszustwo może też przybierać różne formy. W przytoczonym przykładzie mamy starsze małżeństwo, z którym skontaktował się oszust, podający się za prawnika — poinformował ich, że ich syn przebywa w areszcie za rzekome przestępstwo i że muszą zapłacić ponad 15 tysięcy dolarów przed rozpoczęciem rozprawy. Fałszywy prawnik udał, że przekazuje telefon synowi w tarapatach, a jego sklonowany głos błagał o pomoc w uiszczeniu opłat.
Tak też uczynili. Zorientowali się, że padli ofiarą oszustów tego samego dnia, gdy skontaktował się z nimi ich prawdziwy syn. Skąd zatem cyberprzestępcy mieli możliwość sklonowania głosu? Być może użyli do tego próbki z filmów, jakie syn umieścił na YouTubie. Małżeństwo odczuło, że rozmowa była niestandardowa, ale byli przekonani, że rozmawiali ze swoim dzieckiem. Pieniądze oczywiście przepadły.
Oszustwo telefoniczne z wykorzystaniem AI. Jak się uchronić?
Choć przytoczone dane pochodzą ze Stanów Zjednoczonych, najpewniej wcale nie będziemy musieli długo czekać, zanim metoda ta przyjmie się także w Polsce. Jak się przed nią uchronić? Łatwo nie będzie. Przede wszystkim istotne jest uświadamianie najbliższych o problemie i zaznaczenie, jak istotna w tego typu sytuacjach jest nieufność. Zanim zdecydujemy się przesłać komukolwiek pieniądze, musimy pamiętać o tym, by potwierdzić, czy zrozpaczony wnuczek na pewno ich potrzebuje. Nawet jeśli potencjalnie chwilowo postawi go to w niekomfortowej sytuacji.