Była przekonana, że porwał jej dziecko. Oszust dzwonił przy pomocy AI

Nie da się nie zgodzić z faktem, że sztuczna inteligencja daje nam spore możliwości. Tylko od nas zależy, czy skorzystamy z jej potencjału we właściwy sposób, czy jednak posłuży nam ona do zrealizowania niecnych celów. To drugie dzieje się niestety coraz częściej — kolejny raz słyszymy bowiem o próbie oszustwa dokonanej z wykorzystaniem sztucznej inteligencji potrafiącej klonować ludzki głos. Jak mówią ofiary, fałszywego głosu niemal nie da się rozpoznać.

Sztuczna inteligencja zdolna do klonowania głosu jest coraz częściej wykorzystywana do popełniania przestępstw.
Sztuczna inteligencja zdolna do klonowania głosu jest coraz częściej wykorzystywana do popełniania przestępstw.123RF/PICSEL

Niczego niespodziewająca się mieszkanka Arizony, Jennifer DeStefano, odebrała połączenie pochodzące z nieznanego numeru. W słuchawce usłyszała swoją 15-letnią, płaczącą córkę, Brie. Tak jej się przynajmniej wydawało, bo prawda była zupełnie inna.

Głos miał wypowiedzieć zaledwie zdanie, zanim rozmowę przejął mężczyzna, który poinformował DeStefano, że porwał jej córkę. Następnie zagroził, że jeśli ta zadzwoni na policję albo do kogokolwiek, to zrobi krzywdę jej dziecku, a później wywiezie ją do Meksyku. Kobieta słyszała w tle płacz swojej córki i jej prośby o pomoc. Nie podważała tego, że to właśnie jej głos — nie wątpiła w to ani przez moment.

Porywacz zażądał przekazania miliona dolarów, następnie obniżył kwotę do 50 tysięcy. Kobieta zorientowała się, że jej córka jest cała i zdrowa, kiedy z mężem DeStefano skontaktował się znajomy i to potwierdził.

Jak zaznacza matka dziewczyny, była absolutnie przekonana, że rozmawia ze swoim dzieckiem.

Policja uważa, że do próby oszustwa przestępca wykorzystał sztuczną inteligencję zdolną do klonowania głosów. Tego typu technologia była używana między innymi przy produkcji filmów, jednak znamy już też przypadek, gdy posłużyła do dokonania skutecznego oszustwa. Należy się spodziewać tego, że będzie w ten sposób wykorzystywana coraz częściej.

To nie pierwszy przypadek oszustwa z wykorzystaniem AI. A będzie ich najpewniej coraz więcej

Na początku marca tego roku informowaliśmy o podobnym wydarzeniu. Tam również sztuczna inteligencja zdolna do klonowania głosu grała pierwsze skrzypce.

Na łamach "The Washington Post" mogliśmy przeczytać historię starszego małżeństwa, z którym skontaktował się oszust, podając się za prawnika — ich syn miał rzekomo przebywać w areszcie za popełnione przestępstwo. Mężczyzna udał, że przekazuje telefon wspomnianemu synowi, którego sklonowany głos błagał rodziców o pomoc w zapłaceniu ponad 15 tysięcy dolarów przed rozpoczęciem procesu. "Prawdziwy" syn skontaktował się z nimi tego samego dnia, było już jednak za późno, a pieniądze trafiły w ręce przestępców.

W tym wypadku małżeństwo również było przekonane, że rozmawia ze swoim potomkiem.

AI z łatwością klonuje głosy. Jak się zatem przed tym uchronić?

Będzie to zdecydowanie trudne. Naszym sprzymierzeńcem w walce z oszustami wykorzystującymi AI jest przede wszystkim uświadamianie najbliższych, że takie sytuacje mają miejsce oraz iż przy każdym takim telefonie powinniśmy być bardzo ostrożni i nieufni. Chociaż wydarzenie z pewnością może przerażać, zachowanie zimnej krwi może nas uchronić przed straceniem oszczędności życia. Wskazane byłoby też sprawdzenie na różne sposoby, co dzieje się z potencjalnie zagrożoną osobą — nawet jeśli jesteśmy przekonani, że to właśnie ją słyszymy przez telefon.

Rubin „Estrela de Fura”. Rusza w tournée po świecieINTERIA.TVAFP
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas