Sztuczna inteligencja pożywką dla przestępców seksualnych. "Niepokojące zjawisko"

Generatywne technologie sztucznej inteligencji to raj dla przestępców seksualnych - informuje Bloomberg, powołując się na ostrzeżenia Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci, dane ActiveFence oraz własne informacje.

Generatywne technologie sztucznej inteligencji to raj dla przestępców seksualnych - informuje Bloomberg, powołując się na ostrzeżenia Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci, dane ActiveFence oraz własne informacje.
Generatywne AI pożywką dla pedofilów. Aktywnie z niego korzystają /123RF/PICSEL

Wraz z debiutem chatbota ChatGPT, który szturmem zdobył serca użytkowników internetu na całym świecie, zaczęły się też debaty dotyczące zagrożeń płynących z generatywnych systemów sztucznej inteligencji. Bo choć mają one również wiele zalet, to na pierwszy plan od razu wysunęły się takie problemy, jak ochrona własności intelektualnej, oszukiwanie na egzaminach czy dezinformacja. Jak się jednak okazuje, to tylko wierzchołek góry lodowej, bo z dobrodziejstw technologii generatywnych coraz częściej i chętniej korzystają przestępcy seksualni.

Reklama

Wykorzystywanie dzieci. Generatywne AI ma problemy

Generują z ich pomocą, a następnie udostępniają w sieci fałszywe materiały przedstawiające wykorzystywanie seksualne dzieci i wymieniają się wskazówkami, jak uniknąć wykrycia. Jak podaje zajmujący się monitoringiem i moderacją treści w internecie startupu ActiveFence, wystarczy spojrzeć na dane pewnego forum internetowego chętnie odwiedzanego przez przestępców seksualnych, na którym w ciągu pierwszych czterech miesięcy bieżącego roku krążyło 68 zestawów sztucznie wygenerowanych obrazów przedstawiających wykorzystywanie seksualne dzieci.

Drapieżnicy seksualni chętnie korzystają z generatywnych AI

ActiveFence wyjaśnia, że to mocno niepokojący wzrost o 172 proc. z 25 tego typu postów odnotowanych w czterech ostatnich miesiącach 2022 roku. Co więcej, startup dotarł też do ankiety przeprowadzonej przez administratorów jednej ze stron dla pedofilów działających w dark webie, w której wzięło udział 3 tys. drapieżników seksualnych.

Wykazała ona, że aż 78 proc. respondentów używa lub planuje używać generatywnej sztucznej inteligencji do tworzenia materiałów przedstawiających wykorzystywanie seksualne dzieci, a pozostałe 22 proc. stwierdziło, że planuje wypróbować tę technologię. Jak się przy okazji dowiadujemy, te fora pedofilskie wykorzystują generatywne algorytmy sztucznej inteligencji nie tylko do tworzenia obrazów seksualnych, a także opisów tekstowych, historii, narracji i nagrań dźwiękowych.

Przestępcy seksualni mogą szantażować dzieci online

ActiveFence potwierdziło, że wspomniane na wstępie 68 zestawów obrazów nie przedstawiało żadnych prawdziwych ludzi i wszyscy zostali wyprodukowani za pomocą narzędzi sztucznej inteligencji, ale zdaniem startupu ilość treści przedstawiających wykorzystywanie dzieci, jaka wymyka się odpowiednim służbom, jest mocno niepokojąca.

Szczególnie biorąc pod uwagę fakt, że modyfikacje zdjęć z wykorzystaniem AI są teraz łatwiejsze niż kiedykolwiek, więc kolejnym krokiem przestępców może być używanie przerobionych zdjęć z mediów społecznościowych do ataków w rzeczywistości. W jaki sposób? Fałszywe obrazy mogą stać się pułapką zastawioną na najmłodszych - przestępcy seksualni mogą grozić dzieciom upublicznieniem tego typu zdjęć, szantażem zmuszając je do różnych aktywności.

INTERIA.PL
Dowiedz się więcej na temat: Amnesty International | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy