Sztuczna inteligencja pożywką dla przestępców seksualnych. "Niepokojące zjawisko"
Generatywne technologie sztucznej inteligencji to raj dla przestępców seksualnych - informuje Bloomberg, powołując się na ostrzeżenia Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci, dane ActiveFence oraz własne informacje.
Wraz z debiutem chatbota ChatGPT, który szturmem zdobył serca użytkowników internetu na całym świecie, zaczęły się też debaty dotyczące zagrożeń płynących z generatywnych systemów sztucznej inteligencji. Bo choć mają one również wiele zalet, to na pierwszy plan od razu wysunęły się takie problemy, jak ochrona własności intelektualnej, oszukiwanie na egzaminach czy dezinformacja. Jak się jednak okazuje, to tylko wierzchołek góry lodowej, bo z dobrodziejstw technologii generatywnych coraz częściej i chętniej korzystają przestępcy seksualni.
Wykorzystywanie dzieci. Generatywne AI ma problemy
Generują z ich pomocą, a następnie udostępniają w sieci fałszywe materiały przedstawiające wykorzystywanie seksualne dzieci i wymieniają się wskazówkami, jak uniknąć wykrycia. Jak podaje zajmujący się monitoringiem i moderacją treści w internecie startupu ActiveFence, wystarczy spojrzeć na dane pewnego forum internetowego chętnie odwiedzanego przez przestępców seksualnych, na którym w ciągu pierwszych czterech miesięcy bieżącego roku krążyło 68 zestawów sztucznie wygenerowanych obrazów przedstawiających wykorzystywanie seksualne dzieci.
Drapieżnicy seksualni chętnie korzystają z generatywnych AI
ActiveFence wyjaśnia, że to mocno niepokojący wzrost o 172 proc. z 25 tego typu postów odnotowanych w czterech ostatnich miesiącach 2022 roku. Co więcej, startup dotarł też do ankiety przeprowadzonej przez administratorów jednej ze stron dla pedofilów działających w dark webie, w której wzięło udział 3 tys. drapieżników seksualnych.
Wykazała ona, że aż 78 proc. respondentów używa lub planuje używać generatywnej sztucznej inteligencji do tworzenia materiałów przedstawiających wykorzystywanie seksualne dzieci, a pozostałe 22 proc. stwierdziło, że planuje wypróbować tę technologię. Jak się przy okazji dowiadujemy, te fora pedofilskie wykorzystują generatywne algorytmy sztucznej inteligencji nie tylko do tworzenia obrazów seksualnych, a także opisów tekstowych, historii, narracji i nagrań dźwiękowych.
Przewidujemy, że będzie się nasilać. To dopiero się zaczyna
Przestępcy seksualni mogą szantażować dzieci online
ActiveFence potwierdziło, że wspomniane na wstępie 68 zestawów obrazów nie przedstawiało żadnych prawdziwych ludzi i wszyscy zostali wyprodukowani za pomocą narzędzi sztucznej inteligencji, ale zdaniem startupu ilość treści przedstawiających wykorzystywanie dzieci, jaka wymyka się odpowiednim służbom, jest mocno niepokojąca.
Szczególnie biorąc pod uwagę fakt, że modyfikacje zdjęć z wykorzystaniem AI są teraz łatwiejsze niż kiedykolwiek, więc kolejnym krokiem przestępców może być używanie przerobionych zdjęć z mediów społecznościowych do ataków w rzeczywistości. W jaki sposób? Fałszywe obrazy mogą stać się pułapką zastawioną na najmłodszych - przestępcy seksualni mogą grozić dzieciom upublicznieniem tego typu zdjęć, szantażem zmuszając je do różnych aktywności.
Eksplozja generatywnej sztucznej inteligencji ma daleko idące implikacje dla wszystkich zakątków internetu. (...) cyberprzestępcy są teraz w stanie przyspieszyć i zintensyfikować swoje operacje, prowadząc do bezprecedensowej masowej produkcji złośliwej zawartości (...) ci sami aktorzy badają sposoby wykorzystania generatywnej sztucznej inteligencji, manipulując tymi modelami i ujawniając ich nieodłączne słabości