Deepfake i wykorzystywanie dzieci. Groźne zjawisko w internecie
Sztuczna inteligencja ma wiele pozytywnych zastosowań, ale są też te negatywne. Do nich z pewnością należą obrazy generowane przez AI, na których prezentowane jest wykorzystywanie dzieci. Specjaliści alarmują, że jest to coraz większy problem i trzeba podjąć konkretne działania.
Obrazy generowane przez sztuczną inteligencję są coraz powszechniejsze. Niestety ma to również efekt uboczny. Cyberprzestępcy wykorzystują AI w niecnych celach. W tym również do tworzenia zdjęć, na których przedstawiane jest wykorzystywanie dzieci. Brytyjska organizacja Internet Watch Foundation (IWF) raportuje, że takich treści jest coraz więcej i jest to moment, gdzie trzeba podjąć odpowiednie działania zaradcze.
Obrazy prezentujące wykorzystywanie dzieci mogą zalać internet
W raporcie Internet Watch Foundation czytamy, że takich obrazów w internecie pojawia się coraz więcej i jeśli nie zostaną podjęte odpowiednie działania związane z ukróceniem tego procederu, to takie materiały mogą wręcz zalać internet. "Zaczynamy obserwować eksplozję treści" - powiedział Dan Sexton, dyrektor ds. technologii w grupie nadzorującej.
Problem jest poważny i będzie narastał. Dlatego organizacja wzywa rządy do podjęcia działań, których celem będzie ograniczenie treści generowanych przez sztuczną inteligencję. Przebadano 20 254 obrazy wygenerowane przez sztuczną inteligencję przesłanych na forum CSAM dark webu i okazało się, że aż 11108 z nich miało prawdopodobny charakter przestępczy. 2562 materiały uznano za pseudofotografie kryminalne, a 416 z nich za nielegalne i prawnie zabronione.
Wiele z obrazów przedstawiający wykorzystywanie nieletnich prezentowało znane ofiary pedofilii lub sławne dzieci. W tym pierwszym przypadku zwiększa się więc potencjał ponownej wiktymizacji takich ofiar, co również jest alarmujące.
IWF ma pomysły na działania
Organizacja IWF przedstawiła kilka potencjalnych rozwiązań narastającego problemu. Wśród nich jest m.in. aktualizacja kursu szkoleniowego Wyższej Szkoły Policji, który ma pozwolić na zrozumienie procesu przetwarzania takich obrazów. Natomiast do organów regulacyjnych skierowano apel o "zapewnienie odpowiedniego nadzoru regulacyjnego nad modelami sztucznej inteligencji". Ponadto zwrócono się do dużych firm technologicznych korzystających z generatywnej AI i dużych modeli językowych (LLM) o zakazanie wykorzystywania tych rozwiązań do generowania obrazów prezentujących wykorzystywanie dzieci.
Temat będzie poruszany przez IWF w trakcie zbliżającego się rządowego szczytu dotyczącego sztucznej inteligencji. Będzie to dobra okazja do nakreślenia problemów oraz poszukania dodatkowych rozwiązań, które pozwolą na zapanowanie nad tym, co AI jest w stanie robić z obrazami. Specjaliści uważają, że brak reakcji i stosownych działań doprowadzi do plagi takich treści, co z czasem może stać się bardzo trudne do opanowania.