Szokujący raport! Generatory obrazów szkolone są na zdjęciach krzywdzonych dzieci

Generatory obrazów oparte na sztucznej inteligencji wykorzystywane są do tworzenia zdjęć i grafik przedstawiających seksualne wykorzystywanie dzieci. Wykorzystują do tego dostępną w sieci dziecięcą pornografię.

Wiele mówi się o sztucznej inteligencji w kontekście rynku pracy. Widocznie zmienia ona zawody związane z grafiką i oparte na tworzeniu treści. Ale generatory obrazów bazujące na SI mają także swoją ciemną stronę. W październiku informowaliśmy o tym, że coraz większym problemem jest generowanie obrazów wykorzystywania dzieci. W listopadzie w GeekWeeku mogliście przeczytać o tym, że uczniowie tworzą w ten sposób nagie obrazy swoich kolegów i koleżanek. Do niedawna specjaliści zajmujący się przeciwdziałaniem molestowaniu uważali, że dostępne w sieci narzędzia tworzą obrazy, wykorzystując dwie osobne zestawy danych - pornografii dla dorosłych i zwykłych zdjęć dzieci. Prawda okazała się bardziej porażająca, co ujawniły niedawno opublikowane wyniki badań.

Reklama

Narzędzia SI do generowania obrazów szkolone są na dziecięcej pornografii

Obserwatorium Internetowe Stanforda znalazło 3,2 tys. obrazów przedstawiających wykorzystywanie seksualne dzieci w gigantycznej bazie danych LAION - otwartoźródłowym zbiorze zdjęć i podpisów dostępnych w internecie, który był wykorzystywany do szkolenia najpopularniejszych generatorów obrazów, takich jak Stable Diffusion. 

Grupa z Uniwersytetu Stanforda z Kanadyjskim Centrum Ochrony Dzieci i innymi organizacjami charytatywnymi podjęła szybkie działania, aby zidentyfikować nielegalne materiały i zgłosić organom ścigania oryginalne linki do zdjęć.

Reakcja LAIONa była natychmiastowa. W przeddzień publikacji raportu powiedział agencji Associated Press, że czasowo usuwa zbiory danych z platformy Hugging Space i wydał oświadczenie, w którym zapewniał, że "stosuje politykę zerowej tolerancji dla nielegalnych treści i zachowuje szczególną ostrożność".

Liczba zdjęć do szkolenia generatorów obrazów jest gigantyczna

Szkolenie sztucznej inteligencji tak, aby mogła przedstawiać realistycznie wyglądające obrazy, wymaga niesamowicie dużej ilości materiałów. Obrazów dostępnych w bazie LAIONa jest około 5,8 miliarda. Choć w tej puli ponad 3 tys. zdjęć to zaledwie ułamek zbioru, grupa ze Stanford twierdzi, że z dużym prawdopodobieństwem wpływają one na zdolność sztucznej inteligencji do generowania szkodliwych treści.

Według Davida Thiela, głównego technologa Internetowego Obserwatorium Stanforda i autora raportu, geneza problemu sięga początków wprowadzania na rynek tego typu generatorów. Było to robione w dużym pośpiechu, a efekty udostępniane powszechnie ze względu na dużą konkurencyjność.

Oprócz dziecięcej pornografii w dostępnych bazach danych można znaleźć obrazy i teksty związane z gwałtami, pornografią,  zachowaniami rasistowskimi i wieloma innymi problematycznymi treściami, w tym prywatnymi i wrażliwymi danymi. To wszystko na licencji open source.

Narzędzia bez zabezpieczeń wciąż są dostępne

Jednym z ważniejszych użytkowników bazy danych LAION, który również pomógł w jej ukształtowaniu, jest londyński start-up Stability AI, twórca modeli zamiany tekstu na obraz Stable Diffusion. Nowe wersje utrudniają generowanie szkodliwych treści, ale starsze, wydane zaledwie w zeszłym roku, takich ograniczeń nie mają. Starsze Stable Diffusion wciąż wbudowane jest w wiele aplikacji i narzędzi, pozostając "najpopularniejszym modelem generowania wyraźne obrazy", jak wynika z raportu Stanforda.

Dlaczego udostępniono tak potężną bazę danych na otwartej licencji?

Pomysłem bazy LAION, której nazwa stanowi akronim od Large-scale Artificial Intelligence Open Network jest Christoph Schuhmann, niemiecki badacz i nauczyciel. Na początku tego roku wyznał w rozmowie z Associated Press, że jednym z powodów publicznego udostępnienia tak ogromnej wizualnej bazy danych była chęć zapewnienia, że przyszłość rozwoju sztucznej inteligencji nie będzie kontrolowana przez kilka potężnych firm.

Raport Stanforda Raport Stanforda rodzi również pytania dotyczące etyki umieszczania zdjęć dzieci w systemach sztucznej inteligencji bez zgody rodziny. Proponuje się także użycie podpisów cyfrowych podobnych do tych używanych do śledzenia i usuwania materiałów przedstawiających wykorzystywanie dzieci w filmach i obrazach, aby ograniczyć niewłaściwe wykorzystanie modeli sztucznej inteligencji.

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy