Sztuczna inteligencja Facebooka pomaga w werbowaniu terrorystów

Facebook od jakiegoś czasu intensywnie walczy z mową nienawiści i ekstremizmem. Bardzo pomaga mu w tym sztuczna inteligencja, która bezustannie śledzi wszystkie dodawane materiały i wyszukuje w nich znamiona świadczące o niezgodności z regulaminem. Niestety, okazuje się, że ta walka z góry skazana jest na porażkę...

Facebook od jakiegoś czasu intensywnie walczy z mową nienawiści i ekstremizmem. Bardzo pomaga mu w tym sztuczna inteligencja, która bezustannie śledzi wszystkie dodawane materiały i wyszukuje w nich znamiona świadczące o niezgodności z regulaminem. Niestety, okazuje się, że ta walka z góry skazana jest na porażkę...

Facebook od jakiegoś czasu intensywnie walczy z mową nienawiści i ekstremizmem. Bardzo pomaga mu w tym sztuczna inteligencja, która bezustannie śledzi wszystkie dodawane materiały i wyszukuje w nich znamiona świadczące o niezgodności z regulaminem. Niestety, okazuje się, że ta walka z góry skazana jest na porażkę.

Eksperci z Counter Extremism Project (CEP) przeanalizowali dane blisko 1000 zwolenników ISIS z 96 krajów i doszli do wniosku, że algorytmy największego serwisu społecznościowego świata sugerują ekstremistom dodanie do grona znajomych innych osobników o radykalnych poglądach, zatem pomagają im szybciej nawiązywać kontakty i jeszcze bardziej jednoczyć się.

Reklama

Facebook, pomimo posiadania tysięcy żywych moderatorów i algorytmów AI, niestety w ogóle nie radzi sobie z tym poważnym problemem. Specjaliści z CEP sprawdzili, ile kont, z obserwowanego tysiąca, w ciągu pół roku zostało zawieszonych lub usuniętych z Facebooka. Była to zaledwie połowa.

Przez działania sztucznej inteligencji, nawiązywanie kontaktu zwykłych ludzi z ekstremistami również odbywa się w szybki i dziecinnie prosty sposób. Wystarczy, że u znajomego zobaczymy post związany z ISIS, Facebook natychmiast zinterpretuje ten fakt, jako że interesują nas takie treści, a chwilę później zasugeruje nam nowych znajomych o podobnych, ekstremistycznych poglądach.

To dobitnie pokazuje, że załoga Zuckerberga mogłaby w ogóle nie walczyć z ekstremizmem i mową nienawiści, a efekt byłby ten sam, a nawet byłoby to mniejsze zło.

Źródło: GeekWeek.pl/ / Fot. Twitter

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama