Algorytm Facebooka odpowiada za 50 proc. usuniętych postów zawierających mowę nienawiści

Facebook udostępnił raport pokazujący, że zarzuty o nieefektywnym blokowaniu mowy nienawiści na ich platformie są nieuzasadnione. Ich algorytmy odpowiadają za 50 proc. usuniętych postów, które zawierają hejt.

Facebook jest najpopularniejszą platformą społecznościową na świecie. Codziennie na stronie publikowanych jest średnio kilka miliardów postów o różnej treści. Część z nich zawiera mowę nienawiści, co jest niezgodne z regulaminem portalu. Ciężko byłoby pracownikom osobiście sprawdzać wszystkie posty w celu weryfikacji ich treści. Za to odpowiadają specjalne algorytmy, które wielokrotnie były krytykowane przez użytkowników platformy za zbyt niedokładne działanie. Ostatnio wyciekły dane, które zostały wykorzystane do narracji, że algorytmy Facebooka są nieefektywne. Facebook udostępnił raport pokazujący, że są one odpowiedzialne za usunięcie około 50 proc. wszystkich postów z mową nienawiści. 

Reklama

Algorytmy Facebooka analizują treść postów w poszukiwaniu mowy nienawiści i usuwają jej oczywiste przejawy. Jeśli jakiś z nich może zawiera hejt, lecz wymaga dalszej weryfikacji, wtedy zostaje oznaczony, a moderator Facebooka sprawdza, czy wiadomość rzeczywiście narusza standardy platformy. W ten sposób usuwanie szkodliwych treści przebiega sprawnie i dokładnie. W przypadku, gdy kontekst wypowiedzi nie jest jednoznaczny, przedsiębiorstwo zamiast jej usunięcia może zastosować ograniczenie widoczności na tablicach innych użytkowników.  


INTERIA.PL
Dowiedz się więcej na temat: Facebook | Media społecznościowe | social media | mowa nienawiści
Reklama
Reklama
Reklama
Reklama
Reklama