Meta pozwana na 2 miliardy USD przez Etiopię. Władze podają ważny powód
W Kenii grupa etiopskich naukowców oraz organizacja zajmująca się przestrzeganiem praw człowieka złożyły proces przeciwko Mecie. Chodzi o algorytm Facebooka, który miał przyczynić się do rozprzestrzeniania się hejtu i nienawiści w Etiopii — kraju, który przez dwa lata do listopada tego roku był ogarnięty wojną domową. Miało to doprowadzić do śmierci wielu osób. Meta może stracić 2 miliardy dolarów!
Facebook a nienawiść
Algorytmy Facebooka i innych platform społecznościowych są owiane niekoniecznie dobrą sławą. Zaawansowane narzędzia technologiczne potrafią podrzucać użytkownikom trafne propozycje czy oferty reklamowe, lecz to nie wszystko. Pozwalają również oceniać nastroje społeczne, czy wpływać na decyzje wyborcze. Ostatnie wydarzenia były jednak dla niektórych znacznym przekroczeniem granicy.
Trwająca od listopada 2020 roku wojna domowa w Etiopii (oficjalnie zakończona porozumieniem zawartym w ubiegłym miesiącu) była okresem nie tylko walk prowadzonych przez militarne siły, ale i używaniem przemocy wobec innych w środowisku internetowym. To z kolei często prowadziło do pogłębiania się nienawiści i agresywnych zachowań, kończących się nawet użyciem przemocy czy zabójstwami.
Właśnie to stało się powodem do wniesienia oskarżenia. Jeden ze wspomnianych etiopskich naukowców miał stracić w ten sposób swojego ojca. W październiku 2021 roku na Facebooku pojawiło się wiele wpisów oczerniających Abrhama Mearega i wzywających do jego zabójstwa. Wpisy były zaopatrzone w informacje osobiste na temat osoby, w tym jej adres i miejsce pracy. 3 listopada 2021 roku doszło do jego morderstwa.
Moderacja Facebooka nie zadziałała
Meareg zgłaszał nienawistne wpisy do moderacji serwisu, jednak Facebook ostatecznie ich nie usuwał. Meta miała odmówić podejmowania natychmiastowych działań, a w wielu przypadkach nie zostały one przedsięwzięte wcale. Skutki okazały się tragiczne, a sam kontekst, czyli wojna w kraju, tylko podkreślają, z jakim niedopatrzeniem mamy tutaj do czynienia.
W pozwie wyszczególniono, że Meta nie dołożyła należytych starań, aby zadbać o właściwe filtrowanie treści pojawiających się na Facebooku. Szczególną uwagę zwrócono na fakt, że zadbano o kwestie językowe. Być może moderacja nie posiadała w swoich szeregach odpowiednio wykwalifikowanych osób, które posługiwały się językami Amhara i Oromo — wykorzystywanymi przez dwie grupy ludności w Etiopii, pomiędzy którymi dochodziło do tarć i agresji.
Kolejna sprawa w sądzie?
W opozycji do tego, co twierdzi strona oskarżająca, Meta jeszcze w ubiegłym roku rozpoczęła swego rodzaju audyt treści pojawiających się na Facebooku i Instagramie. Wszystko to miało odbyć się w kontekście niepokojów w Etiopii. Jak jednak widać, ich działania nie były wystarczająco skuteczne.
Nie jest to pierwsza sytuacja, gdy Facebook i Meta stają się obiektem oskarżeń przez nieudolnie prowadzoną politykę w swoich platformach oraz nieskuteczne działania moderacyjne. Jak się okazuje, firma Marka Zuckerberga nie działa odpowiednio wobec konfliktów, które mają miejsce w różnych państwach świata. Tak było w Etiopii, podobnie też w Indonezji, Kambodży czy Sri Lance.
Mowa nienawiści na Facebooku może zatem trafiać na podatny grunt, poprzez rozprzestrzenianie się w krajach ogarniętych wojną i chaosem. Podejście ludzi do informacji rozprzestrzeniających hejt może być różne, w tym także tragiczne w skutkach — o tym przekonał się Abrham Mearegai jego rodzina.
Facebook nie może dłużej nadawać priorytetu zyskowi kosztem naszych społeczności. Podobnie jak radio w Rwandzie, Facebook podsycił płomienie wojny w Etiopii. Firma ma do dyspozycji jasne narzędzia — może dostosować swoje algorytmy, aby zdegradować wirusową nienawiść. Niech zatrudni więcej lokalnych pracowników i upewni się, że są dobrze opłacani, a ich praca jest bezpieczna i uczciwa — aby zapobiec kontynuacji tego procederu.
Meta ma sporo na sumieniu
Złożony pozew i opinie poszkodowanych to nie jedyne argumenty przeciwko działaniom Mety w zakresie bezpieczeństwa i przeciwdziałania mowie nienawiści. Jak podaje amerykańska demaskatorka Frances Haugen, przez dłuższy czas kierownictwo Mety doskonale wiedziało o możliwym zaostrzeniu napięć i sporu w Etiopii przez działania Facebooka.
Wydarzenia w kraju przynajmniej od 2021 roku nosiły wystarczające znamiona sytuacji na tyle złej, że możliwe było uruchomienie IPOC, czyli czegoś na wzór specjalnego sztabu dowodzenia wobec wyjątkowo krytycznej. Procedura ta istnieje od 2018 roku i sprawne działanie Facebooka wobec wyjątkowych i delikatnych spraw — na przykład wojen.
IPOC nie jest zwykłym procesem moderacyjnym. Umożliwia przedsięwzięcie szeregu niedostępnych zwyczajnie środków, które pozwalają w znaczącym stopniu wpływać na tłamszenie agresywnych zachowań czy mowy nienawiści. Takie mechanizmy były użyte m.in. podczas wyborów prezydenckich w USA w 2020 roku czy w czasie szturmu na Kapitol.
Nasza praca w zakresie bezpieczeństwa i uczciwości w Etiopii opiera się na informacjach zwrotnych od lokalnych organizacji społeczeństwa obywatelskiego i instytucji międzynarodowych. Zatrudniamy pracowników posiadających lokalną wiedzę i doświadczenie oraz stale rozwijamy nasze możliwości wykrywania treści naruszających zasady w najpowszechniej używanych językach w kraju, w tym amharskim, oromo, somalijskim i tigrinia.
Półprawda czy kłamstwo?
Zdaniem rzeczniczki prasowej firmy, ta dokłada wszelkich starań, aby mowa nienawiści nie występowała na Facebooku i nie doprowadzała do przemocowej eskalacji w obliczu tak tragicznych wydarzeń, jak te w Etiopii. Czy jest to jednak prawda?
Z dokumentów, które wyciekły do sieci wynika, że jeszcze rok temu Meta oceniała swoje możliwości skutecznej moderacji Facebooka w Etiopii jako 0 w skali do 3 punktów. Wdrażane rozwiązania, w tym wykorzystywanie serwerów proxy i innych mechanizmów filtrujących zdawały się nie spełniać pokładanych w nich nadziei.
Bez odpowiedzi pozostaje też pytanie o to, ile realnie osób posługujących się wymienionymi językami pracuje i czuwa nad facebookowymi treściami w Etiopii. Bo nawet jeśli takie są zatrudniane, to może ich być zwyczajnie za mało.