Algorytm YouTube znowu masowo odcina użytkowników od prawicowych treści

Wygląda na to, że serwis postanowił zrobić coś więcej, niż tylko usuwać kanały i treści uznawane przez siebie za mowę nienawiści. Okazuje się bowiem, że Google walczy tu również z przeciwnikami politycznymi.

Algorytm YouTube znowu masowo odcina użytkowników od prawicowych treści
Algorytm YouTube znowu masowo odcina użytkowników od prawicowych treściGeekweek - import

Naukowcy zajmujący się badaniem sieci poinformowali, że od końcówki ubiegłego roku, algorytm YouTube działa nieco inaczej w zakresie rekomendowanych treści, a mianowicie sugeruje raczej mainstreamowe media i wiadomości niż niezależnych twórców. Badania, które właśnie stały się publiczne, sugerują również, że algorytm faworyzuje lewicowe i politycznie neutralne kanały.

Jak bowiem piszą niezależny badacz Mark Ledwich i Anna Zaitsev z UC Berkeley, choć prawicowa zawartość znajduje się w serwisie, to algorytmy rekomendacyjne nie podpowiadają jej użytkownikom. - Na YouTube jest mnóstwo zawartości, którą można uznać za radykalizującą albo podżegającą, ale odpowiedzialność za nie spoczywa na jej twórcach i ich odbiorcach, a nie serwisie. Ten nie poleca jej użytkownikom, co dobrze widać po naszych badaniach - twierdzą autorzy.

Kilka lat temu było zupełnie inaczej, ale w końcu duża część użytkowników zaczęła się skarżyć na to, że YouTube podpowiada im tylko prawicowe i radykalne treści (wystarczy przytoczyć niedawny artykuł New York Timesa, który przedstawia się historię młodego chłopaka będącego ofiarą takiego prawicowego „prania mózgu”), a do tego doszła też powszechna walka z mową nienawiści i konieczność moderacji materiałów, więc należący do Google serwis również musiał się zmienić. Jak pisał przedstawiciel YouTube w specjalnym wpisie kilka tygodni temu:

- W serwisie zawsze znajdą się materiały, które mają na pieńku z naszą polityką, ale ostatecznie nigdy nie przekraczają tej cienkiej linii. Dlatego też w ciągu ostatnich lat pracowaliśmy nad tym, żeby ograniczyć ich wpływ i szerzenie dezinformacji czy wątpliwych teorii. Czy to lepsze rozwiązanie? Ocenę pozostawiamy Wam, ale zdaniem autora badań, Marka Ledwicha, obserwujemy właśnie ukłon w drugą stronę: - W opozycji do tego, co twierdzi New York Times, nasze dane sugerują, że algorytm rekomendacji serwisu zniechęca użytkowników do sięgania po treści, które można uznać za radykalizujące albo wątpliwe.

Źródło: GeekWeek.pl/

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas