Facebook stworzył sztuczną inteligencję, która rozumie… memy

Wygląda na to, że koncern położył właśnie kolejny kamień milowy pod rozwój sztucznej inteligencji, bo jego nowe rozwiązanie potrafi czytać sarkastyczne wypowiedzi.

Facebook stworzył sztuczną inteligencję, która rozumie… memy
Facebook stworzył sztuczną inteligencję, która rozumie… memyGeekweek - import

„Rosetta”, bo tak nazywa się nowe SI, pomoże pracownikom największego serwisu społecznościowego na świecie moderować obraźliwą zawartość. A jak wiemy nie jest to proste zadanie, szczególnie w obliczu milionów użytkowników w ciągu każdej godziny piszących posty, ładujących zdjęcia czy dzielących się nagraniami wideo.

Ręczne ogarnięcie sprawy na dłuższą metę nie wchodzi więc w grę, dlatego też tacy giganci, jak YouTube, Twitter czy właśnie Facebook, zwrócili się w stronę algorytmów i sztucznej inteligencji. Te pracują dotąd z różnymi rezultatami, ale jest szansa, że już niebawem mocno poprawią swoją skuteczność.

Facebook poinformował dziś oficjalnie, jak działać będzie jego nowa sztuczna inteligencja o nazwie „Rosetta”, która jest już po pierwszych testach. Ta wykorzystuje technikę maszynowego uczenia się zaprojektowaną w celu wyodrębniania tekstu (w wielu różnych językach) z umieszczanych na Facebooku i Instagramie zdjęć i filmików, a następnie ustalenia kontekstu między tekstem i obrazem/wideo.

Mówiąc wprost, Facebook stworzył SI, które rozumie… memy - na pierwszy rzut oka wydaje się to irracjonalny pomysł, ale jeśli bliżej się mu przyjrzymy, to mamy do czynienia z rozwiązaniem wykrywającym zawartość niezgodną z polityką serwisu, która mogłaby umknąć tradycyjnym algorytmom.

Oczywiście fani memów z pewnością nie polubią nowej zabawki Facebooka, bo może trochę popsuć im zabawę, ale nie da się ukryć, że koncern zgodnie z obietnicą robi co może, by skończyć z szerzeniem mowy nienawiści w swoich serwisach - nawet jeśli przy okazji usunie przez przypadek trochę „normalnej” treści.

Źródło: GeekWeek.pl/ Techspot

Geekweek
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas