OpenAI publikuje potężne narzędzie do wykrywania i pisania fake newsów

Pierwotnie firma miała inne zdanie w tej sprawie, ale minęło kilka miesięcy i najwyraźniej coś się zmieniło, bo algorytm właśnie został udostępniony.

OpenAI, czyli inicjatywa zrzeszająca wybitnych inżynierów z całego świata i mająca na celu tworzenie technologii sztucznej inteligencji w zgodzie z prawem oraz dla dobra ludzkości, poinformowała w lutym, że stworzyła rewolucyjny system na potrzeby walki z fałszywymi wiadomościami. Tyle że jest z nim jeden problem, jest zbyt potężny i niebezpieczny, żeby dostał się w niepowołane ręce, bo podczas treningu na fake newsach opanował do mistrzostwa również umiejętność... ich pisania.

GPT2, bo o nim właśnie mowa, był szkolony na milionach artykułów i komentarzy pojawiających się w popularnym serwisie Reddit. Potrafi wnikliwie analizować dzieło literackie lub tekst stworzony przez agencję informacyjną i na tej podstawie je dokończyć lub napisać zupełnie nowe teksty. Jak twierdzi Dario Amodei, dyrektor badawczy OpenAI, to ewenement na skalę światową, który bez problemu analizuje 12 razy większe modele i aż 15 razy większe zestawy danych, w znacznie obszerniejszej tematyce. 

Reklama

W związku z tym miał pozostać w rękach swoich pomysłodawców, żeby komuś nie przyszło do głowy korzystać z niego w niecnym celu i opinia publiczna miała poznać jedynie pojedyncze elementy tej rewolucyjnej technologii. No cóż, tak przynajmniej było w lutym, bo dziś sytuacja uległa całkowitej zmianie - OpenAI poinformowało bowiem, że nie ma żadnych silnych dowodów nadużyć z wykorzystaniem tego rozwiązania, dlatego też opublikowane zostanie ono w całości. Czyżby już nie było zagrożenia zalania światowej sieci toną nieprawdziwych informacji, które są napisane w sposób niezwykle przekonujący?

Oczywiście jest, ale OpenAI we wpisie na swoim blogu wyraża nadzieję, że tak się nie stanie, a pełna wersja GPT-2 pomoże naukowcom w opracowaniu lepszych modeli do walki z dezinformacją i ,materiałami szerzącymi uprzedzenia na różnym tle. Jak czytamy: - Wypuszczamy ten model, aby pomóc w badaniach nad wykrywaniem syntetycznego tekstu. Część osób jest jednak zdania, że ta technologia i tak w końcu stanie się powszechnie dostępne, dlatego też naukowcy z OpenAI nie mieli wyjścia, bo w ten sposób udostępniają przynajmniej innym narzędzia, dzięki którym będziemy mogli przygotować się do tej wirtualnej walki. Są też głosy sugerujące, że chodziło tylko o promocję GPT-2, ale jak było naprawdę...

Źródło: GeekWeek.pl/theverge

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy