Czekają nas „wieki ciemne” informacji publicznej. Wszystko przez AI

W związku z tym, że wkrótce będzie można karmić sztuczną inteligencję treściami generowanymi przez sztuczną inteligencję, eksperci ostrzegają o „załamaniu modelu”. Związane jest to z ciągłym zalewaniem internetu treściami generowanymi przez sztuczną inteligencję, co namnaża szereg problemów. Treści są nieweryfikowane, co za tym idzie, często wypełnione błędami.

Sztuczna inteligencja może zniszczyć sama siebie

Eksperci biją na alarm! Treści generowane przez sztuczną inteligencję mogą stanowić zagrożenie dla przyszłych modeli AI.  Badacze sztucznej inteligencji z Uniwersytetu Oksfordzkiego oraz Cambridge odkryli, że duże modele językowe stojące za tą technologią, mogą potencjalnie być szkolone na innych treściach generowanych przez AI rozprzestrzeniających się masowo w internecie.  

Nazwali to zjawisko „upadkiem modelu”. Skutkowałoby to generowaniem treści coraz niższej jakości. 

Zapętlenie się sztucznej inteligencji na treściach generowanych przez inną sztuczną inteligencję może skutkować upadkiem generatywnych narzędzi AI. Jakość oraz różnorodność generowanych przez nie treści będzie stopniowo ulegać pogorszeniu, by finalnie stać się bezużytecznymi.  

Reklama

Skutki zapętlenia się sztucznej inteligencji

Naukowcy jeszcze nie są do końca zgodni co do konkretnych skutków, jakie by to ze sobą niosło. Sztuczna inteligencja potrzebuje źródeł, na podstawie których mogłaby generować informacje. 

Co za tym idzie, upadek modelu mógłby utrudnić określenie pierwotnego źródła. W rezultacie, dostawcy rzetelnych informacji, mogliby podjąć decyzje o ograniczeniu treści czy pobieraniu za nie opłat, by zapobiec wykorzystywaniu ich do szkolenia kolejnych modeli AI.  

Jak pisze dyrektor generalny firmy badawczej Constellation Research, stworzyłoby to „ciemne wieki informacji publicznej”. 

Niebezpieczeństwo dezinformacji

Od momentu pojawienia się na rynku ChataGPT od OpenAI eksperci martwią się nie tylko o ilość generowanych przez AI treści, ale również właśnie o ich jakość. 

NewsGuard, firma zajmująca się oceną witryn pod względem wiarygodności, twierdzi, że do tej pory zidentyfikowanych zostało 452 „niewiarygodne serwisy informacyjne generowane przez sztuczną inteligencję, z niewielkim lub żadnym nadzorem człowieka”. 

Budzi to niepokój wśród ekspertów, bo treści w internecie zawierające niesprawdzone oraz szkodliwe informacje powielane są coraz częściej bez weryfikacji. Niezweryfikowane witryny używają słów news w tytułach, co dla konsumenta kojarzy się z rzetelnym źródłem. Sprzyja to rozprzestrzenianiu się jeszcze większej dezinformacji.  

INTERIA.PL
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy