Naukowcy obliczyli ryzyko buntu sztucznej inteligencji. Wynik zaskakuje

Czołowi naukowcy zajmujący się sztuczną inteligencją obliczyli szanse na to, że sztuczna inteligencja wymknie się spod kontroli i doprowadzi do upadku ludzkości. Wielu z nich podzieliło się obawami dotyczącymi przyszłości uzależnionej od SI. Według przeprowadzonej ankiety ryzyko wyginięcia ludzkości za sprawą sztucznej inteligencji wynosi całe 5 procent.

Sztuczna inteligencja to obosieczny miecz

Wśród naukowców zajmujących się sztuczną inteligencją została przeprowadzona ankieta dotycząca ryzyka wyginięcia ludzkości spowodowanego rozwojem SI. Naukowcy oszacowali, że może ona wymknąć się spod kontroli i zniszczyć ludzkość, a szanse na to wynoszą 5 procent. 

Rozwój sztucznej inteligencji postępuje niezwykle szybko. W najbliższych latach stanie się ona znacznie bardziej zaawansowana. Badacze sugerują, że do 2030 roku rozwinie się na tyle, by napisać bestseller New York Timesa, czy napisać piosenkę, która podbije listy przebojów. Można by pomyśleć, że nasi przyszli władcy SI, zanim nas unicestwią, przez jakiś czas dostarczą nam niezapomnianej rozrywki.  

Strach przed sztuczną inteligencją

Reklama

W ankiecie wzięło udział 2778 naukowców. Są oni autorami recenzowanych prac dotyczących sztucznej inteligencji i przewidywań na przyszłość w związku z jej rozwojem. 68 procent badaczy uważa, że sztuczna inteligencja przechyla się bardziej na stronę dobra niż zła. W badaniu niebezpieczeństwo związane jest ze stworzeniem potężnej ogólnej sztucznej inteligencji, która będzie dysponować umiejętnościami przewyższającymi ludzkie możliwości.  

Naukowcy są zgodni co do tego, że większą wagę powinno się przykładać do tego, by poświecić więcej czasu badaniom mającym na celu zminimalizowanie ryzyka buntu do zera. Jednak nie są zgodni co do tego, czy rozwój SI powinien zostać spowolniony, czy wręcz przyśpieszony.  

Ponad 80 procent naukowców wyraziło pewne obawy związane z rozpowszechnianiem przez sztuczną inteligencję dezinformacji. Dotyczyły one również możliwości wykorzystania SI do niewłaściwych celów przez autorytarne rządy, między innymi po to, by wpływać na sytuację polityczną w innych państwach.  

Czy ogólną sztuczną inteligencję będzie można kontrolować?

Firma OpenAI odpowiedzialna za ChataGPT w grudniu opublikowała raport dotyczący możliwości kontrolowania moralności ogólnej sztucznej inteligencji. Miałyby za to odpowiadać mniejsze modele językowe, które zastąpiłyby ludzi w trenowaniu większych modeli.  

Firma Anthrophic z kolei stworzyła specjalną konstytucję dotyczącą jej systemów sztucznej inteligencji. Ma to gwarantować, że działają one zgodnie z zasadami naszego społeczeństwa. Jednak naukowcy są pełni sceptycyzmu, ponieważ może się to okazać niewystarczające. Obecna sztuczna inteligencja to tylko początek, gdyby udało się stworzyć ogólną sztuczną inteligencję, mielibyśmy do czynienia z czymś inteligentniejszym od nas samych. Jak kontrolować coś, co przewyższa nasze zrozumienie?  

Eksperci przewidują, że do 2033 roku sztuczna inteligencja będzie w stanie tłumaczyć nowoodkryte języki, tworzyć gry wideo czy układać LEGO. Natomiast do 2063 będzie w stanie wykonywać prace chirurga.  

INTERIA.PL
Dowiedz się więcej na temat: Sztuczna inteligencja | zagłada ludzkości | cywilizacja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy