Nadchodzi nadludzka SI. Badacze mają plan, jak ją kontrolować

Zespół badaczy z OpenAI twierdzi, że to tylko kwestia czasu, gdy na rynku pojawi się tak zwana ogólna sztuczna inteligencja (AGI) lub jak sami ją nazywają, nadludzka. W związku z czym opracowują narzędzie, które zagwarantuje, że nie zwróci się ona przeciwko ludziom. Co ciekawe, mimo obaw związanych z wpływem ogólnej sztucznej inteligencji na nasz świat, sami jednocześnie dążą do jej stworzenia.

Ogólna sztuczna inteligencja

Na oficjalnej stronie OpenAI możemy przeczytać, że firma powołała specjalny zespół badaczy pod przewodnictwem Ilya Sytskevera, który ma za zadanie opracować narzędzie do kontroli systemów sztucznej inteligencji, które będą mądrzejsze niż ludzie. Problem polega na tym, że na ten moment naukowcy nie są do końca pewni, czy system przewyższający nas inteligencją, będzie można w ogóle kontrolować.  

Zespół został powołany na początku tego roku, a ich pierwsza praca miała na celu upewnić się, że systemy SI przewyższające ludzi inteligencją nadal będą przestrzegać ustanowionych przed ich nastaniem zasad.   

Jak zmusić ogólną sztuczną inteligencję do posłuszeństwa?

Reklama

Proponowane jest jedno rozwiązanie. OpenAI chce projektować małe modele sztucznej inteligencji, które będą odpowiedzialne za odpowiednie i „moralne” wyszkolenie modeli ogólnej sztucznej inteligencji.  

Na ten moment OpenAI korzysta z ludzkich trenerów do szkolenia ChataGPT, którzy przekazują mu pozytywne lub negatywne opinie. Ma to chronić użytkowników przed tym, by chatbot nie udzielał informacji szkodliwych, jak na przykład instrukcji sporządzania niebezpiecznych substancji w domu.  

Jednak OpenAI przyznaje, że z biegiem czasu ich model staje się coraz mądrzejszy, co za tym idzie, do jego trenowania wkrótce mogą nie wystarczyć sami ludzie. W związku z czym musi powstać specjalny model sztucznej inteligencji, który będzie to robił w imieniu ludzkości.  

Specjalne modele sztucznej inteligencji będą trenowały ogólną sztuczną inteligencję

Trenowanie dużych modeli sztucznej inteligencji za pomocą mniejszych nazwali “weak-to-strong generalization”, czyli od słabego do silnego. Badania wykazały, że ta metoda skutkuje wyższym poziomem dokładności w porównaniu ze szkoleniem przez ludzi.  

W badaniach wykorzystano przede wszystkim GPT-4, który był szkolony przez GPT-2. Jednak OpenAI przyznaje, że nie jest to „rozwiązanie” superdopasowania, na ten moment jedynie ma służyć jako wstępne ramy do opracowania szkolenia ogólnej sztucznej inteligencji.  

W listopadzie pojawiło się wiele spekulacji na temat tego, czy OpenAI udało się osiągnąć ogólną sztuczną inteligencję. Firma zaprzeczyła. Jednak jednocześnie powołała zespół naukowców, który intensywnie pracuje nad narzędziami do kontroli AGI.  

INTERIA.PL
Dowiedz się więcej na temat: ChatGPT | OpenAI | Sztuczna inteligencja
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy