Nadchodzi nadludzka SI. Badacze mają plan, jak ją kontrolować
Zespół badaczy z OpenAI twierdzi, że to tylko kwestia czasu, gdy na rynku pojawi się tak zwana ogólna sztuczna inteligencja (AGI) lub jak sami ją nazywają, nadludzka. W związku z czym opracowują narzędzie, które zagwarantuje, że nie zwróci się ona przeciwko ludziom. Co ciekawe, mimo obaw związanych z wpływem ogólnej sztucznej inteligencji na nasz świat, sami jednocześnie dążą do jej stworzenia.
Ogólna sztuczna inteligencja
Na oficjalnej stronie OpenAI możemy przeczytać, że firma powołała specjalny zespół badaczy pod przewodnictwem Ilya Sytskevera, który ma za zadanie opracować narzędzie do kontroli systemów sztucznej inteligencji, które będą mądrzejsze niż ludzie. Problem polega na tym, że na ten moment naukowcy nie są do końca pewni, czy system przewyższający nas inteligencją, będzie można w ogóle kontrolować.
Zespół został powołany na początku tego roku, a ich pierwsza praca miała na celu upewnić się, że systemy SI przewyższające ludzi inteligencją nadal będą przestrzegać ustanowionych przed ich nastaniem zasad.
Wierzymy, że superinteligencja – sztuczna inteligencja znacznie mądrzejsza od człowieka – może zostać opracowana w ciągu najbliższych dziesięciu lat. Jednak nadal nie wiemy, jak niezawodnie sterować i kontrolować nadludzkie systemy AI. Rozwiązanie tego problemu jest niezbędne, aby w przyszłości nawet najbardziej zaawansowane systemy sztucznej inteligencji pozostały bezpieczne i korzystne dla ludzkości.
Jak zmusić ogólną sztuczną inteligencję do posłuszeństwa?
Proponowane jest jedno rozwiązanie. OpenAI chce projektować małe modele sztucznej inteligencji, które będą odpowiedzialne za odpowiednie i „moralne” wyszkolenie modeli ogólnej sztucznej inteligencji.
Na ten moment OpenAI korzysta z ludzkich trenerów do szkolenia ChataGPT, którzy przekazują mu pozytywne lub negatywne opinie. Ma to chronić użytkowników przed tym, by chatbot nie udzielał informacji szkodliwych, jak na przykład instrukcji sporządzania niebezpiecznych substancji w domu.
Jednak OpenAI przyznaje, że z biegiem czasu ich model staje się coraz mądrzejszy, co za tym idzie, do jego trenowania wkrótce mogą nie wystarczyć sami ludzie. W związku z czym musi powstać specjalny model sztucznej inteligencji, który będzie to robił w imieniu ludzkości.
Specjalne modele sztucznej inteligencji będą trenowały ogólną sztuczną inteligencję
Trenowanie dużych modeli sztucznej inteligencji za pomocą mniejszych nazwali “weak-to-strong generalization”, czyli od słabego do silnego. Badania wykazały, że ta metoda skutkuje wyższym poziomem dokładności w porównaniu ze szkoleniem przez ludzi.
W badaniach wykorzystano przede wszystkim GPT-4, który był szkolony przez GPT-2. Jednak OpenAI przyznaje, że nie jest to „rozwiązanie” superdopasowania, na ten moment jedynie ma służyć jako wstępne ramy do opracowania szkolenia ogólnej sztucznej inteligencji.
Ogólnie rzecz biorąc, modele nadludzkie byłyby niezwykle potężne, a jeśli zostaną niewłaściwie użyte lub niezgodnie z ludzkimi wartościami, mogłyby potencjalnie spowodować katastrofalne szkody. Uważamy, że teraz łatwiej jest dokonać postępu w rozwiązaniu tego problemu niż kiedykolwiek wcześniej.
W listopadzie pojawiło się wiele spekulacji na temat tego, czy OpenAI udało się osiągnąć ogólną sztuczną inteligencję. Firma zaprzeczyła. Jednak jednocześnie powołała zespół naukowców, który intensywnie pracuje nad narzędziami do kontroli AGI.