Sztuczna inteligencja przeszła testy IQ. Wyniki szokują
Naukowcy postanowili zbadać programy oparte na sztucznej inteligencji za pomocą specjalnie przygotowanych testów IQ. To, co odkryli, wprawiło ich w niemałe zdziwienie. Wszechobecna panika i strach przed zbuntowaną sztuczną inteligencją napędzają nienawiść do nowej technologii, jednak okazuje się, że modele są dosyć głupie...
Coraz bliżej ogólnej sztucznej inteligencji
Najnowsze badania pokazują, że jeszcze długa droga, zanim ludzkość będzie w stanie stworzyć ogólną sztuczną inteligencję. Okazuje się bowiem, że popularne programy oparte na SI nie radzą sobie z rozwiązywaniem problemów, w których ludzie są świetni. Testy IQ nie poszły sztucznej inteligencji tak dobrze, jak można by się tego spodziewać.
W związku z dynamicznym rozwojem sztucznej inteligencji zaczęto dużo mówić o tak zwanej ogólnej sztucznej inteligencji, do której stworzenia dążą bez wysiłku wszystkie firmy w Dolinie Krzemowej. Ogólna sztuczna inteligencja miałaby być w stanie wykonywać takie same zadania, które obecnie są w stanie wykonywać ludzie. Pojawienie się tej formy sztucznej inteligencji miałoby na zawsze zmienić świat i zapoczątkować fundamentalne zmiany w społeczeństwie.
Według niektórych zagranicznych mediów ostatnia afera kierownicza w OpenAI była właśnie spowodowana rzekomym przełomem w związku z opracowaniem ogólnej sztucznej inteligencji. Jednak są to jedynie niepotwierdzone spekulacje. Wtedy też na tydzień swoje stanowisko CEO stracił Sam Altman, który jest twarzą start-upu.
Sztuczna inteligencja nie radzi sobie z testami IQ
Ostatnie badania przeprowadzone przez czołowego naukowca zajmującego się sztuczną inteligencją Yanna LeCuna, do rzeczywistości, gdzie światem zawładnie sztuczna inteligencja jeszcze daleko. Okazuje się bowiem, że dostępne na rynku duże modele językowe są w dalszym ciągu znacznie głupsze od ludzi w najważniejszych kwestiach, mimo że dysponują potężnymi bazami danych.
Wraz z innymi naukowcami i badaczami zajmującymi się SI przeanalizowali, jak sztuczna inteligencja wypada na tle przeciętnego człowieka. Aby to zmierzyć, zespół przygotował specjalną serię pytań, które byłyby „koncepcyjnie proste dla ludzi, ale stanowiące wyzwanie dla większości zaawansowanych sztucznych inteligencji”.
W badaniu wzięła udział również grupa kontrolna złożona ze zwyczajnych ludzi. Programy zostały przetestowane pod kątem tego, jak zareagowałyby na „pytania ze świata rzeczywistego, które wymagają zestawu podstawowych umiejętności, takich jak rozumowanie, logiki modalnej, przeglądanie stron internetowych i ogólnie obsługi narzędzi” – czytamy w artykule udostępnionym na serwerze Cornell University.
Ludzie w dalszym ciągu wiodą prym w rozwiązywaniu skomplikowanych problemów
Pytania zostały skonstruowane tak, aby modele językowe musiały podjąć szereg kroków w celu udzielenia odpowiedzi. Jedno z zadań polegało na tym, by dany program odwiedził określoną witrynę internetową i udzielił odpowiedzi na zadane pytanie wyłącznie na bazie informacji w niej zawartych. Wynik był jednoznaczny. Duże modele językowe (LLM) nie radzą sobie z tym za dobrze.
Nawet wyposażony w narzędzia, GPT4 nie przekracza 30 proc. wskaźnika sukcesu dla najłatwiejszych naszych zadań i 0 proc. dla najtrudniejszych. W międzyczasie średni wskaźnik sukcesu w przypadku respondentów ludzkich wynosi 92 proc. Zakładamy, że pojawienie się sztucznej inteligencji ogólnej (AGI) zależy od zdolności systemu do wykazania się podobną sprawnością, jaką wykazuje przeciętny człowiek w takich kwestiach.
Wyniki badań pokazują, że na ten moment ludzie nie mają sobie równych, jeżeli chodzi o bardziej skomplikowane scenariusze rozwiązywania problemów w świecie rzeczywistym.