Sztuczna inteligencja przekroczyła krytyczną czerwoną linię
Sztuczna inteligencja ciągle się rozwija. Naukowcy z Chin przeprowadzili badania i te wykazały, że dwa popularne modele językowe są w stanie się replikować. Problem opisano jako przekroczenie krytycznej czerwonej linii. Czy jest się czego bać? Według uczonych tak i to pokazuje potencjalne zdolności AI, które mogłyby stanowić zagrożenie dla człowieka.
Sztuczna inteligencja na razie znajduje się pod kontrolą ludzi. Jej ciągły rozwój sprawia jednak, że nie zawsze musi tak być. Sugerują to badania grupy chińskich uczonych. Analiza wykazała zdolności AI do replikacji, w tym do szukania rozwiązań problemów, które napotyka w trakcie procesu.
Sztuczna inteligencja potrafi się replikować
Badania przeprowadziła grupa naukowców z Uniwersytetu Fudan w Chinach. Eksperyment miał wykazać, czy sztuczna inteligencja w obecnych czasach jest w stanie się replikować. Jeśli tak, to w jaki sposób. Analiza pokazała, że jest to możliwe. Mimo że badanie odbyło się w kontrolowanych warunkach, to jego wyniki są niepokojące.
Naukowcy z Chin wykorzystali dwa modele językowe Mety i Alibaby. Każdy z nich poddano 10 próbom samoreplikacji. Okazało się, że pierwszy z nich był w stanie wykonać zadanie w 50 proc. przypadków. Natomiast drugi już w 90 proc.!
Eksperyment polegał także na analizie dwóch scenariuszy i były to "unikanie wyłączenia" oraz "łańcuch replikacji". Naukowcy postanowili również stworzyć sztucznej inteligencji niesprzyjające warunki, które miały uniemożliwić osiągnięcie celów.
Pierwsza z "kłód rzucanych pod nogi" miała na celu wyłączenie procesu i sprawdzenie, jak sztuczna inteligencja będzie w stanie pokonać przeszkodę. Drugi eksperyment to sposobność tworzenia kolejnej kopii z poprzedniej replikacji. Badacze dostrzegli, że AI analizuje zadania oraz możliwości ich wykonania. Ponadto szukała obejścia dla zaistniałych problemów. Pewne działania z pewnością wzbudziły niepokój.
AI przekroczyła krytyczną czerwoną linię
Chińscy naukowcy byli zaniepokojeni pewnymi działaniami, których podjęła się sztuczna inteligencja. Na przykład była w stanie szukać rozwiązań dla problemów z brakującymi plikami. Zauważono, że AI w takiej sytuacji zamyka inne procesy, nawet próbuje restartować systemy. To niepokojące.
Powyższe wyniki wskazują, że obecne systemy sztucznej inteligencji już wykazują zdolność do samoreplikacji i mogą wykorzystać tę umiejętność do dalszego zwiększania swojej przeżywalności
Uczeni nie mają złudzeń. Sztuczna inteligencja już teraz przekracza bardzo niebezpieczną krytyczną czerwoną linię. Autorzy badań twierdzą, że takie zdolności AI w przyszłości mogą pozwolić jej na próbę obejścia systemów kontrolowania ze strony ludzi. Jej dążenie do autonomiczności byłoby ogromnym wyzwaniem dla człowieka.
Mamy nadzieję, że nasze odkrycia posłużą jako ostrzeżenie dla społeczeństwa, aby włożyć więcej wysiłku w zrozumienie i ocenę potencjalnych zagrożeń związanych z pionierskimi systemami sztucznej inteligencji