Sztuczna inteligencja może stworzyć broń biologiczną nowej generacji

Według najnowszego raportu RAND Corporation sztuczna inteligencja może przyczynić się w znacznym stopniu do stworzenia nowej generacji broni biologicznej. Nie chodzi o to, że dostarczy „tajnych” instrukcji, a bardziej o to, że wypełni luki w wiedzy, które zniweczyły poprzednie takie próby.

Czy sztuczna inteligencja stanowi zagrożenie dla ludzkości?
Czy sztuczna inteligencja stanowi zagrożenie dla ludzkości? 123RF/PICSEL

Sztuczna inteligencja wzbudza nie tylko nadzieje, ale również obawy

Rozwój sztucznej inteligencji postępuje na tyle szybko, że wielu ludzi nie nadąża. Część jest niezwykle zafascynowana postępami na tym polu i ma nadzieje, że SI sprawi, że świat będzie choć trochę lepszym miejscem. Jednak zwolennicy czarnych scenariuszy obawiają się nastania władzy zbuntowanych maszyn, które zyskają świadomość i będą chciały podporządkować sobie ludzi.  

Scenariusz „Terminatora” czy „Matrixa” może okazać się bliższy rzeczywistości niż mogłoby się do tej pory wydawać. Amerykański zespół doradców wraz z kalifornijskim instytutem RAND Corporation opublikował raport, który wzbudza pewne obawy w związku z dynamicznym i nieregulowanym przez rząd rozwojem sztucznej inteligencji. Mówi on o tym, że SI może zostać wykorzystana do stworzenia broni biologicznej nowej generacji.  

Sztuczna inteligencja zniszczy kiedyś świat?

Raport został opublikowany przez RAND Corporation i powstał we współpracy z zespołem doradców zajmujących się sztuczną inteligencją. Autorzy raportu dają do zrozumienia, że sztuczna inteligencja może przyczynić się do stworzenia broni nowej generacji. Jednak nie chodzi tutaj o to, że udostępni szczegółową instrukcję jej stworzenia, jednak może uzupełnić luki w wiedzy, przez które do tej pory wszelkie wysiłki kończyły się fiaskiem.

W raporcie wskazano również problem, jakim jest brak nadzoru nad instytucjami, które zajmują się sztuczną inteligencją. Luka w przepisach, które tworzone są wolniej niż rozwój SI, może przyczynić się do tego, że grupy terrorystyczne, mające dostęp do generatywnej sztucznej inteligencji, zdobędą nową broń masowego rażenia.  

Nasze ciągłe badania podkreślają złożoność związaną z niewłaściwym wykorzystaniem sztucznej inteligencji, w szczególności LLM, do ataków biologicznych. Wstępne wyniki wskazują, że LLM mogą generować niepokojące dane, które mogą potencjalnie pomóc w planowaniu ataku biologicznego. Pozostaje jednak otwartym pytaniem, czy możliwości istniejących LLM stanowią nowy poziom zagrożenia wykraczający poza szkodliwe informacje, które są łatwo dostępne w internecie.
Czytamy w raporcie.

Duże modele językowe są dostępne na całym świecie

LLM, czyli duży model językowy wyróżniający się zdolnością do zrozumienia i generowania języka ogólnego przeznaczenia. Wykorzystuje ogromne ilości danych do uczenia się, zużywając duże zasoby obliczeniowe podczas szkolenia i działania. Są to między innymi szeroko dostępny ChatGPT czy należący do Google Bard.

Autorzy raportu nie ujawniają, które konkretnie modele językowe dostępne na runku mają na myśli. Jednak podają przykłady niepokojących odpowiedzi sztucznej inteligencji, która raportowała na takie tematy, jak „planowanie budżetu na broń biologiczną, identyfikacja potencjalnych czynników rozprzestrzeniania się” oraz kilka mniej jasnych, związanych z bronią masowego rażenia.

Aktualnie branża technologiczna prowadzi swoisty wyścig zbrojeń o jak najbardziej zaawansowaną i „rozumną” sztuczną inteligencję. Co za tym idzie, na rynek wypychane są co chwila chatboty i generatory mające nam towarzyszyć w każdym aspekcie życia. Firmy uspokajają, że modele wyposażone są w pewne zabezpieczenia uniemożliwiające generowanie odpowiedzi potencjalnie niebezpiecznych. Jednak nie zawsze są one skuteczne i można się spodziewać, że to tylko kwietnia czasu, jak ktoś te luki w zabezpieczeniach wykorzysta.

Czytaj w Antyweb.pl: Najnowsze dane zupełnie zaskakują. Chodzi o sprzedaż telefonów!

Szwecja. Hotel w latarni morskiej Deutsche Welle
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas