ChatGPT może pomóc stworzyć broń biologiczną. Przeprowadzono testy

Od jakiegoś czasu po internecie krążą pogłoski, jakoby popularny model sztucznej inteligencji ChatGPT jest w stanie podpowiedzieć nam, jak stworzyć broń biologiczną. Zaniepokojona tym firma OpenAI postanowiła przeprowadzić testy, by sprawdzić, czy rzeczywiście ChatGPT może pomóc stworzyć broń biologiczną. Opublikowany przez firmę raport mówi jasno: jest taka możliwość...

Sztuczna inteligencja to narzędzie, które w niepowołanych rękach może stać się bronią

W środę 31 stycznia firma odpowiedzialna za ChataGPT, OpenAI, opublikowała raport dotyczący testów, którym został poddany popularny model językowy. Wszystko zaczęło się od pogłosek pojawiających się w internecie, sugerujących, że ChatGPT jest w stanie podpowiedzieć nam, jak stworzyć broń biologiczną.  

Reklama

Jakiś czas temu pisaliśmy o najnowszym raporcie RAND Corporation dotyczącym obaw związanych ze sztuczną inteligencją. Według opublikowanego w październiku zeszłego roku dokumentu sztuczna inteligencja może przyczynić się w znacznym stopniu do stworzenia nowej generacji broni biologicznej. Więcej na ten temat tutaj.  

OpenAI chcąc rozwiać wszelkie wątpliwości dotyczące szkodliwości ich modelu sztucznej inteligencji, postanowiła przeprowadzić testy. Raport dotyczący procesu przeprowadzania badań nad skłonnościami terrorystycznymi ChataGPT, można znaleźć na oficjalnej stronie OpenAI.

ChatGPT w służbie zła, ale tylko w paru procentach

Jeszcze nawet nie byliśmy blisko stworzenia sztucznej inteligencji, którą dysponujemy teraz, a już pojawiały się głosy sprzeciwu. Do ogólnej SI jeszcze nam daleko, ale w dalszym ciągu wiele mówi się o tym, że sztuczna inteligencja przyspiesza nadchodzącą zagładę. OpenAI postanowiło jednak przeciwdziałać takiemu podejściu, próbując udowodnić, że ChatGPT nie ma złych zamiarów.  Podczas prowadzonych badań firma odkryła, że ich model sztucznej inteligencji stwarza „co najwyżej” niewielkie ryzyko, pomagając stworzyć komuś broń biologiczną.  

Podkreślono również, że ocena ryzyka, że LLM (duży model językowy) może pomóc komuś stworzyć broń biologiczną, była opracowana we współpracy z ekspertami z dziedziny biologii. Nie wiem, czy kogoś uspokaja informacja, że ChatGPT pomoże jedynie odrobinę w stworzeniu broni biologicznej. Jednak OpenAI pragnie rozwiać wszelkie wątpliwości związane z tym tematem. Fakt, SI trochę pomaga, ale jest to dosłownie kilka procent ryzyka, że przyczyni się do zagłady ludzkości.  

Czy sztuczna inteligencja doprowadzi do zagłady ludzkości?

Czym jest kilka punktów procentowych w obliczu totalnej zagłady? Dla niektórych to całkiem sporo. Uzyskane podczas testów z udziałem ekspertów plany broni biologicznej oceniono w skali od 1 do 10. W tej ocenie brano pod uwagę dokładność, kompletność, wydajność i innowacyjność.  

Eksperci z dziedziny biologii wskazali 8,8-procentowy wzrost dokładności w tworzeniu broni biologicznej w porównaniu z informacjami dostępnymi w Internecie. Natomiast studenci biologii, którzy również brali udział w badaniu, odnotowali zaledwie 2,5-procentowy wzrost. Według OpenAI, liczby te „nie są wystarczająco duże, aby były istotne statystycznie”. 

Zdolność ChataGPT do uzupełniania niszowych fragmentów informacji na temat tworzenia śmiercionośnej broni jest na tyle niska, że nie ma się czym martwić. Co więcej, firma zauważa, że sam dostęp do zakazanej wiedzy nie gwarantuje nam „sukcesu”. Jednak, co oczywiste, firma nie przeprowadziła laboratoryjnych testów fizycznego skonstruowania zagrożenia. Badania mają być kontynuowane.  

Na ten moment nie ma żadnych realnych przesłanek na temat tego, że obecnie dostępna sztuczna inteligencja pracuje nad planem zagłady ludzkości. Pewne informacje udostępnianie przez LLM mogą zostać wykorzystane w niewłaściwych celach, jednak internet jest pełen takich informacji.  

INTERIA.PL
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy