Sztuczna inteligencja pokazała jak potrafi być przerażająca. 40 tysięcy broni chemicznych w zaledwie 6 godzin
Wiele mówi się o tym, jak bardzo sztuczna inteligencja może się przysłużyć w rozwoju nauki i technologii. Jednak notorycznie pomija się zagrożenia, jakie może stworzyć, gdy zostanie wykorzystana przez nieodpowiednie osoby.
Sztuczna inteligencja i uczenie maszynowe to pojęcia, które coraz częściej pojawiają się w nauce. Zwykle słyszymy o nich w kontekście rozwoju lub ciekawych odkryć, lecz to nie jedyne do czego AI może zostać wykorzystane. Naukowcy pokazali do czego jest zdolna sztuczna inteligencja z uczeniem maszynowym, gdy wykorzysta się ją do "niewłaściwych celów".
Byliśmy naiwni, myśląc o potencjalnym nadużyciu naszego fachu, ponieważ naszym celem zawsze było unikanie cech molekularnych, które mogłyby zakłócać wiele różnych klas białek niezbędnych do ludzkiego życia
Okazuje się, że sztuczna inteligencja potrafi przynieść wiele szkód. Naukowcy chcieli sprawdzić co się stanie, gdy pozwolą jej badać toksyczne cząsteczki. Efekt zaskoczył ich samym. Sztuczna inteligencja wynalazła około 40 tysięcy potencjalnych związków tworzących broń biologiczną i chemiczną w zaledwie sześć godzin pracy.
Firma Collaborations Pharmaceuticals opublikowała niedawno wyniki eksperymentu, w których przedstawiono skutek wykorzystania uczenia maszynowego do przewidywania toksyczności w różnych obszarach. Opracowując swoją prezentację postanowili zbadać, w jaki sposób można wykorzystać sztuczną inteligencję do projektowania toksycznych cząsteczek. Było to ćwiczenie myślowe, którego wcześniej nie brali pod uwagę, lecz ostatecznie przekształciło się w obliczeniowy dowód koncepcji wytwarzania broni biochemicznej.
To była dość niezwykła publikacja. Długo zastanawialiśmy się, czy powinniśmy to opublikować, czy nie. Jest to potencjalne nadużycie, którego wykonanie nie zajęło wiele czasu. Chcieliśmy opublikować te informacje, ponieważ tak naprawdę nie widzieliśmy ich nigdzie w literaturze. Rozejrzeliśmy się i nikt tak naprawdę o tym nie mówił. Ale jednocześnie nie chcieliśmy dać pomysłu nieodpowiednim osobom
Jak zauważa jeden z uczestników projektu, temat nadużycia sztucznej inteligencji jest mocno pomijany w publikacjach naukowych. Dlatego też, pomimo początkowego wahania się, naukowcy postanowili opublikować wyniki swoich badań. Obawiają się jednak, że tym samym podrzucili niewłaściwym osobom sposób na nadużycie możliwości sztucznej inteligencji.