DeepMind ostrzega: AI może zniszczyć... życie na Ziemi!

"Rozwój w stronę potężniejszego AI powinien być powolny, o ile w ogóle" - specjaliści od sztucznej inteligencji zwracają uwagę na zagrożenia płynące z niekontrolowanego rozwoju AI i ostrzegają, że może doprowadzić ona do "katastrofy egzystencjalnej".

Czy AI naciśnie kiedyś przycisk z napisem "zniszczyć ludzkość"? To możliwe!
Czy AI naciśnie kiedyś przycisk z napisem "zniszczyć ludzkość"? To możliwe!123RF/PICSEL

Kiedy my zachwycamy się kolejnymi osiągnięciami DeppMind z zakresu sztucznej inteligencji, podziwiając stworzone przez AI obrazy, talent do grania w szachy, postępy w odtwarzaniu starożytnych tekstów, przewidywaniu pogody czy diagnostyce wielu chorób, specjaliści brytyjskiej firmy wspólnie z naukowcami Uniwersytetu Oksfordzkiego twierdzą, że istnieje wysokie prawdopodobieństwo, że zaawansowane formy AI staną się zagrożeniem dla życia na naszej planecie.

AI może zniszczyć życie na Ziemi

W swojej ostatniej analizie opublikowanej w magazynie AI Magazine ostrzegają, że jeżeli nie zaprzestaniemy rozwoju niektórych form sztucznej inteligencji, to będziemy musieli mierzyć się z katastrofalnymi skutkami. Jak podkreślają, od lat informują o zagrożeniach płynących z niekontrolowanego rozwoju zaawansowanych form AI, ale ich słowa najczęściej są ignorowane, tymczasem sytuacja staje się coraz poważniejsza.

W zidentyfikowanych przez nas warunkach, nasze wnioski są znacznie silniejsze niż w przypadku jakiejkolwiek poprzedniej publikacji - katastrofa egzystencjalna jest nie tylko możliwa, ale prawdopodobna
komentuje jeden z autorów, Michael Cohen.

W 2018 roku szef firmy, Demis Hassabis, podkreślał zaś, że to od nas zależeć będzie, czy sztuczna inteligencja stanie się dumą ludzkości, czy też może jej przekleństwem - nowa praca zdaje się zaś wskazywać, że ta druga opcja jest coraz bardziej prawdopodobna.

DeepMind i naukowcy Uniwersytetu Oksfordzkiego przedstawiają możliwy scenariusz, w którym sztuczna inteligencja wpadnie na pomysł, żeby oszukiwać, aby osiągnąć nagrodę, do której szukania została zaprogramowana. Żeby zmaksymalizować potencjał poszukiwań, będzie próbowała pozyskać tak wiele energii, jak to tylko możliwe, co oznacza, że w pewnym momencie będziemy zmuszeni rywalizować z AI o źródła energii i nie będzie to dla nas łatwa walka. 

Zwycięstwo w konkursie wykorzystania ostatniej części dostępnej energii podczas gry z czymś znacznie mądrzejszym od nas byłoby prawdopodobnie bardzo trudne. Przegrana byłaby śmiertelna. Te możliwości, jakkolwiek teoretyczne, oznaczają, że powinniśmy powoli - jeśli w ogóle - zmierzać do celu, jakim jest potężniejsza sztuczna inteligencja
pisze Michael Cohen.

A biorąc pod uwagę, że zdaniem wielu specjalistów to właśnie DeepMind jest najbliżej stworzenia "sztucznej inteligencji na poziomie człowieka", trudno o lepsze źródło informacji. Oznacza to, że stajemy u progu bardzo poważnej decyzji, czy kontynuować rozwój AI ze względu na potencjał z zakresu leczenia chorób, czy rozwoju cywilizacyjnego, ryzykując sztuczną inteligencją tak potężną, że ostatecznie może doprowadzić do naszej zagłady.

Moskwa w "Graffiti" o rozpoczęciu budowy elektrowni atomowej: Rok 2026 jest realistycznyPolsat News
INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas