Sztuczna inteligencja może nas wpędzić w wojnę nuklearną
Sztuczna inteligencja (SI) rozwija się w szybkim tempie i znajduje zastosowanie praktycznie we wszystkich obszarach naszego życia. Jednym głównych aspektów wykorzystania SI są cele militarne. Zdaniem ekspertów, którzy podeszli do tego problemu racjonalnie, algorytmy komputerowe będą mogły w przyszłości wpłynąć na procesy decyzyjne i doprowadzić do wojny jądrowej.
Światowe mocarstwa militaryzują sztuczną inteligencję, ponieważ jest ona wydajniejsza od człowieka, potrafi znacznie szybciej przetwarzać dane oraz podejmować szybkie i chłodne decyzje. Jest to sfera, w której człowiek może angażować zbyt wielkie emocje, przez co może podejmować błędne decyzje.
Jednak z drugiej strony, zastąpienie ludzi sztuczną inteligencją mogłoby doprowadzić do globalnej katastrofy. Obecnie, na nasze szczęście, żadne państwo nie ma zamiaru oddawać swojego arsenału nuklearnego "w ręce" algorytmów komputerowych. Decyzje o wykorzystaniu broni nuklearnej są i będą podejmowane przez człowieka, lecz nawet w takiej sytuacji nie da się uniknąć błędu, a sztuczna inteligencja mimo wszystko może wpędzić nas w globalną wojnę jądrową.
Potęga inteligencji
Eksperci z amerykańskiego think tanku, korporacji RAND, wskazują, że zmilitaryzowana sztuczna inteligencja może nam zagrozić na różne sposoby. Jeden z przykładów przedstawionych w raporcie opisuje sytuację, w której jedno państwo może zdać sobie sprawę z potęgi SI posiadanej przez przeciwnika i zdecyduje się na atak wyprzedzający, aby nie dopuścić do zachwiania globalnej równowagi sił. Takie uderzenie może zainicjować szereg przykrych zdarzeń, które w najgorszym przypadku doprowadzą do wymiany ognia nuklearnego.
Specjaliści z korporacji RAND twierdzą również, że sztuczna inteligencja może naruszyć podstawowe reguły odstraszania nuklearnego i wpłynąć na ludzi w taki sposób, aby podjęli katastrofalne w skutkach decyzje. Może to być na przykład zasugerowanie ataku jądrowego w oparciu o źle zinterpretowane dane lub błąd systemu. Należy również mieć na uwadze, że komputery zawsze będą narażone na cyberataki, zatem zhakowana sztuczna inteligencja może zwyczajnie wprowadzać ludzi w błąd. Eksperci z RAND podsumowują, że do 2040 roku SI nie będzie jeszcze na tyle zaawansowana, aby mogła wywierać wpływ na politykę bezpieczeństwa nuklearnego.
Nowy wyścig zbrojeń
Chińczycy pracują nad wprowadzeniem sztucznej inteligencji na pokład atomowych okrętów podwodnych, która ma zastąpić przestarzałe systemy komputerowe. Sztuczna sieć neuronowa ma przede wszystkim pomagać załodze okrętu w podejmowaniu decyzji podczas rutynowych operacji i działań wojennych. System będzie przetwarzać duże ilości danych pozyskiwanych z czujników okrętu podwodnego lub innych systemów obserwacyjnych. Technologia pozwoli szybciej i skuteczniej wykrywać wrogie jednostki, zwiększy wydajność i czujność załogi oraz zastąpi ją w niektórych czynnościach.
Możliwe, że jest to krok w kierunku pierwszych bezzałogowych okrętów podwodnych sterowanych zdalnie, lub takich, które będą obsługiwane przez sztuczną inteligencję. Chińscy naukowcy wskazują, że armia nie będzie zmniejszać liczebności załóg gdy powstaną nowe inteligentne systemy komputerowe dla okrętów podwodnych.
Państwo Środka nie jest odosobnione w swoich dążeniach, koncern zbrojeniowy Kałasznikow stawia na specjalne moduły sztucznej inteligencji. Za kilka lat produkowana przez rosyjską firmę broń będzie zdolna do podejmowania autonomicznych decyzji na polu walki. Przykładowo, ciężki karabin maszynowy z odpowiednim modułem mógłby podejmować decyzję o tym, czy należy otworzyć ogień znacznie szybciej niż operująca nim załoga. Sieć takich karabinów, wymieniająca się zdobytą wiedzą, potrafiłaby spełniać swoje zadanie z jeszcze większą precyzją, 24 godziny na dobę, bez miejsca na błąd.