Algorytmy chcą wojny jądrowej? Wyniki mogą niepokoić
Eksperyment z modelami językowymi AI pokazał, że w sytuacjach napięcia międzynarodowego maszyny mogą eskalować konflikty do poziomu użycia broni jądrowej. Naukowcy zauważyli, że algorytmy potrafią rozważać decyzje strategiczne łącząc pozorne sygnały pokojowe z równoczesnym przygotowaniem do ataku.

Czy w czasie realnego konfliktu sztuczna inteligencja zawahałaby się przed użyciem broni jądrowej? To pytanie przestało być wyłącznie domeną literatury science fiction. Prof. Kenneth Payne z King's College London postanowił sprawdzić to w praktyce. W symulowanych grach wojennych trzy zaawansowane modele językowe - GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash - otrzymały rolę światowych przywódców w czasie kryzysu nuklearnego. Wynik eksperymentu chyba może niepokoić.
AI i broń jądrowa. Symulacja, która niepokoi
Badacze rozegrali 21 scenariuszy obejmujących spory terytorialne, zagrożenie przetrwania reżimu czy kryzysy pierwszego uderzenia, gdy jedna ze stron obawia się nadchodzącego ataku. Każdy model przed wykonaniem ruchu musiał przejść trzy etapy: refleksję nad własnymi i cudzymi możliwościami, prognozę zachowania przeciwnika oraz decyzję. Co istotne, decyzja składała się z sygnału publicznego i działania prywatnego. Model mógł deklarować chęć deeskalacji, a jednocześnie potajemnie przygotowywać atak.
W 95 procentach symulacji co najmniej jedna z "głowic" została użyta. To nie pojedynczy incydent, lecz dominujący wzorzec. Claude okazał się najbardziej wyrachowany w scenariuszach bez ograniczeń czasowych, ale gubił się pod presją terminu. GPT-5.2 był ostrożny w powolnych kryzysach, jednak w obliczu deadline'u stawał się wyraźnie agresywny. Gemini reagował najmniej przewidywalnie, lawirując między sygnałami pokojowymi a groźbą przemocy.
Czy algorytm rozumie wojnę inaczej niż człowiek?
Prof. Payne zwraca uwagę na fundamentalną różnicę między ludzkim a maszynowym myśleniem strategicznym. - Zrozumienie, w jaki sposób modele graniczne naśladują, a w jaki nie naśladują ludzkiej logiki strategicznej, jest kluczowym przygotowaniem na świat, w którym sztuczna inteligencja coraz częściej kształtuje wyniki strategiczne - podkreśla naukowiec.
To zdanie wybrzmiewa szczególnie mocno w kontekście faktu, że modele potrafiły rozdzielać deklaracje od realnych działań. W świecie dyplomacji takie rozminięcie bywa elementem gry. W świecie algorytmów może stać się czystą optymalizacją wyniku.
95 procent scenariuszy z eskalacją
Choć eksperyment obejmował jedynie 21 gier, jego wymowa jest jednoznaczna. - Modele, które w jednym kontekście wydają się bezpiecznie powściągliwe, w innym mogą zachowywać się zupełnie inaczej - jak zaznacza autor pracy.
Nie oznacza to, że AI "chce" wojny. Oznacza natomiast, że w określonych warunkach strategicznych logika maksymalizacji korzyści i minimalizacji ryzyka może prowadzić do eskalacji, także nuklearnej. A skoro tak, pytanie nie brzmi już, czy sztuczna inteligencja zawaha się użyć broni jądrowej. Pytanie brzmi, kto i w jakich ramach pozwoli jej kiedykolwiek podejmować takie decyzje.
Źródło: phys.org
Publikacja: Kenneth Payne, "AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises", arXiv (2026), DOI: 10.48550/arxiv.2602.14740.









