Pentagon stawia na zabójcze maszyny. AI zdecyduje, kto zasługuje na śmierć
Dyskusja o sztucznej inteligencji decydującej o życiu i śmierci na polu walki przestaje być teoretyczna. Coraz więcej krajów wyraża obawy dotyczące "zabójczych maszyn", ale inne mocno stawiają na ich rozwój, jak np. Stany Zjednoczone.
O sztucznej inteligencji samodzielnie identyfikującej cele i decydującej, w którym momencie "pociągnąć za spust", mówiło się coraz więcej już na długo przed inwazją Rosji na Ukrainę, ale była to dyskusja czysto teoretyczna i dotycząca potencjalnych rozwiązań przyszłości. Kiedy jednak pojawiły się doniesienia sugerujące, że Kreml wysłał do walki drony-kamikadze KUB-BLA od ZALA Areo, które według deklaracji producenta są zdolne do autonomicznej identyfikacji celów z wykorzystaniem AI, zapaliła się czerwona lampka ostrzegawcza. Bo skoro takie możliwości są, to najpewniej się z nich korzysta, prawda?
To nie przyszłość, to dzieje się już teraz
Oficjalnych dowodów na używanie tego rodzaju w konfliktach zbrojnych jeszcze nie ma, ale ONZ podejrzewa jej wykorzystanie w czasie wojny domowej w Libii. I podobnego zdania są niektórzy eksperci, jak choćby Zachary Kallenborn z National Consortium for the Study of Terrorism and Responses to Terrorism (START), który przekonuje, że "wizja robota-zabójcy, gdzie mamy sztuczną inteligencję połączoną z bronią, ta technologia już tu jest i jest wykorzystywana". Kolejny zimny prysznic przyszedł pod koniec ubiegłego roku, kiedy izraelska firma Elbit Systems zaprezentowała swoje nowe małe autonomiczne drony-kamikadze o nazwie Lanius, zaprojektowane do samodzielnego przeszukiwania budynków i identyfikacji wrogów na polu bitwy.
Dowiedzieliśmy się wtedy, że drony są w stanie samodzielnie wlatywać do budynków, wykrywając po drodze przeszkody, by sprawdzić je pod kątem obecności człowieka i w razie "spotkania" dokonać klasyfikacji według kryteriów: przychylny czy wrogi, cywil czy żołnierz, nieuzbrojony czy uzbrojony. I chociaż producent przekonywał, że w pętli decyzyjnej zawsze jest człowiek, system mógłby działać w pełni autonomicznie.
Ograniczenia dla zabójczych dronów AI? USA mówią nie
Mówiąc krótko, rozmieszczenie dronów sterowanych przez sztuczną inteligencję, które mogą podejmować autonomiczne decyzje o zabijaniu ludzkich celów, zbliża się do rzeczywistości. Zwłaszcza że tego typu rozwiązania rozwijane są nie tylko przez Rosję i Izrael, ale i Chiny czy Stany Zjednoczone, które coraz silniej przeciwstawiają się próbom regulacji podobnych technologii. Warto bowiem wyjaśnić, że coraz więcej krajów lobbuje w ONZ na rzecz wiążącej rezolucji ograniczającej użycie dronów-zabójców AI, ale jak podaje The New York Times, USA należą do grupy sprzeciwiającej się takiemu posunięciu.
To naprawdę jeden z najważniejszych punktów zwrotnych dla ludzkości. Jaka jest rola ludzi w użyciu siły - to absolutnie podstawowa kwestia bezpieczeństwa, kwestia prawna i kwestia etyczna.
Tymczasem jak wynika z zawiadomienia opublikowanego na początku tego roku, Pentagon pracuje nad rozmieszczeniem rojów tysięcy dronów wyposażonych w sztuczną inteligencję. W sierpniowym przemówieniu zastępca sekretarza obrony USA Kathleen Hicks powiedziała, że technologie takie jak roje dronów kontrolowane przez sztuczną inteligencję umożliwią Stanom Zjednoczonym zrównoważenie przewagi liczebnej Chińskiej Armii Ludowo-Wyzwoleńczej (PLA) pod względem broni i ludzi.
Frank Kendall, sekretarz sił powietrznych, powiedział zaś The Times, że Stany Zjednoczone nie mogą nakładać na siebie ograniczeń dotyczących oddawania decyzyjności w ręce AI, bo "nie sądzę, że ludzie, z którymi mielibyśmy się zmierzyć, zrobiliby coś takiego, a jeśli nałożymy na siebie takie ograniczenie, dałoby im to ogromną przewagę".
Warto też przypomnieć, że dziennik The New Scientist twierdził w październiku, że drony sterowane przez sztuczną inteligencję zostały już rozmieszczone na polu bitwy przez Ukrainę, choć nie jest jasne, czy którekolwiek z nich podjęły działania skutkujące ofiarami w ludziach.