Chiny tworzą broń AI, która potrafi wyjaśnić swoje decyzje bojowe

Naukowcy z Państwa Środka opracowują inteligentny system walki powietrznej, który potrafi wyjaśnić proces podejmowania decyzji w bitwach. To rozwiązuje problem tzw. czarnej skrzynki AI, który jest przeszkodą dla rozwoju tego typu uzbrojenia.

Autonomiczne AI coraz bliżej? Chińczycy sprawili, że sztuczna inteligencja jest w stanie wyjaśnić podejmowane decyzje
Autonomiczne AI coraz bliżej? Chińczycy sprawili, że sztuczna inteligencja jest w stanie wyjaśnić podejmowane decyzje123RF/PICSEL

Jedną z istotnych przeszkód na drodze do rozwoju sztucznej inteligencji jest brak akceptacji i zaufania społecznego, zwłaszcza jeśli chodzi o jej wojskowe zastosowania. To właśnie z tego powodu kolejne kraje decydują się na oficjalne rozstrzygnięcia w tym zakresie i wystarczy tylko wspomnieć, że w Unii Europejskiej rozwiązania oparte o AI nie mogą działać autonomicznie. Za każdą podejmowaną decyzją musi stać człowiek, który bierze za nią odpowiedzialność, co wynika m.in. z problemu tzw. czarnej skrzynki.

O co tu chodzi? O to, że sztuczna inteligencja nie zawiera w swoim sposobie funkcjonowania informacji o tym, jak osiągnęła postawiony przed nią cel i na jakiej podstawie podejmowała decyzje. I to właśnie próbują zmienić chińscy naukowcy, którzy stworzyli wojskowe AI, które jest w stanie wyjaśnić podejmowane przez siebie na polu bitwy decyzje. Jak informuje South China Morning Post, ten inteligentny system walki powietrznej zapewnia wgląd w swoje strategiczne rozumowanie, zwiększając zrozumienie AI i poprawiając współpracę z człowiekiem w krytycznych operacjach wojskowych.

AI potrafi wyjaśnić podejmowane decyzje

I jeśli tak faktycznie jest, mamy do czynienia z przełomem, którego nie były w stanie dokonać nawet Stany Zjednoczone. Co prawda USA jako pierwsze zainicjowały integrację sztucznej inteligencji z walką powietrzną, ale nie informowały głośno, że przezwyciężyły te wyzwania związane ze sztuczną inteligencją w swoim nowym myśliwcu F-16 wyposażonym w AI, więc teraz rywalizacja na linii Pekin-Waszyngton na pewno nabierze nowych kolorów.

Warto tu dodać, że inteligentna walka powietrzna staje się coraz bardziej powszechna, a jednym z kluczowych sposobów podejmowania decyzji w tych bitwach jest głębokie uczenie się przez wzmacnianie. Jednak metoda ta wiąże się z wyzwaniami, ponieważ przypomina "czarną skrzynkę", tzn. znamy punkt wejścia i rezultat, ale nie mamy wyjaśnienia strategii, co utrudnia  zrozumienie intencji i zaufanie do decyzji.

AI bierze sobie krytykę do serca

Aby stawić czoła tym problemom, nowa metoda wykorzystuje wytłumaczalne uczenie się przez wzmacnianie, tzn. buduje modele wyjaśniające strategie i rozpoznające intencje. Następnie oblicza, jak ważne są decyzje i prawdopodobieństwo zaistnienia intencji, dzięki czemu proces podejmowania decyzji jest łatwiejszy do zrozumienia. Na koniec dostosowuje algorytm uczenia się głębokiego wzmacniania w oparciu o te interpretacje.

W przeciwieństwie do tradycyjnych systemów, ten może wyjaśnić każdą instrukcję wysyłaną do kontrolera lotu za pomocą prostego języka, danych i wykresów. Może także wyjaśnić znaczenie każdej dyrektywy, wyszczególniając aktualną sytuację bojową, konkretne manewry lotu i zamierzenia strategiczne.

Zespół odkrył również, że technologia ta stwarza dla pilotów-ludzi nową możliwość współpracy z sztuczną inteligencją, np. w podsumowaniu po symulacji doświadczony pilot może zidentyfikować wskazówki stojące za błędami sztucznej inteligencji, a AI może zrozumieć sugestie i uniknąć podobnych błędów w przyszłych bitwach.

INTERIA.PL
Masz sugestie, uwagi albo widzisz błąd?
Dołącz do nas