Trump zakazał używania tego AI. Armia wykorzystała je do ataku na Iran
Kilka godzin po tym, jak prezydent Donald Trump wydał rozkaz, by wszystkie federalne agencje zaprzestały korzystania z modeli AI firmy Anthropic, w tym Claude, amerykańskie wojsko… użyło tego narzędzia podczas dużej operacji militarnej przeciwko Iranowi. Według najnowszych doniesień model był zaangażowany w analizę wywiadowczą, wybór celów oraz symulacje bitewne związane z bombardowaniem tego kraju.

Donald Trump już wielokrotnie pokazywał, że jedno mówi, a drugie robi i ponownie mamy okazję się o tym przekonać. Okazuje się bowiem, że system sztucznej inteligencji Claude firmy Anthropic był zaangażowany w przygotowania poprzedzające atak na Iran, chociaż amerykański prezydent oficjalnie nakazał zaprzestania jego używania.
Zakaz, który nie zatrzymał Claude'a
Decyzja Donalda Trumpa o natychmiastowym zerwaniu współpracy z Anthropic wynikała z narastającego konfliktu między Pentagonem a firmą na tle wykorzystania sztucznej inteligencji w środowisku wojskowym. Prezydent USA nakazał federalnym instytucjom zaprzestać korzystania z modeli Claude, określając kierownictwo Anthropic mianem "lewicowych wariatów" i wskazując, że decyzja o tym, jak używana jest AI w interesie narodowym, należy do dowództwa państwa.
Konflikt rozpoczął się jednak wcześniej, gdy Anthropic odmówiło usunięcia ograniczeń w wykorzystywaniu swojego modelu do masowej inwigilacji obywateli USA oraz w pełni autonomicznych systemów uzbrojenia. Firma tłumaczyła, że obecna technologia nie jest jeszcze wystarczająco bezpieczna, by podejmować decyzje o użyciu siły bez udziału człowieka.
Claude nadal w akcji
Mimo oficjalnego zakazu, Claude nadal był wykorzystywany przez siły zbrojne, co pokazuje, że albo niektóre "decyzje" amerykańskiego prezydenta są jedynie na pokaz, albo trudności w szybkim wycofaniu narzędzi sztucznej inteligencji z krytycznych środowisk operacyjnych, gdzie są głęboko zintegrowane z cyklem planowania i realizacji misji.
Anthropic zapowiedziało też, że będzie kwestionować decyzje amerykańskiej administracji w sądzie, twierdząc, że zakaz jest bezprecedensowy i narusza zasady umowy oraz wolność prowadzenia działalności badawczo-rozwojowej. Firma podkreśliła, że jej polityka dotycząca Claude'a nie zabrania jego użycia dla celów obronnych, jedynie wyklucza określone zastosowania, które uznaje za nieetyczne.
W tle konfliktu pojawiają się również inni dostawcy AI. Już wcześniej model Grok od xAI został dopuszczony do działań w zabezpieczonych środowiskach Pentagonu, a OpenAI ogłosiło porozumienie z Departamentem Obrony (zwanym ostatnio Departamentem Wojny) na wdrożenie swoich narzędzi w sieciach wojskowych, co sugeruje, że administracja USA szuka sposobów utrzymania zaawansowanych systemów AI w codziennej działalności. Według doniesień Wall Street Journal zastąpienie AI firmy Anthropic innymi modelami sztucznej inteligencji zajmie jednak długie miesiące, co w obliczu działań USA na Bliskim Wschodzie wydaje się wiecznością.









