
Le vittime diventano numeri, gli operatori validatori e i politici si rifugiano dietro algoritmi che non giudicano, ma decidono comunque.
L’intelligenza artificiale entra sempre più profondamente nelle operazioni militari statunitensi. L’Operazione Epic Fury, condotta contro obiettivi iraniani, sarebbe stata pianificata anche con il supporto del modello Claude, sviluppato da Anthropic. Un dettaglio non secondario: poche ore prima dell’attacco, l’amministrazione di Donald Trump aveva inserito l’azienda in una blacklist federale, ordinando alle agenzie governative di cessarne l’utilizzo.
Secondo il The Wall Street Journal, Claude sarebbe stato impiegato per analisi di intelligence, identificazione dei bersagli e simulazioni di scenari operativi in vista degli attacchi statunitensi e israeliani contro l’Iran. Il modello sarebbe stato integrato attraverso la partnership tra Anthropic e Palantir Technologies, storico fornitore del Pentagono per l’analisi e la fusione dei dati.
La contraddizione è evidente: mentre la Casa Bianca attaccava pubblicamente Anthropic definendola «radicale di sinistra», il comando militare ne utilizzava la tecnologia per pianificare operazioni di guerra.
Il segretario alla Difesa Pete Hegseth aveva bollato Anthropic come potenziale rischio per la sicurezza nazionale nella catena di approvvigionamento — una classificazione finora riservata a imprese straniere. La decisione era seguita alla richiesta dell’azienda di ottenere garanzie formali: niente sorveglianza di massa sui cittadini statunitensi, niente integrazione in armi completamente autonome.
Eppure, secondo le ricostruzioni, lo United States Central Command (CENTCOM) avrebbe continuato a usare Claude per l’operazione su Teheran, con un periodo di eliminazione graduale di sei mesi. Il messaggio politico e la prassi operativa sembrano procedere su binari separati.
Non si conoscono i dettagli tecnici dell’integrazione, ma è plausibile che il modello sia stato inserito nel Maven Smart System e nella Artificial Intelligence Platform (AIP) di Palantir, che aggregano dati satellitari, sensori e fonti multiple in un’unica interfaccia operativa. In questo contesto, l’IA non “decide”, ma orienta: individua pattern, suggerisce priorità, genera scenari. Quanto questo orientamento incida sulle decisioni finali resta però una domanda aperta.
Un precedente risale a gennaio, quando lo United States Southern Command (SOUTHCOM) avrebbe utilizzato Claude nell’operazione Absolute Resolve in Venezuela, culminata nel rapimento del presidente Nicolás Maduro e della first lady Cilia Flores. Anche in quel caso, l’accesso sarebbe avvenuto tramite l’infrastruttura Palantir.
Formalmente, l’uso di Claude non violerebbe le linee rosse fissate da Anthropic. Ma il punto non è solo normativo: è strutturale.
L’amministratore delegato Dario Amodei ha dichiarato che il modello non possiede giudizio umano e che un suo impiego autonomo comporterebbe rischi significativi. Tuttavia, nella pratica operativa, il problema non è l’autonomia totale, bensì l’“automation bias”: la tendenza degli operatori a fidarsi delle raccomandazioni algoritmiche anche quando restano formalmente “nel circuito decisionale”.
Esperienze precedenti mostrano quanto sottile sia la linea tra supervisione e ratifica automatica. Resoconti sull’uso israeliano del sistema Lavender — che assegna punteggi di sospetto sulla base di analisi dati — suggeriscono che la revisione umana possa ridursi a un controllo formale, non sostanziale. Se l’IA propone e l’operatore approva, chi risponde in caso di errore?
Il Diritto Internazionale Umanitario si applica anche ai sistemi d’arma autonomi, almeno sul piano teorico. Ma mancano meccanismi vincolanti di enforcement. La responsabilità rischia di dissolversi in una catena opaca di sviluppatori, analisti e comandanti.
Intanto anche OpenAI ha siglato un contratto con il Pentagono. Il mercato della difesa si sta rapidamente trasformando in un mercato dell’IA.
L’integrazione dell’IA nelle operazioni militari produce conseguenze che vanno oltre il campo di battaglia. Negli attacchi di ritorsione iraniani, i data center sono diventati obiettivi strategici.
In Bahrain, un data center di Amazon Web Services ha registrato interruzioni di corrente e connettività durante attacchi contro asset statunitensi. Negli Emirati Arabi Uniti, un’altra struttura AWS sarebbe stata colpita direttamente, con conseguente chiusura temporanea.
Il segnale è chiaro: le infrastrutture digitali sono ormai equiparabili alle infrastrutture energetiche in termini di valore strategico. Stati come Emirati Arabi Uniti e Arabia Saudita stanno investendo massicciamente nell’IA per diversificare le proprie economie e rafforzare la proiezione geopolitica. Ma più l’IA diventa asset strategico, più diventa bersaglio.
L’Operazione Epic Fury mostra dunque una doppia trasformazione: l’IA non è più solo uno strumento di supporto, ma una componente strutturale della pianificazione militare; al tempo stesso, le sue infrastrutture diventano parte integrante del teatro di guerra.
La domanda non è più se l’intelligenza artificiale entrerà nei conflitti, ma quanto rapidamente ne ridefinirà regole, responsabilità e vulnerabilità.
Apr news
Andreja Restek
Categorie:Cronaca, Esteri, Inchieste Varie, Personaggi, Politica, Terrorismo Gruppi
Lascia un commento