Le macchine hanno fatto il loro debutto ufficioso nei conflitti contemporanei. Secondo quanto ricostruito da fonti giornalistiche internazionali, il modello di intelligenza artificiale Claude, creato dall'azienda californiana Anthropic, è stato impiegato per elaborare informazioni di intelligence e creare simulazioni strategiche durante la pianificazione dei raid contro il regime iraniano. La tecnologia avrebbe permesso di ridurre drasticamente quella che gli esperti militari definiscono la "catena delle uccisioni": il periodo che intercorre tra l'identificazione di un potenziale bersaglio e l'autorizzazione finale dell'attacco.

Siamo di fronte a un cambiamento radicale nella velocità decisionale. I sistemi costruiti dalla società Palantir, che intrattiene contratti milionari con il Pentagono americano, integrano algoritmi linguistici avanzati capaci di processare in tempo reale quantità enormi di dati: immagini acquisite da droni, conversazioni intercettate, rapporti dei servizi segreti. Una volta elaborati questi flussi informativi, il software identifica potenziali obiettivi, li classifica in ordine di priorità e suggerisce quale tipo di armamento utilizzare, considerando pure le risorse disponibili e l'efficacia di precedenti operazioni. L'IA può addirittura esaminare autonomamente se un'azione militare possiede le basi legali necessarie.

Israele ha già sperimentato sistemi analoghi durante l'operazione nella Striscia di Gaza, mentre gli Stati Uniti hanno coordinato centinaia di bombardamenti nel corso della recente offensiva contro Teheran, incluso uno che ha colpito una scuola primaria provocando centinaia di vittime civili. La compressione dei tempi di decisione è reale e misurabile. Craig Jones, ricercatore di strategie militari presso l'università di Newcastle, ha spiegato ai media britannici che "gli algoritmi producono indicazioni su quali strutture attaccare molto più rapidamente di quanto possa fare il ragionamento umano". Operazioni che una volta richiedevano giorni o settimane di preparazione possono ora essere vagliate e autorizzate nel giro di poche ore.

Ma il progresso tecnologico nasconde insidie non trascurabili. David Leslie, docente di etica e tecnologie presso la Queen Mary University di Londra, mette in guardia dalla tentazione di un'eccessiva fiducia nelle indicazioni fornite dalle macchine. Il rischio concreto è lo sviluppo di quello che gli studiosi chiamano "distacco cognitivo": una condizione in cui i vertici militari responsabili delle decisioni avvertono una diminuzione di coinvolgimento personale rispetto alle conseguenze letali dei loro ordini. Quando la macchina fornisce le risposte, la responsabilità umana tende a svanire nelle ombre dell'algoritmo.

Intanto, sulla sponda opposta dell'Atlantico, la situazione interna agli USA evidenzia tensioni significative. L'azienda Anthropic si trova in contrasto pubblico con l'amministrazione Trump proprio sull'utilizzo dei suoi strumenti tecnologici nei sistemi di difesa del Pentagono. Uno scontro che rivela come, sebbene la tecnologia sia già pienamente operativa sui campi di battaglia, il dibattito etico e politico intorno al suo impiego rimane tutt'altro che concluso.