L'esercito americano sta accelerando l'implementazione di tecnologie di intelligenza artificiale a ritmi superiori alle capacità di verifica e controllo. Secondo uno studio del Brennan Center for Justice, questa corsa contro il tempo nasconde pericoli concreti: algoritmi non adeguatamente validati potrebbero portare a selezioni errate di obiettivi militari, con conseguenze devastanti per le popolazioni civili. Il Pentagono ha già richiesto 13,4 miliardi di dollari per il bilancio del 2026 destinati specificamente a sistemi autonomi basati su AI, cifra che evidenzia l'entità dell'investimento in questo settore.

Lo scenario più preoccupante riguarda il modo in cui questi strumenti vengono integrati non solo nelle operazioni di combattimento, ma anche in sorveglianza, manutenzione logistica, gestione della catena di approvvigionamento e funzioni amministrative. Proprio questa pervasività amplifica i rischi potenziali. Nel contesto dei recenti conflitti, almeno 1.332 civili hanno perso la vita con circa 3.000 obiettivi colpiti grazie al supporto di sistemi di intelligence. In uno degli episodi più gravi, un attacco a una scuola femminile iraniana ha causato oltre 175 morti tra studentesse e personale. Sebbene rimanga ancora incerto il ruolo specifico di piattaforme come Claude di Anthropic in simili operazioni, la questione evidenzia come la tecnologia sia già operativa in scenari a elevato rischio.

Il fulcro della critica del Brennan Center riguarda una convinzione ampiamente diffusa tra i sostenitori dell'AI militare: la presenza di supervisione umana garantirebbe sicurezza e responsabilità. In teoria, comandanti e operatori dovrebbero sottoporre ogni raccomandazione fornita dagli algoritmi a un controllo indipendente prima di autorizzare qualsiasi azione. La realtà, però, si discosta significativamente da questa visione ideale.

Ricerche nel campo della psicologia comportamentale hanno identificato un fenomeno denominato "bias dell'automazione": quando un sistema tecnologico presenta una soluzione apparentemente fondata su analisi objective e algoritmi sofisticati, gli esseri umani tendono a conferire fiducia eccessiva, abbassando le difese critiche. In un contesto militare dove i tempi decisionali sono compressi e la pressione operativa è estrema, questo bias si manifesta con ancora maggiore intensità. Gli analisti spiegano come il personale militare, nel fidarsi troppo delle indicazioni dell'IA, finisca per ridurre sostanzialmente il controllo effettivo che dovrebbe esercitare.

Le implicazioni vanno oltre i soli rischi di uccisioni indiscriminate. Lo studio evidenzia come l'espansione incontrollata dell'AI militare possa determinare arresti arbitrari, erosione progressiva delle libertà civili e violazioni della privacy su scala massiccia, tutto operato dalle forze armate della potenza militare globale dominante. I ricercatori del Brennan Center ritengono fondamentale invertire la rotta, introducendo requisiti rigorosi di testing, trasparenza documentata e verifiche indipendenti prima di autorizzare il dispiegamento di nuovi sistemi autonomi in qualsiasi contesto operativo.