L'amministrazione Trump aveva ordinato lo stop immediato ai sistemi di Anthropic presso tutte le agenzie federali, ma la realtà operativa del Pentagono racconta una storia diversa. Durante la conferenza AIPcon 9 di Palantir, l'amministratore delegato Alex Karp ha confermato in diretta a CNBC che i modelli linguistici di Anthropic continuano a funzionare nelle infrastrutture difensive statunitensi, nonostante le sanzioni e la designazione dell'azienda come potenziale rischio per la catena di approvvigionamento militare. Palantir, la piattaforma di analisi dati fondata nel 2003 e utilizzata da agenzie di intelligence e forze armate, ha integrato Claude in profondità nei suoi sistemi, e una rimozione immediata comporterebbe conseguenze operative significative.
La contraddizione emerge chiara dalle stesse comunicazioni della Casa Bianca. A fine febbraio, Trump aveva ordinato a ogni agenzia federale di interrompere immediatamente l'uso della tecnologia Anthropic, ma nello stesso messaggio ha concesso una proroga di sei mesi alle agenzie dove questo ricorso è già radicato, prima fra tutte il Dipartimento della Difesa. Il Segretario alla Difesa Pete Hegseth ha successivamente precisato che il Pentagono avrà tempo fino a sei mesi per completare una transizione ordinata verso fornitori alternativi, ma il tempo non è certo sufficiente per rimpiazzare un sistema così profondamente integrato.
Emil Michael, direttore tecnico della Difesa, ha dichiarato ai microfoni di CNBC che smantellare dall'oggi al domani un'infrastruttura così complessa è tecnicamente impraticabile. Attualmente, Claude rappresenta l'unica soluzione approvata per operare in determinati ambienti classificati del Dipartimento della Difesa e, secondo le informazioni riportate da Axios, continua a supportare operazioni critiche in Iran. Sorge però una domanda legittima: come può un'azienda classificata come rischio per la sicurezza della catena di approvvigionamento continuare ad avere accesso a infrastrutture militari classificate per sei mesi ancora?
Intanto, il Pentagono ha firmato recentemente nuovi contratti con xAI e OpenAI, segnalando l'intenzione di diversificare i fornitori di intelligenza artificiale. Ma il passaggio da una soluzione all'altra, specie in contesti operativi sensibili, richiede collaudi approfonditi, ricertificazioni di sicurezza e riqualificazione del personale. La finestra temporale concessa sembra insufficiente per garantire che la transizione avvenga senza compromessi sulla continuità operativa, creando una zona grigia dove la tecnologia Anthropic rimane de facto indispensabile, nonostante il divieto politico dichiarato.