La tensione tra l'amministrazione Trump e le aziende di intelligenza artificiale raggiunge il tribunale federale. Microsoft ha deciso di schierarsi apertamente dalla parte di Anthropic, presentando una memoria legale contro le decisioni della Casa Bianca. L'origine del conflitto risale al 5 marzo, quando il governo americano ha etichettato Anthropic come una minaccia per la sicurezza della catena di approvvigionamento tecnologico nazionale. Una settimana dopo, il Pentagono ha ordinato a tutte le divisioni militari di eliminare i sistemi di intelligenza artificiale prodotti dall'azienda entro un termine massimo di 180 giorni.
Al cuore della disputa c'è uno scontro di principi. I fondatori di Anthropic, i fratelli italo-americani Dario e Daniela Amodei, hanno categoricamente rifiutato le richieste del Pentagono di allentare le protezioni incorporate nel loro modello linguistico Claude. Il governo voleva utilizzare questa tecnologia in scenari bellici completamente autonomi, senza alcun intervento umano, oltre a impiegarla per operazioni di sorveglianza su larga scala della popolazione civile americana. Richieste che Anthropic ha respinto sulla base di considerazioni etiche e di sicurezza, accettando il prezzo politico di questa decisione.
La rappresaglia non ha tardato ad arrivare. L'esclusione dagli appalti federali rappresenta una sanzione economica significativa per qualsiasi azienda tecnologica. Anthropic non è rimasta passiva e ha avviato procedimenti legali per contestare questa esclusione discriminatoria. Ora Microsoft, che pure ha fornito i propri servizi Azure alle forze armate israeliane per operazioni a Gaza, ha ritenuto opportuno intervenire pubblicamente in difesa dei principi in gioco. Nel documento presentato al tribunale, il colosso di Redmond sostiene che utilizzare strumenti normativi di sicurezza per risolvere dispute commerciali crea pericolosi precedenti e genera effetti economici dannosi per l'interesse collettivo.
Il contesto geopolitico complica ulteriormente la vicenda. Secondo quanto riportato dal Guardian, Claude avrebbe partecipato al coordinamento dell'operazione militare che ha portato alla cattura del presidente venezuelano Nicolás Maduro. Il Wall Street Journal, dal canto suo, ha documentato il ruolo della piattaforma nella progettazione di attacchi contro obiettivi iraniani. Questi episodi sottolineano come l'intelligenza artificiale sia già implicata in operazioni militari significative, rendendo ancora più rilevante il dibattito sui limiti etici del suo utilizzo.
La posizione di Microsoft rappresenta una frattura nell'alleanza tecnologica con Washington. L'azienda ha storicamente mantenuto un profilo cauto nelle questioni governative, privilegiando la discrezione negli affari pubblici. Questa volta, però, ha scelto di rendersi protagonista di una battaglia legale per principi, affermando che le linee rosse etiche—no alla sorveglianza di massa, no ai sistemi d'arma completamente autonomi—devono rimanere non negoziabili. Una posizione che potrebbe ispirare altre aziende tecnologiche a interrogarsi sui propri valori quando costrette a sceglierne.