Un tribunale federale californiano ha dato ragione ad Anthropic, azionando i freni su uno dei provvedimenti più controversi della nuova amministrazione Trump nei confronti dell'industria dell'intelligenza artificiale. La giudice Rita F. Lin ha annullato il divieto che il Dipartimento della Difesa aveva imposto a inizio marzo, quando aveva inserito la società tra i fornitori considerati una minaccia per la catena di approvvigionamento nazionale, ordinando a tutti i contractor e le agenzie federali di cessare immediatamente l'utilizzo dei modelli Anthropic.

La radice dello scontro affonda nelle scelte etiche di Anthropic, che ha rifiutato di autorizzare l'impiego dei propri algoritmi in sistemi d'armamento completamente autonomi o in programmi di sorveglianza interna. Il Pentagono aveva controbattuto sostenendo che tali restrizioni fossero superflue, dato che la legislazione militare americana già le contemplava. Tuttavia, il giudice ha ritenuto questa argomentazione insufficiente, osservando che se il vero problema fosse stato operativo, l'amministrazione avrebbe potuto semplicemente astenersi dall'usare Claude senza necessità di una designazione formale di rischio sistemico.

Ciò che ha particolarmente colpito la corte è stato il profilo politico del provvedimento. Nella sentenza, la giudice ha scritto che le misure sembrano mirate a punire specificamente Anthropic, suggerendo una possibile ritorsione governativa contro le prese di posizione pubbliche dell'azienda. Un elemento che solleva bandiere rosse rispetto al Primo Emendamento della Costituzione americana, il quale protegge dal ricorso punitivo dello stato contro chi esercita il diritto di parola e critica.

Non è passato nemmeno inosservato un difetto procedurale: durante l'udienza è emerso che il governo non aveva rispettato integralmente i protocolli previsti per designare un soggetto come minaccia alla supply chain, che includono il coinvolgimento del Congresso e l'esame di alternative meno drastiche. La sentenza ordina l'immediata sospensione delle restrizioni e chiede all'amministrazione di presentare un rapporto entro il 6 aprile mostrando come intende conformarsi alla decisione.

Per Anthropic il bilancio dei danni è pesante: centinaia di milioni di dollari sono andati persi con contratti cancellati, ridimensionati o congelati. Nonostante la vittoria in tribunale, l'azienda rimane in una posizione delicata con un'amministrazione che ha già annunciato l'intenzione di ricorrere in appello. Il contrasto con il trattamento riservato a OpenAI, che ha invece siglato un accordo di cooperazione con il Pentagono mantenendo protezioni simili a quelle rivendicate da Anthropic, alimenta il dibattito sulla trasparenza delle scelte governative nel settore dell'intelligenza artificiale.