La startup Anthropic ha intentato una causa contro il governo degli Stati Uniti contestando la designazione come "rischio per la catena di approvvigionamento", un provvedimento che ordina a tutte le agenzie federali di cessare l'utilizzo dei suoi modelli Claude entro sei mesi. A sorpresa della comunità tech, 37 professionisti provenienti da Google e OpenAI hanno deciso di appoggiare pubblicamente questa battaglia legale, depositando una mozione congiunta presso il tribunale competente.

Secondo Anthropic, l'amministrazione federale avrebbe agito in modo punitivo e incostituzionale. Il conflitto nasce dal rifiuto della società di rimuovere due limitazioni critiche dai suoi sistemi di intelligenza artificiale: il divieto di utilizzo per la sorveglianza di massa dei cittadini americani e l'impossibilità di impiego per armi completamente autonome. Quando il governo ha preteso che questi blocchi fossero eliminati, Anthropic ha preferito resistere, confidando nella legittimità delle proprie scelte etiche.

L'azienda contesta la legalità stessa del provvedimento, evidenziando come sia stato emesso senza valutazione dei rischi, senza comunicazione al Congresso e senza concedere un'opportunità di risposta. Inoltre, sostiene che il blocco va ben oltre un singolo dipartimento, interessando invece tutte le strutture governative. Per questi motivi, Anthropic chiede al tribunale di sospendere o revocare completamente il ban.

La mozione sottoscritta dai ricercatori di Google e OpenAI articola tre obiezioni fondamentali. Innanzitutto, sostengono che il ricorso al potere amministrativo risulta arbitrario e dannoso per l'intera industria dell'intelligenza artificiale. In secondo luogo, affermano che i criteri etici stabiliti da Anthropic sono ampiamente condivisi dalla comunità scientifica: i sistemi attuali non possiedono ancora la capacità di gestire autonomamente operazioni militari o monitoraggi su larga scala senza rischi significativi. Infine, sottolineano i pericoli concreti: la sorveglianza di massa renderebbe fragile la privacy collettiva, mentre le armi autonome non riuscirebbero a distinguere in modo affidabile tra combattenti e civili.

Questa presa di posizione rappresenta un momento inusuale di alleanza tra dipendenti di aziende competitor, uniti dalla convinzione che il governo abbia oltrepassato i suoi limiti costituzionali. La battaglia legale potrebbe stabilire precedenti importanti sulla capacità dello stato di regolamentare le tecnologie intelligenti e sulla tutela dei diritti delle imprese nel settore dell'IA.