Anthropic sfida Pentagono con azione legale sull’uso militare dell’intelligenza artificiale e libertà d’espressione

Anthropic fa causa al Pentagono: perché l’AI Claude sfida il bando USA
Anthropic, creatrice dell’AI Claude e fornitore chiave dell’esercito americano, ha citato in giudizio il Dipartimento della Guerra degli Stati Uniti a Washington.
La causa, avviata nel 2026, nasce dopo che il Pentagono ha classificato l’azienda come “rischio per la catena di approvvigionamento”, bloccandone l’uso nei programmi militari sensibili.
Secondo il CEO Dario Amodei, il bando è una rappresaglia politica per il rifiuto di consentire l’impiego di Claude nella sorveglianza di massa e nelle armi autonome letali, e viola le tutele costituzionali, in particolare il Primo Emendamento.
In sintesi:
- Anthropic porta in tribunale il Dipartimento della Guerra per il bando sull’AI Claude.
- Lo scontro nasce su sorveglianza di massa e armi autonome letali richieste dal Pentagono.
- La designazione come rischio di supply chain minaccia miliardi di dollari di contratti.
- OpenAI e xAI riempiono il vuoto lasciato da Anthropic nei programmi militari USA.
Al centro del contenzioso c’è un contratto da 200 milioni di dollari, siglato nel luglio 2025, che limitava l’uso di Claude nei teatri di guerra.
Anthropic aveva imposto clausole che vietavano l’impiego dell’AI per la sorveglianza di massa di cittadini americani e per lo sviluppo di sistemi d’arma letali completamente autonomi.
Il Pentagono ha chiesto di eliminare queste restrizioni per poter utilizzare Claude “per ogni scopo lecito”; di fronte al rifiuto, il Segretario della Guerra Pete Hegseth ha firmato il bando, sostenendo che “nessun civile può dettare le regole d’ingaggio” alle forze armate.
Il presidente Donald Trump ha esteso il divieto a tutte le agenzie federali, imponendo la dismissione graduale di Claude in sei mesi, pur riconoscendone il ruolo cruciale nelle operazioni in Iran.
Per Anthropic, è la prima volta che uno strumento usato per la sicurezza nazionale viene trattato come un fornitore ostile, al pari di aziende legate ad avversari geopolitici degli Stati Uniti.
La società contesta non solo l’impatto economico, ma il precedente politico e regolatorio che potrebbe ridefinire il rapporto tra aziende di AI e complesso militare-industriale americano.
Impatto economico del bando e sfida costituzionale di Anthropic
Essere inseriti tra i rischi per la catena di approvvigionamento federale equivale a un quasi-esilio dal mercato della difesa USA.
La designazione non blocca solo i contratti diretti con il governo: obbliga tutti i contractor del Pentagono a cessare i rapporti con l’azienda colpita.
Nei documenti depositati al tribunale del Distretto di Columbia, Anthropic sostiene che il Dipartimento della Guerra abbia agito oltre i propri poteri, senza presentare prove concrete di un rischio tecnico o di sicurezza nazionale.
La società di San Francisco punta a limitare il danno reputazionale: la sanzione riguarda solo i contractor militari legati al Dipartimento della Guerra, non l’intero settore pubblico e privato.
Anthropic prevede per quest’anno 14 miliardi di dollari di fatturato, in gran parte da aziende e agenzie governative che usano Claude per la scrittura di codice e automazione avanzata.
Oltre 500 clienti pagano almeno 1 milione di dollari l’anno per accedere al modello, contribuendo a una valutazione recente di 380 miliardi di dollari, che colloca Anthropic tra i player più influenti dell’AI globale.
Il cuore giuridico della causa è il Primo Emendamento.
I legali di Anthropic sostengono che le sue politiche di sicurezza – inclusi i limiti all’uso bellico dell’AI – costituiscano una forma di libertà di espressione aziendale, punita dal governo per motivi politici.
Secondo il ricorso, il Pentagono avrebbe scelto la misura più punitiva, anziché opzioni meno restrittive in grado di contemperare interesse nazionale e autonomia dei fornitori tecnologici.
La causa cita anche il Dipartimento del Tesoro e il Dipartimento di Stato, che avrebbero ordinato ai propri funzionari di abbandonare l’uso di Claude.
Nei documenti si legge che *“Anthropic si rivolge alla magistratura come ultima istanza per porre fine all’illegittima campagna di ritorsione dell’Esecutivo”*.
Il procedimento potrebbe creare un precedente sulla possibilità del governo di condizionare le scelte etiche dei fornitori di tecnologie critiche.
Concorrenza nell’AI militare e possibili scenari futuri
Mentre Anthropic sfida il Pentagono in tribunale, i competitor si muovono per colmare il vuoto.
OpenAI e xAI hanno firmato nuovi accordi con le forze armate statunitensi, proponendo condizioni meno vincolanti sull’impiego militare delle loro piattaforme.
Il CEO di OpenAI, Sam Altman, dopo un’iniziale solidarietà ad Amodei, ha criticato chi “non segue le norme democratiche perché non ama chi è al potere”.
Il riferimento è a un memo interno di 1.600 parole inviato da Dario Amodei ai dipendenti subito dopo il bando, rivelato da The Information.
Nel testo, Amodei accusa OpenAI di diffondere “bugie belle e buone” e dipinge Altman come falso pacificatore, parte del problema che dichiara di voler risolvere.
Cita anche la donazione da 25 milioni di dollari del presidente di OpenAI, Greg Brockman, a Donald Trump, contrapposta alla scelta di Anthropic di non finanziare campagne politiche né offrire *“lodi in stile dittatore”* all’amministrazione.
L’esito della causa definirà i margini di autonomia etica delle aziende di AI che operano con il settore difesa.
Se Anthropic ottenesse ragione, il Pentagono potrebbe essere costretto a negoziare clausole più stringenti su sorveglianza e armi autonome in tutti i futuri contratti.
In caso contrario, i grandi player dell’AI dovranno scegliere se allinearsi pienamente alle esigenze militari o rinunciare a una delle filiere più ricche e strategiche del pianeta.
FAQ
Perché il Pentagono ha bandito l’intelligenza artificiale Claude di Anthropic?
Il bando è stato motivato dal rifiuto di Anthropic di consentire l’uso di Claude per sorveglianza di massa e armi autonome, imponendo limiti operativi giudicati inaccettabili dal Dipartimento della Guerra.
Il bando federale contro Anthropic riguarda tutti i clienti di Claude?
No, riguarda principalmente contractor militari legati al Dipartimento della Guerra. Le aziende civili e molte agenzie governative possono continuare a utilizzare Claude, salvo specifiche restrizioni interne.
Qual è il valore economico di Anthropic e di Claude nel mercato AI?
Anthropic è valutata circa 380 miliardi di dollari, prevede 14 miliardi di fatturato annuo e conta oltre 500 clienti che spendono almeno 1 milione di dollari l’anno per Claude.
Come stanno reagendo OpenAI e xAI al contenzioso tra Anthropic e Pentagono?
Le due aziende stanno ampliando i loro accordi con le forze armate USA, offrendo collaborazioni meno vincolate eticamente, e di fatto occupando lo spazio lasciato libero da Anthropic nei programmi militari.
Quali sono le fonti utilizzate per ricostruire il caso Anthropic-Pentagono?
Il presente articolo deriva da un’elaborazione congiunta di notizie provenienti da Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



