Pentagono conferma la blacklist per Anthropic e boccia definitivamente il ricorso
Indice dei Contenuti:
Corte federale conferma Anthropic come rischio per la sicurezza nazionale USA
La corte d’appello federale di Washington ha confermato la decisione del Pentagono di classificare Anthropic come “rischio per la sicurezza nazionale”, vietando ai contractor governativi l’uso dei suoi strumenti di intelligenza artificiale.
La pronuncia, resa nei primi giorni di aprile, respinge il ricorso dell’azienda fondata e guidata da Dario Amodei, che contestava i poteri del Segretario al Dipartimento della Guerra Pete Hegseth.
La scelta giudiziaria si inserisce nel più ampio confronto tra Washington e l’industria dell’AI sulla regolazione degli usi militari, con potenziali implicazioni economiche e geopolitiche significative, mentre il dossier resta aperto in vista della nuova udienza fissata per il 19 maggio.
In sintesi:
- Corte d’appello di Washington conferma Anthropic come rischio per la sicurezza nazionale USA.
- Vietato ai contractor federali usare gli strumenti AI Anthropic, inclusa la piattaforma Claude.
- La disputa nasce dal rifiuto di eliminare vincoli etici all’uso militare dell’AI.
- Londra tenta di attrarre Anthropic con incentivi regolatori e industriali.
Decisione dei giudici, impatto economico e prossime tappe del contenzioso
Nel ricorso, Anthropic sosteneva che Pete Hegseth avesse ecceduto il proprio mandato, equiparando di fatto l’azienda statunitense a fornitori esteri ad alto rischio, come Huawei.
La classificazione come minaccia per la sicurezza nazionale impedisce oggi all’azienda di ottenere nuovi contratti con il Pentagono e apre la strada a una possibile inclusione in liste nere federali, con effetti diretti sull’accesso alla spesa pubblica e sugli investimenti istituzionali.
I giudici federali hanno però ritenuto che le presunte perdite economiche non fossero “sufficientemente determinate” per giustificare la revoca immediata della designazione, mantenendo intatte le misure restrittive in vigore.
La decisione è stata salutata dal procuratore generale ad interim Todd Blanche come *“una vittoria schiacciante”*, rafforzando la linea dell’amministrazione Trump sulla gestione dei fornitori critici di AI.
Di segno opposto la reazione di una portavoce di Anthropic, che ha definito la pronuncia un passo avanti procedurale: *“Siamo grati che il tribunale abbia riconosciuto la necessità di risolvere rapidamente”*, riaffermando la volontà di *“collaborare proficuamente con il Governo per garantire che tutti gli americani possano beneficiare di un’intelligenza artificiale sicura e affidabile”*.
Il prossimo snodo sarà l’udienza del 19 maggio, in cui entrambe le parti presenteranno nuove prove tecniche e strategiche sugli impatti di sicurezza e di mercato legati all’uso militare dell’AI.
La controversia affonda le radici a fine febbraio, quando il Pentagono, alla vigilia dell’attacco all’Iran, ha intimato a Dario Amodei di rimuovere ogni vincolo etico all’impiego militare dei modelli Anthropic.
Il rifiuto dell’azienda ha innescato la reazione della Casa Bianca di Donald Trump, che ha inserito Anthropic tra i fornitori “pericolosi”, allineandola alle realtà straniere ritenute sensibili.
Il 27 febbraio, in un post su Truth Social, il presidente ha ordinato a tutte le agenzie federali di interrompere immediatamente l’uso degli strumenti Anthropic, concedendo al Dipartimento della Guerra sei mesi per dismettere l’impiego di Claude, già integrato in attività operative legate al teatro iraniano.
La mossa britannica e le possibili ricadute globali per il settore AI
Mentre il contenzioso prosegue negli Stati Uniti, il governo britannico guidato da Keir Starmer punta a trasformare la crisi di Anthropic in opportunità industriale.
Secondo il Financial Times, il Dipartimento per la Scienza, l’Innovazione e la Tecnologia di Londra ha predisposto un pacchetto di proposte che include l’espansione degli uffici nella capitale e una possibile doppia quotazione in Borsa.
Downing Street vede nella disputa con Washington una leva per consolidare il Regno Unito come hub regolatorio “più prevedibile” per l’AI avanzata, offrendo a Dario Amodei un quadro normativo alternativo sulla gestione degli usi militari e civili dei modelli generativi.
Le proposte saranno presentate formalmente durante la visita del CEO nel Regno Unito prevista per fine maggio, in un momento in cui gli equilibri tra sicurezza nazionale, autonomia tecnologica e concorrenza globale nell’AI appaiono sempre più interdipendenti.
FAQ
Cosa significa la designazione di Anthropic come rischio per la sicurezza nazionale?
La designazione implica esclusione dai contratti con il Pentagono, possibile inserimento in liste nere federali e forte limitazione all’uso dei suoi strumenti AI da parte di agenzie governative.
Anthropic può ancora lavorare con aziende private statunitensi?
Sì, la decisione riguarda il perimetro governativo USA. Le aziende private possono continuare a utilizzare i modelli Anthropic, salvo futuri vincoli regolatori o contrattuali specifici di settore.
Qual è il nodo principale dello scontro tra Anthropic e Pentagono?
Il cuore del conflitto è la richiesta di rimuovere i vincoli etici all’uso militare dell’AI, che Anthropic considera essenziali per garantire sicurezza, responsabilità e allineamento agli standard di rischio accettabile.
Perché il Regno Unito è interessato ad attrarre Anthropic?
Il Regno Unito mira a rafforzare il proprio ecosistema AI, offrendo a Anthropic incentivi regolatori, espansione a Londra e possibile doppia quotazione, per consolidare la propria centralità tecnologica europea.
Quali sono le fonti alla base di questo resoconto sulla vicenda Anthropic?
Il presente articolo deriva da un’elaborazione congiunta di informazioni provenienti da Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.

