Trump frena Anthropic nella corsa ai contratti militari americani

Trump esclude Anthropic dai contratti federali: cosa cambia per l’AI militare USA
L’amministrazione del presidente Donald Trump ha ordinato a tutte le agenzie federali statunitensi di interrompere l’utilizzo dei prodotti di Anthropic, imponendo un periodo massimo di sei mesi per completare la transizione tecnologica.
La decisione, formalizzata con un messaggio su Truth Social, riguarda in particolare i rapporti con il Pentagono e si basa sui limiti etici e d’impiego inseriti da Anthropic nei propri modelli di intelligenza artificiale.
Il segretario alla Difesa Pete Hegseth ha successivamente classificato Anthropic come “azienda a rischio” per la catena di approvvigionamento legata alla sicurezza nazionale, vietando ogni collaborazione ai fornitori del Dipartimento della Difesa.
La mossa, che apre la strada a OpenAI come nuovo interlocutore privilegiato, ridefinisce il perimetro dell’uso dell’AI nei sistemi militari statunitensi e accende il dibattito su sorveglianza, armi autonome e controllo politico sulle tecnologie emergenti.
In sintesi:
- Trump ordina la cessazione dell’uso di Anthropic da parte di tutte le agenzie federali USA.
- Il Pentagono definisce Anthropic “azienda a rischio” per la catena della sicurezza nazionale.
- Il contrasto nasce sui limiti etici all’uso militare dell’intelligenza artificiale.
- OpenAI si prepara a subentrare come partner strategico del Dipartimento della Difesa.
Dal confronto tecnico allo scontro istituzionale su AI, sorveglianza e armi autonome
Il punto di rottura tra Washington e Anthropic emerge da un confronto diretto tra il segretario alla Difesa Pete Hegseth e il CEO Dario Amodei.
Al centro, i vincoli imposti dall’azienda per impedire specifici usi militari dei propri modelli di intelligenza artificiale.
Secondo le ricostruzioni, il governo statunitense chiedeva maggiore flessibilità per applicazioni legate alla sicurezza nazionale, incluse funzioni avanzate di analisi e intervento operativo.
Anthropic avrebbe invece difeso una linea restrittiva, rifiutando di rimuovere barriere progettuali considerate essenziali per ridurre i rischi sistemici dell’AI.
Lo scontro si sarebbe concentrato su due ambiti sensibili: potenziale uso dell’AI per attività di sorveglianza di massa sui cittadini americani e sviluppo di sistemi d’arma capaci di operare senza supervisione umana.
L’assenza di convergenza su questi dossier ha trasformato un disaccordo tecnico in una decisione politica di rottura, con l’esclusione di Anthropic dall’intera filiera militare e di difesa, e un forte segnale alle altre big tech coinvolte nei programmi di modernizzazione del Pentagono.
OpenAI subentra e si apre una nuova fase per l’AI militare USA
Poche ore dopo lo stop ad Anthropic, lo spazio lasciato libero è stato rapidamente occupato da OpenAI.
Come riportato dal The New York Times, i colloqui fra l’azienda di San Francisco e il governo erano già avviati, ma l’annuncio presidenziale ne ha accelerato la conclusione, favorendo un’intesa con il Pentagono.
La vicenda si inserisce in un quadro di crescente interesse strategico per l’integrazione dell’intelligenza artificiale nelle dottrine militari statunitensi, dal supporto decisionale all’automazione di sistemi avanzati.
La scelta della Casa Bianca non riguarda solo un fornitore, ma definisce il perimetro politico e normativo entro cui l’AI potrà essere sviluppata e impiegata nelle prossime generazioni di sistemi di difesa, aprendo possibili fratture tra esigenze di sicurezza nazionale, diritti civili e responsabilità delle big tech.
FAQ
Perché gli Stati Uniti hanno interrotto la collaborazione con Anthropic?
La rottura è motivata dal rifiuto di Anthropic di allentare i limiti etici sull’uso militare dell’AI, soprattutto sorveglianza di massa e armi autonome.
Cosa significa la designazione di Anthropic come “azienda a rischio” del Pentagono?
Significa che il Pentagono vieta a tutti i suoi fornitori di intrattenere rapporti commerciali con Anthropic, escludendola dall’intera catena di fornitura difensiva.
Quale ruolo avrà OpenAI nei nuovi programmi di difesa statunitensi?
OpenAI subentrerà come partner tecnologico privilegiato, fornendo modelli e infrastrutture AI per analisi strategiche, supporto operativo e potenziali applicazioni militari avanzate.
Quali rischi etici sono al centro del confronto su AI e difesa?
I principali rischi riguardano l’uso dell’AI per sorveglianza di massa dei cittadini e lo sviluppo di sistemi d’arma autonomi, con ridotta o nulla supervisione umana.
Da quali fonti provengono le informazioni su questa vicenda?
Le informazioni derivano da una elaborazione congiunta di fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



