Anthropic esclude l’uso militare di Claude e rafforza i limiti etici sull’intelligenza artificiale

Anthropic sfida il Dipartimento della Guerra USA sulla sicurezza di Claude
Il Dipartimento della Guerra degli Stati Uniti, erede dell’ex Dipartimento della Difesa, ha depositato una mozione in tribunale per evitare un’ingiunzione preliminare che revochi la designazione di “supply chain risk” assegnata a Anthropic, sviluppatrice del modello di IA Claude. L’azione si inserisce in una causa avviata dall’azienda californiana contro l’amministrazione Trump, accusata di averla penalizzata per motivi politici. Al centro dello scontro legale ci sono l’accesso delle forze armate a sistemi di IA avanzata, i limiti etici imposti da Anthropic all’uso militare dei propri modelli e il bilanciamento tra sicurezza nazionale e libertà di impresa. La disputa potrebbe ridefinire, nei prossimi mesi, i rapporti tra Big Tech e complesso militare‑industriale statunitense.
In sintesi:
- Il Dipartimento della Guerra chiede di mantenere Anthropic come “supply chain risk” per l’IA Claude.
- Anthropic contesta la designazione, giudicandola ritorsiva e devastante sul piano economico.
- Washington teme che Anthropic possa bloccare Claude durante operazioni militari sensibili.
- OpenAI e xAI vengono preferite ad Anthropic, ma nascono nuovi timori su Grok.
Perché l’IA Claude è diventata un nodo di sicurezza nazionale
Anthropic ha citato in giudizio il governo federale contestando la classificazione come “supply chain risk”, che di fatto esclude l’azienda da contratti strategici e danneggia la sua posizione nel mercato americano dell’IA.
L’esecutivo sostiene che le clausole contrattuali di Anthropic vietano qualunque uso di Claude in attività belliche o sistemi classificati, compresi scenari sensibili come quelli che riguardano Paesi ostili, ad esempio l’Iran. Secondo la mozione, tali vincoli renderebbero l’azienda “inaffidabile” per impieghi militari.
Nella memoria depositata, il Dipartimento della Guerra afferma che i sistemi di IA sono “estremamente vulnerabili alla manipolazione” e paventa il rischio che Anthropic possa disabilitare o alterare Claude “prima o durante operazioni belliche in corso” se ritenesse superate le proprie “linee rosse”.
Queste linee rosse riguardano in particolare l’uso di Claude per la sorveglianza di massa dei cittadini statunitensi e per il controllo di armi autonome. Il governo respinge l’applicabilità del Primo Emendamento, sostenendo che non tuteli il rifiuto di sostenere operazioni militari.
Diversi esperti legali ritengono solide le argomentazioni di Anthropic sulla natura ritorsiva della designazione. Tuttavia, la giurisprudenza americana tende a dare ampio margine di discrezionalità all’esecutivo in materia di sicurezza nazionale. L’udienza sulla richiesta di ingiunzione preliminare è fissata per martedì 24 marzo.
xAI, OpenAI e i nuovi rischi sui sistemi classificati USA
Nel frattempo, il Dipartimento della Guerra ha scelto di affidarsi a OpenAI e a xAI di Elon Musk, escludendo Anthropic dai programmi più sensibili. Una decisione che ha aperto un ulteriore fronte politico a Washington.
La senatrice Elizabeth Warren ha inviato una lettera al Segretario della Difesa Pete Hegseth, chiedendo chiarimenti sul contratto con xAI e sull’eventuale accesso del modello Grok a sistemi e dati classificati.
Nella missiva, Warren richiama episodi passati in cui conversazioni gestite da Grok sarebbero finite online, sollevando dubbi sulle misure di sicurezza e sulla protezione delle informazioni riservate. Il rischio, per il Congresso, è che la sostituzione di Anthropic con altri fornitori non riduca, ma semplicemente sposti, i punti di vulnerabilità della catena di fornitura dell’IA militare.
Lo scontro in corso non riguarda solo un singolo contratto, ma il modello con cui gli Stati Uniti intendono integrare l’intelligenza artificiale nei sistemi di difesa, tra esigenze operative, limiti etici posti dalle aziende e controllo democratico sulle scelte tecnologiche.
FAQ
Perché Anthropic è stata classificata come “supply chain risk” dal governo USA?
La designazione è motivata dal governo con il timore che Anthropic possa limitare o disabilitare l’uso militare di Claude in scenari operativi critici.
Quali sono le “linee rosse” dichiarate da Anthropic per l’uso di Claude?
Anthropic vieta l’impiego di Claude per sorveglianza di massa dei cittadini statunitensi e per il controllo diretto di armi autonome.
Che ruolo hanno OpenAI e xAI nei programmi di difesa statunitensi?
OpenAI e xAI sono stati scelti come fornitori alternativi di sistemi di IA, con accesso potenziale a dati e infrastrutture militari critiche.
Perché la senatrice Elizabeth Warren critica l’accordo con xAI e Grok?
Warren teme che Grok non garantisca adeguata protezione delle informazioni sensibili, richiamando precedenti fughe di conversazioni online.
Da quali fonti è stata elaborata questa ricostruzione giornalistica?
La ricostruzione deriva da un’elaborazione congiunta di contenuti Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



