OpenAI apre all’esercito USA per sviluppare sistemi avanzati di sorveglianza

OpenAI, Pentagono e sorveglianza: cosa dice davvero l’accordo
Chi: Sam Altman, OpenAI, il Pentagono, la rivale Anthropic di Dario Amodei e l’amministrazione Trump.
Cosa: un nuovo accordo di fornitura di sistemi di intelligenza artificiale al Dipartimento della Difesa che, secondo Altman, rispetterebbe due “linee rosse”: niente sorveglianza di massa interna e nessun potere di uccidere senza controllo umano.
Dove: negli Stati Uniti, al centro del confronto tra Big Tech e apparati militari e d’intelligence.
Quando: l’intesa è stata annunciata pubblicamente venerdì sera, nel pieno dello scontro fra Pentagono e Anthropic, appena classificata come “rischio di supply chain”.
Perché: la formula contrattuale “any lawful use” consente al Pentagono qualsiasi uso ritenuto legale, aggirando di fatto le restrizioni rivendicate da OpenAI su sorveglianza e armi autonome.
In sintesi:
- OpenAI accetta che il Pentagono usi i suoi modelli per “qualsiasi uso legale”.
- Gli stessi riferimenti legali hanno già coperto programmi di sorveglianza di massa post 11 settembre.
- Le garanzie tecniche (classificatori, cloud only) non bloccano decisioni militari legali.
- Anthropic viene punita per aver chiesto divieti espliciti su sorveglianza e armi autonome.
Cosa prevede davvero l’intesa OpenAI–Pentagono
Il nodo centrale dell’accordo tra OpenAI e Dipartimento della Difesa sono tre parole: “any lawful use”.
Secondo una fonte coinvolta nei colloqui con più aziende, il Pentagono non ha mai ceduto sulla possibilità di raccogliere e analizzare dati in massa, inclusi quelli di cittadini americani, purché l’operazione sia giustificata da un’interpretazione delle leggi esistenti.
OpenAI cita esplicitamente Quarto Emendamento, National Security Act 1947, FISA 1978 ed Executive Order 12333, oltre a direttive interne del Dipartimento della Difesa.
Sono gli stessi riferimenti usati per legittimare, dopo l’11 settembre, programmi di sorveglianza rivelati da Edward Snowden: raccolta sistematica di tabulati telefonici, accesso in bulk a dati di Microsoft, Google, Apple tramite il programma PRISM, e ampie attività condotte sotto EO 12333.
L’ex responsabile policy di OpenAI Miles Brundage ha scritto che, alla luce delle interpretazioni legali e delle posizioni del Pentagono, l’azienda “ha ceduto e lo ha presentato come non aver ceduto, danneggiando Anthropic mentre fingeva di aiutarla”.
La portavoce Kate Waters replica che l’accordo non consente di “collezionare o analizzare dati di americani in modo massivo, aperto o generalizzato”.
Per l’esperta di Berkeley Sarah Shoker, la clausola che vieta solo usi “non vincolati”, “generalizzati” o “open-ended” lascia un’ampia zona grigia e “mantiene optionality per la leadership”.
Nei fatti, spiegano fonti industriali, il Pentagono potrebbe usare i modelli OpenAI per profilare su larga scala cittadini americani incrociando banche dati d’intelligence, dati di localizzazione comprati da broker, social, filmati di sorveglianza, registri elettorali e altre fonti aperte.
La “linea rossa” di OpenAI sulle armi autonome è altrettanto allineata allo status quo.
L’accordo stabilisce che la tecnologia non verrà usata per “dirigere in modo indipendente armi autonome in qualsiasi caso in cui legge, regolamento o policy del Dipartimento richiedano controllo umano” – semplice recepimento della direttiva DoD del 2023.
Anthropic chiedeva invece un divieto contrattuale sull’uso di sistemi letali autonomi senza supervisione umana, almeno finché la tecnologia non fosse considerata affidabile.
Lo stesso Dario Amodei chiarisce però di non essere contrario alle armi autonome in sé: le ritiene potenzialmente “critiche per la difesa nazionale” una volta rese sufficientemente affidabili, e offre collaborazione al DoD per accelerarne lo sviluppo.
Le salvaguardie tecniche rivendicate da Sam Altman – modelli solo in cloud, classificatori per monitorare gli usi, dipendenti con nulla osta di sicurezza – sono già prassi in altre aziende contrattiste del Pentagono e non impediscono, osservano le fonti, né la costruzione di “kill chain” autonome né programmi di sorveglianza di massa se ritenuti legali dall’esecutivo.
Le conseguenze geopolitiche e industriali dello scontro sulle “linee rosse”
Il rifiuto di Anthropic di accettare la clausola “all lawful use” ha portato alla sua classificazione come “supply-chain risk”, etichetta di solito riservata a fornitori esteri sospetti sul piano cyber.
Il presidente Donald Trump ha ordinato alle agenzie federali di dismettere Claude, e non è chiaro fino a che punto verranno penalizzate aziende che lo usano per servizi non legati alla sicurezza nazionale.
L’undersecretary Jeremy Lewin conferma che lo stesso compromesso offerto a OpenAI e xAI era stato proposto e respinto da Anthropic.
Il Segretario alla Difesa Pete Hegseth rivendica che “solo il Commander‑in‑Chief e il popolo americano determineranno il destino delle forze armate, non dirigenti tech non eletti”.
La scelta di Anthropic ha rafforzato la sua immagine pubblica: l’app Claude ha superato ChatGPT come download su App Store, spinta dal sostegno di lavoratori tech, leader AI e celebrità, inclusa Katy Perry che ha sottoscritto un abbonamento Claude Pro.
Ma il quadro complessivo resta chiaro: né OpenAI né Anthropic contestano in prospettiva la legittimità di armi autonome o sorveglianza avanzata.
Il vero terreno di scontro è quando – e con quali tutele verificabili dall’esterno – queste capacità verranno integrate nella dottrina militare americana.
Finché le clausole chiave continueranno a rinviare genericamente a “qualsiasi uso legale”, il baricentro resterà nelle mani dell’esecutivo e delle sue interpretazioni, non delle promesse pubbliche delle Big Tech.
FAQ
Cosa significa davvero la clausola “any lawful use” per OpenAI e Pentagono?
Significa che il Pentagono può usare i modelli OpenAI per qualsiasi attività ritenuta legale secondo le norme esistenti, incluse forme di sorveglianza già praticate dopo l’11 settembre.
In cosa l’approccio di Anthropic differisce da quello di OpenAI?
Anthropic ha chiesto divieti contrattuali espliciti su sorveglianza di massa domestica e armi letali autonome senza supervisione umana, rifiutando la formula “all lawful use” accettata invece da OpenAI.
Le salvaguardie tecniche di OpenAI impediscono davvero abusi militari?
No, perché classificatori, controlli cloud‑only e audit interni non possono bloccare usi che il governo classifica come legali, né verificare sistematicamente ogni singola decisione operativa sul campo.
Il contratto OpenAI vieta la sorveglianza di massa sugli americani?
No, vieta solo raccolte “non vincolate, generalizzate, open‑ended”.
Interpretazioni estensive di leggi come FISA ed EO 12333 hanno già consentito sorveglianza domestica su larga scala in passato.
Da quali fonti è stata rielaborata questa analisi giornalistica?
Deriva da una elaborazione giornalistica indipendente basata su fonti pubbliche e da una rielaborazione congiunta di contenuti Ansa.it, Adnkronos.it, Asca.it e Agi.it da parte della nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



