Claude supera ChatGPT nei download ma il servizio si blocca improvvisamente

Accordo OpenAI-Pentagono, rivolta degli utenti e strappo con Anthropic
L’accordo tra OpenAI di Sam Altman e il Dipartimento della Guerra USA, annunciato nel weekend a Washington, ridefinisce gli equilibri nell’uso dell’intelligenza artificiale militare.
Il governo Trump ha scelto di escludere Anthropic e il suo modello Claude dai contratti classificati, dopo il rifiuto del Ceo italo-statunitense Dario Amodei di accettare clausole ritenute favorevoli alla sorveglianza di massa e alle armi autonome.
La decisione ha innescato una dura reazione politica, la messa al bando di Anthropic dall’ecosistema della difesa USA e, sul fronte consumer, un’ondata di campagne online “cancel ChatGPT” che invita a disdire gli abbonamenti a ChatGPT Plus e a passare a Claude, ora in forte ascesa nelle classifiche di download.
In sintesi:
- Il Pentagono sostituisce Anthropic con OpenAI per i sistemi di IA militare classificata.
- Dario Amodei rifiuta clausole su sorveglianza di massa e armi completamente autonome.
- Donald Trump e Pete Hegseth attaccano Anthropic e la inseriscono in lista nera.
- Sui social esplode il movimento “cancel ChatGpt”, boom di download per Claude.
Accordo militare a OpenAI e rottura politica con Anthropic
Il fine settimana negli Stati Uniti è stato segnato da un doppio fronte: escalation in Medio Oriente e scontro interno sull’uso dell’IA nella difesa.
Il Dipartimento della Guerra ha bandito le tecnologie Anthropic da esercito, agenzie federali e appaltatori, promuovendo OpenAI come nuovo fornitore di riferimento per gli strumenti di IA nei sistemi classificati.
La decisione arriva dopo mesi di tensioni con Dario Amodei, che ha rifiutato condizioni considerate incompatibili con i valori democratici. Secondo Anthropic, le richieste governative avrebbero permesso sorveglianza interna di massa e l’integrazione di IA in armi completamente autonome, oltre le soglie oggi considerate sicure e affidabili.
Su Trust, il social di Donald Trump, il presidente ha definito Amodei un *“sinistroide esaltato”*, trasformando un dissidio tecnico in caso politico.
Il Segretario alla Difesa Pete Hegseth ha fatto un passo ulteriore, classificando Anthropic come “rischio per il sistema di difesa nazionale”, una qualifica finora riservata a soggetti esteri, soprattutto cinesi, e includendo l’azienda nella lista nera che vieta ogni rapporto commerciale con la difesa USA.
In parallelo, l’annuncio dell’intesa con Sam Altman ha rafforzato il posizionamento di OpenAI come partner strategico del complesso militare-industriale americano, accentuando il dibattito etico sull’uso bellico dell’IA generativa.
Rivolta etica degli utenti e boom di Claude anche in Italia
La frattura con la Casa Bianca ha trasformato Anthropic in simbolo di un approccio “restrittivo” all’IA militare.
Sui social, soprattutto Reddit, si moltiplicano post come *“Cancella il tuo ChatGpt Plus e passa a Claude”* e *“È ora di bruciare ogni ponte, annulla ChatGpt”*, con un movimento “cancel ChatGpt” che punta a premiare chi pone limiti etici espliciti.
Negli Stati Uniti, Claude è balzato in cima alle classifiche di download dell’App Store, mentre crescono le disdette segnalate sui forum per gli abbonamenti a ChatGPT Plus.
In Italia, il successo ha avuto un rovescio tecnico: secondo il sito specializzato Downdetector, dalle 12 di lunedì 2 marzo si è registrato un picco di segnalazioni di malfunzionamento su Claude AI, in particolare sul chatbot, con problemi ancora presenti alle 15.
Non è chiaro se il “down” sia legato al boom di nuovi utenti o a criticità infrastrutturali, ma l’episodio conferma quanto rapidamente le scelte geopolitiche sull’IA militare possano tradursi in reazioni concrete nel mercato consumer globale, influenzando abitudini digitali e percezione di fiducia verso i diversi provider.
FAQ
Perché il Pentagono ha sostituito Anthropic con OpenAI?
Il Pentagono ha sostituito Anthropic con OpenAI perché Dario Amodei ha rifiutato clausole su sorveglianza di massa e armi autonome, considerate essenziali dall’amministrazione Trump per i programmi di difesa classificati.
Cosa rifiuta esattamente Anthropic nell’uso militare dell’IA?
Anthropic rifiuta esplicitamente due usi: sorveglianza interna di massa sui cittadini americani e integrazione dell’IA in armi completamente autonome, ritenuti incompatibili con valori democratici e sicurezza operativa.
Cosa significa che Anthropic è finita nella lista nera USA?
Significa che Anthropic è classificata come rischio per la difesa nazionale: tutti i contraenti militari USA non possono stipulare nuovi contratti né rinnovare accordi esistenti con l’azienda.
Perché molti utenti stanno cancellando ChatGPT Plus?
Molti utenti stanno cancellando ChatGPT Plus per protesta contro l’accordo militare tra OpenAI e il Dipartimento della Guerra, preferendo Claude, percepito come più restrittivo sugli usi bellici dell’IA.
Quali sono le fonti utilizzate per questa ricostruzione giornalistica?
La ricostruzione deriva congiuntamente da fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente analizzate e rielaborate dalla nostra Redazione secondo le linee guida EEAT.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



