Amodei sfida Trump e rilancia Claude mentre crescono gli utenti

Disservizio globale per Claude nel pieno dello scontro Anthropic‑Washington
Anthropic ha confermato un grave disservizio su Claude, colpendo milioni di utenti nel mondo tramite claude.ai, console e Claude Code.
Il blackout, emerso intorno a mezzogiorno nel Regno Unito, arriva mentre l’azienda guidata da Dario Amodei è nel mirino del Dipartimento della Guerra USA e del presidente Donald Trump.
Le API risultano in larga parte operative, ma persistono malfunzionamenti su login, logout e alcuni metodi critici.
La coincidenza temporale con lo scontro politico sulla richiesta di accesso militare ampliato a Claude e con l’ascesa dell’app ai vertici dell’App Store di Apple alimenta interrogativi strategici su resilienza tecnica, governance etica e affidabilità di un’infrastruttura AI ormai considerata quasi “critica”.
In sintesi:
- Grave disservizio su claude.ai, console e Claude Code; API parzialmente funzionanti.
- Blackout nel pieno del braccio di ferro con Dipartimento della Guerra USA.
- Trump attacca Anthropic, mentre OpenAI sigla un’intesa con il Pentagono.
- Esplosione di download di Claude, spinta dal boicottaggio contro ChatGPT.
Dettagli tecnici, contesto politico e ruolo di OpenAI
Gli aggiornamenti ufficiali di Anthropic parlano di “incidente ancora in corso”, con “errori elevati su claude.ai, sulla console e su Claude Code” e problemi specifici ai processi di “accesso e disconnessione”.
Inizialmente l’azienda ha chiarito che “l’API di Claude sta funzionando regolarmente”, salvo poi ammettere “malfunzionamenti in alcuni metodi dell’API” e la necessità di “ulteriori accertamenti”.
Secondo Down Detector, l’interruzione ha avuto origine nel Regno Unito, con propagazione globale. I sintomi – difficoltà di login, colli nei percorsi di autenticazione, errori su chiamate mirate – rimandano a problemi di orchestrazione dei microservizi e di scalabilità dei sistemi di identità, più che del modello linguistico.
Il tutto avviene mentre il Dipartimento della Guerra, guidato da Pete Hegseth, avrebbe chiesto un accesso ampliato e meno vincolato a Claude per impieghi militari. Dario Amodei ha ribadito che l’azienda “non può in coscienza accedere a questa richiesta”, denunciando il rischio di essere designata come “supply chain risk”.
Il presidente Donald Trump ha accusato Anthropic di voler imporre al governo i propri termini di servizio. In parallelo, OpenAI e Sam Altman hanno annunciato un accordo con il Pentagono per portare i loro sistemi AI in contesti classificati, promettendo limiti su sorveglianza interna e uso della forza, ma subendo forti critiche della community tecnologica.
Tra boicottaggio di ChatGPT, fragilità cloud e posta geopolitica
Nelle stesse ore, la community r/ChatGPT su Reddit ha promosso un boicottaggio contro OpenAI, invitando a cancellare gli abbonamenti a ChatGPT e a migrare su Claude.
Il post più votato, con il commento “OpenAI just made a deal with a devil”, accusa Sam Altman di aver sacrificato i principi originari in cambio di fondi militari.
L’effetto di mercato è stato immediato: l’app di Anthropic è balzata in cima alle classifiche gratuite dell’App Store di Apple, superando ChatGPT. Un improvviso aumento di traffico, combinato con architetture di autenticazione non dimensionate per picchi eccezionali, è technicamente compatibile con l’emergere di errori sistemici sui servizi web, lasciando però operative le API centrali.
In assenza di evidenze su interferenze esterne, lo scenario più realistico resta quello di un blackout infrastrutturale in fase di mitigazione. Tuttavia, il timing è delicatissimo: nel momento in cui Claude viene percepito come alternativa “più etica” a OpenAI e rifiuta aperture militari ritenute eccessive, l’interruzione mina l’immagine di affidabilità del servizio.
La vicenda evidenzia come le grandi AI generative si stiano trasformando in vere infrastrutture strategiche: quando entrano nel perimetro della Difesa e delle politiche industriali, il confine tra architettura cloud e geopolitica diventa estremamente sottile.
Prospettive per Anthropic e per la governance dell’intelligenza artificiale
Anthropic ha costruito la propria reputazione sulla “AI costituzionale”, con vincoli etici chiari e una governance prudente. OpenAI ha scelto invece un approccio più pragmatico nei rapporti con il governo USA, accettando un’integrazione diretta con il Pentagono.
Se il disservizio di Claude verrà chiuso rapidamente e senza ricadute, resterà un caso di fragilità sistemica in un momento altamente simbolico. Se dovesse invece ripetersi, rischia di compromettere la credibilità di Anthropic proprio mentre cresce la domanda di soluzioni AI considerate responsabili, indipendenti da condizionamenti militari e politicamente sensibili.
Nella nuova fase dell’intelligenza artificiale generativa, ogni blackout diventa un test di resilienza tecnica, trasparenza comunicativa e coerenza dei principi dichiarati con le scelte industriali e istituzionali.
FAQ
Cosa è successo esattamente al servizio Claude di Anthropic?
Il servizio Claude ha subito un grave disservizio globale su claude.ai, console e Claude Code, con problemi di login e alcuni metodi API.
Le API di Claude sono state completamente interrotte durante il blackout?
No, Anthropic ha chiarito che le API erano in gran parte operative, pur indicando malfunzionamenti limitati su alcuni metodi specifici.
Perché il blackout di Claude arriva in un momento politicamente delicato?
Perché coincide con lo scontro tra Dario Amodei, il Dipartimento della Guerra USA e le critiche pubbliche del presidente Donald Trump.
Qual è la differenza tra l’approccio di Anthropic e OpenAI verso il Pentagono?
Anthropic ha rifiutato richieste d’uso militare ritenute eccessive, mentre OpenAI ha firmato un accordo diretto con il Pentagono.
Da quali fonti è stata ricostruita questa notizia su Claude e Anthropic?
Il contenuto deriva da una elaborazione congiunta di informazioni Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



