Una giornata ad alta tensione per il mondo dell’intelligenza artificiale: il 2 marzo 2026 i servizi di Claude, l’assistente AI sviluppato da Anthropic, hanno subito un’interruzione globale che ha impedito a migliaia di utenti di accedere alla piattaforma.
Il disservizio ha colpito principalmente Claude.ai, la console per sviluppatori e i sistemi di login, rendendo impossibile l’utilizzo tramite web e app. Molti utenti hanno segnalato errori di autenticazione, sessioni bloccate e pagine non caricabili.
Non un collasso dell’IA, ma un problema di accesso
Secondo quanto comunicato dalla stessa Anthropic, il malfunzionamento era legato ai sistemi di autenticazione e al frontend, non ai modelli di intelligenza artificiale in sé. In altre parole, Claude continuava a funzionare “dietro le quinte”, ma gli utenti non riuscivano a entrarci.
L’API principale è rimasta in gran parte operativa, consentendo ad alcune applicazioni integrate di continuare a funzionare, seppur con limitazioni.
Dopo il picco iniziale di segnalazioni — registrato soprattutto negli Stati Uniti e in Europa — la situazione è migliorata nel corso della giornata, con un progressivo ritorno alla normalità. Al momento, i servizi risultano sostanzialmente ripristinati.
Il blackout arriva in una fase particolarmente sensibile per l’azienda, impegnata su più fronti: dalla crescita dell’adozione di Claude alle sfide legate alla sicurezza dei modelli.
Recentemente, la società ha infatti segnalato tentativi sistematici di sfruttamento della piattaforma tramite migliaia di account falsi, utilizzati per generare milioni di interazioni con l’obiettivo di replicarne le capacità su sistemi concorrenti — una pratica nota come model distillation.
Parallelamente, negli Stati Uniti si discute sempre più dell’impiego delle IA avanzate in ambito governativo e militare, tema che coinvolge indirettamente anche i principali sviluppatori del settore.
Affidabilità cloud sotto i riflettori
L’episodio evidenzia quanto i servizi basati su cloud — anche quelli più avanzati — possano essere vulnerabili a interruzioni improvvise. Con l’intelligenza artificiale ormai integrata in strumenti di lavoro, sviluppo software e servizi consumer, anche poche ore di downtime possono avere conseguenze significative.
Per Anthropic, il rapido ripristino ha evitato danni più gravi, ma il caso riaccende il dibattito su affidabilità, sicurezza e resilienza delle infrastrutture IA in un mercato sempre più competitivo.