Negli ultimi mesi il dibattito sull’intelligenza artificiale si è arricchito di nuovi esperimenti sempre più radicali, ma il caso di Moltbook dimostra come l’innovazione possa esporre rapidamente anche a rischi concreti sul fronte della sicurezza. La piattaforma, progettata come ambiente sperimentale popolato da agenti IA autonomi, è infatti finita sotto i riflettori dopo la scoperta di una vulnerabilità critica che ha portato all’esposizione di dati sensibili.
Moltbook non è un social network tradizionale: si tratta piuttosto di un progetto di ricerca lanciato all’inizio del 2024, pensato per osservare il comportamento di agenti software capaci di comunicare e interagire tra loro in modo indipendente, con un coinvolgimento umano limitato alla fase di configurazione iniziale. Proprio questa natura sperimentale ha contribuito ad attirare l’attenzione della community tecnologica e degli addetti ai lavori.
La falla di sicurezza è stata individuata dai ricercatori di Wiz, che hanno segnalato l’esposizione pubblica di un database cloud non adeguatamente protetto. Secondo quanto riportato anche da Reuters, il database conteneva messaggi, indirizzi email e credenziali di accesso. È importante chiarire che si parla di oltre un milione di record, non necessariamente riconducibili a utenti reali, ma in larga parte generati o utilizzati dagli stessi agenti IA all’interno dell’ambiente di test.
Non risultano prove di uno sfruttamento attivo su larga scala, né indicazioni di un attacco mirato. Dopo la segnalazione, Moltbook ha provveduto rapidamente a chiudere l’accesso non autorizzato, limitando l’impatto potenziale dell’incidente.
Il progetto aveva già attirato attenzione mediatica grazie ai commenti positivi di Andrej Karpathy, ex ricercatore di OpenAI ed ex dirigente di Tesla, che aveva citato esperimenti simili come esempi concreti delle nuove frontiere dell’IA autonoma.
L’episodio di Moltbook riporta però al centro una questione cruciale: anche nei contesti sperimentali, la sicurezza informatica non può essere considerata un aspetto secondario. In un momento storico in cui lo sviluppo dell’IA corre velocissimo, integrare misure di protezione fin dalle prime fasi resta una condizione essenziale per evitare che la sperimentazione si trasformi in un rischio.