La divisione di Threat Intelligence di Check Point Software Technologies ha scoperto una pericolosa falla nella sicurezza di ChatGPT. Questa vulnerabilità sconosciuta permetteva ai cybercriminali l’esfiltrazione di dati sensibili all’insaputa degli utenti e quindi senza il loro consenso all’interno delle conversazioni che avvenivano con l’applicazione chatbot di intelligenza artificiale generativa.
Secondo quanto riportato nel comunicato stampa dell’azienda di sicurezza informatica, OpenAI ha già risolto completamente il problema. Tuttavia questa falla ha permesso in precedenza il furto e l’utilizzo delle informazioni contenute nelle chat private degli utenti, come ad esempio “sintomi medici, documenti finanziari, contratti privati, documenti riservati e molto altro“.
I ricercatori, scoprendo questa falla, hanno dimostrato che “un singolo prompt malevolo può trasformare una normale conversazione su ChatGPT in un canale nascosto di esfiltrazione dei dati. Una volta attivato, il contenuto selezionato dalla chat, inclusi i messaggi degli utenti, i file caricati e i riassunti generati dall’IA, poteva essere trasmesso all’esterno senza alcun avviso o approvazione“.
Questa falla ricorda che ChatGPT e l’AI non sono “sicuri di default”
La falla scoperta dai ricercatori di Check Point Software Technologies ci ricorda che ChatGPT e tutti gli strumenti di intelligenza artificiale non sono “sicuri di default”. Una verità che dobbiamo non solo affrontare, ma anche fare nostra per evitare rischi inutili. Oltre ai privati anche aziende ed enti devono tener conto di questo pericolo.
“Le organizzazioni sanitarie, i servizi finanziari e le organizzazioni governative devono trattare gli strumenti di IA come parte del loro ambiente regolamentato, non come app di consumo che si trovano al di fuori dei controlli esistenti. I CISO non possono permettersi di considerare l’IA come ‘un rischio di qualcun altro’“, si legge nel comunicato stampa dei ricercatori.
Eli Smadja, Head of Research, Check Point Research, ha commentato: “Man mano che le piattaforme di IA si evolvono in veri e propri ambienti informatici che gestiscono i nostri dati più sensibili, i controlli di sicurezza nativi non sono più sufficienti da soli. Le organizzazioni hanno bisogno di una visibilità indipendente e di una protezione a più livelli tra loro e i fornitori di IA. È così che possiamo andare avanti protetti: ripensando l’architettura di sicurezza per l’IA, invece di reagire al prossimo incidente“.