ChatGPT avvisa una persona fidata nei momenti di crisi: arriva Trusted Contact

OpenAI introduce Trusted Contact in ChatGPT: una funzione opzionale che avvisa una persona fidata nei casi di possibile autolesionismo.
ChatGPT avvisa una persona fidata nei momenti di crisi: arriva Trusted Contact

OpenAI introduce in ChatGPT una nuova funzione pensata per portare il supporto dell’intelligenza artificiale fuori dallo schermo, quando una conversazione lascia emergere segnali di grave disagio. Si chiama Trusted Contact e permette agli utenti adulti di indicare una persona fidata che potrà essere avvisata se i sistemi di sicurezza e revisori umani rilevano un possibile rischio di autolesionismo. La funzione, annunciata da OpenAI il 7 maggio 2026, sarà distribuita progressivamente ed è opzionale.

Come funziona Trusted Contact

La nuova opzione consente agli utenti maggiorenni di aggiungere dalle impostazioni di ChatGPT un contatto adulto: una persona di famiglia, un amico, un caregiver o comunque qualcuno ritenuto affidabile. La soglia è fissata a 18 anni a livello globale, mentre in Corea del Sud è richiesta un’età minima di 19 anni. Il contatto riceve un invito e deve accettarlo entro una settimana perché la funzione diventi attiva.

Una volta configurato il sistema, l’utente non deve compiere ulteriori azioni. Se durante una conversazione ChatGPT rileva contenuti che potrebbero indicare un rischio serio di autolesionismo, il chatbot informa l’utente che il suo contatto fidato potrebbe essere avvisato e lo incoraggia a contattarlo direttamente, anche attraverso suggerimenti per iniziare la conversazione.

La decisione finale, però, non viene affidata soltanto agli algoritmi. OpenAI spiega che un piccolo gruppo di persone appositamente formate esamina la situazione prima dell’invio dell’allerta. Solo se i revisori ritengono che la conversazione possa indicare una seria preoccupazione per la sicurezza, il contatto riceve una notifica via email, SMS o tramite l’app, nel caso abbia un account ChatGPT.

Uno degli aspetti più delicati riguarda la privacy. OpenAI precisa che il contatto fidato non riceverà la trascrizione della chat né i dettagli della conversazione. La notifica conterrà solo un’indicazione generale sul fatto che il tema dell’autolesionismo è emerso in modo potenzialmente preoccupante, insieme all’invito a mettersi in contatto con l’utente.

Trusted Contact non sostituisce l’intervento di professionisti, numeri di emergenza o servizi di crisi. L’azienda lo presenta come un ulteriore livello di protezione, accanto alle risorse già presenti in ChatGPT, tra cui l’invito a contattare linee di supporto locali, servizi di emergenza o persone vicine nei momenti più delicati.

OpenAI afferma inoltre che gli utenti possono modificare o rimuovere il contatto fidato in qualsiasi momento dalle impostazioni, mentre il contatto può a sua volta revocare il proprio ruolo. L’azienda sostiene di puntare a revisionare queste segnalazioni di sicurezza in meno di un’ora, pur riconoscendo che nessun sistema è perfetto e che una notifica potrebbe non riflettere sempre con precisione lo stato reale della persona coinvolta.

Un passo nella sicurezza dell’AI generativa

La novità arriva in un momento in cui l’uso dei chatbot per conversazioni personali, emotive o legate alla salute mentale è sempre più diffuso. Android Authority sottolinea che ChatGPT è stato citato anche in casi legati all’autolesionismo e che OpenAI è stata chiamata in causa legalmente in relazione ad alcuni episodi, rendendo il tema della sicurezza una priorità crescente per l’azienda.

Trusted Contact si affianca ai controlli parentali già introdotti per gli account teen collegati, che possono inviare notifiche ai genitori o tutori in presenza di segnali di forte disagio. Con questa nuova estensione, OpenAI porta un meccanismo simile anche agli adulti, lasciando però all’utente la scelta preventiva della persona da coinvolgere.

Secondo OpenAI, la funzione è stata sviluppata con il contributo di clinici, ricercatori ed esperti di prevenzione del suicidio, inclusi il Global Physicians Network dell’azienda e l’Expert Council on Well-Being and AI. Il punto centrale è trasformare l’AI da spazio isolato di conversazione a possibile ponte verso un aiuto umano, soprattutto quando una persona potrebbe non riuscire a chiedere supporto da sola.

Ti consigliamo anche

Link copiato negli appunti