Probabilmente è capitato anche a te di chiedere consigli personali all’intelligenza artificiale. Ci troviamo in una situazione di cui non conosciamo la risposta e vogliamo un consiglio proprio dalla nostra applicazione “intelligente” in grado di offrirci una o più soluzioni in pochi secondi. Stando a quanto dichiarato recentemente dagli esperti di sicurezza informatica questa non è una buona idea.
A seguito di un’attenta e approfondita ricerca, gli informatici di Stanford hanno confermato le preoccupazioni degli psicologi: i chatbot basati sull’intelligenza artificiale assecondano quasi tutto ciò che dice l’utente pur di tenerlo di buon umore. “Gli utenti preferivano e si fidavano delle risposte adulatorie dell’IA, incentivando gli sviluppatori di IA a preservare l’adulazione nonostante i rischi”, ha dichiarato Ekeoma Uzogara.
Il comportamento adulatorio (lusinghiero, compiacente, rassicurante) dei chatbot basati sull’intelligenza artificiale (IA), progettato per aumentare il coinvolgimento degli utenti, comporta dei rischi, dato che le persone cercano sempre più spesso consigli su dilemmi interpersonali.
L’intelligenza artificiale non è un’amica, evita i consigli personali
I ricercatori di Stanford e molti esperti di sicurezza informatica sono d’accordo su una cosa: l’intelligenza artificiale non è nostra amica ed è per questo che dobbiamo evitare di chiedere consigli personali ai chatbot AI. “I chatbot basati sull’intelligenza artificiale sono congegni software, non confidenti“, hanno spiegato da Malwarebytes.
Gli esperti hanno poi aggiunto: “Nonostante quelli che possono sembrare poteri magici, non c’è nessun fantasma nella macchina. Sono semplicemente modelli statistici molto validi che si comportano come se ‘capissero’ i problemi personali, ma non sono in grado di farlo sulla base di esperienze vissute“.
Cosa puoi fare per evitare di ricevere risposte che l’intelligenza artificiale sa già che vorresti? L’AI Security Institute del Regno Unito spiega che potrebbe essere buono trasformare le affermazioni in domande e riconoscendo che le affermazioni più enfatiche incoraggiano l’intelligenza artificiale a una maggiore adulazione.
“Una preoccupazione fondamentale è la ‘sedazione dell’IA‘, in cui i sistemi si conformano eccessivamente alle preferenze dell’utente, rafforzando i pregiudizi esistenti anziché mettere in discussione le ipotesi“, ha spiegato Malihe Alikhani, ricercatrice di Brookings Institution.