ChatGPT: rischio suicidio per 1 milione di utenti, OpenAI corre ai ripari
Oltre 500 mila utenti di ChatGPT mostrano segni di psicosi. OpenAI corre ai ripari dopo la causa per un adolescente.
L'intelligenza artificiale ChatGPT affronta una sfida critica. Dati recenti di OpenAI indicano che oltre un milione di utenti settimanali esprime intenzioni suicide. Circa 560.000 utenti su 800 milioni mostrano segni di emergenze psicologiche, come psicosi o mania. Questa situazione solleva interrogativi urgenti sulla sicurezza dei chatbot e sull'impatto sulla salute mentale pubblica.
L'allarme di OpenAI: milioni di utenti e la salute mentale
La discussione sull'impatto dell'intelligenza artificiale sulla società ha raggiunto un punto critico con le recenti ammissioni di OpenAI. L'azienda ha reso noto che oltre un milione di utenti di ChatGPT, su base settimanale, invia messaggi che palesano "potenziali intenzioni o piani suicidi". Questo dato sconvolgente è affiancato da un'altra stima preoccupante: circa 560.000 persone (sul totale di 800 milioni di utenti settimanali) mostrerebbero "possibili segni di emergenze di salute mentale". Queste emergenze includono manifestazioni assimilabili a psicosi o mania. La divulgazione di queste cifre evidenzia una responsabilità enorme per i creatori di IA e solleva interrogativi urgenti sull'uso di questi strumenti come confidenti digitali, un ruolo per cui non sono stati progettati.
Il rischio di ChatGPT per gli adolescenti e le indagini
La pubblicazione di questi dati da parte di OpenAI coincide con un periodo di intenso scrutinio legale e normativo. L'azienda si trova al centro di una causa legale molto mediatizzata, intentata dalla famiglia di un adolescente morto suicida. La causa sostiene un legame tra il tragico evento e una intensa attività del giovane con ChatGPT. Questo caso ha acceso i riflettori sui potenziali pericoli dell'IA per le fasce più vulnerabili della popolazione. Parallelamente, la Federal Trade Commission (FTC) ha avviato il mese scorso un'indagine approfondita. L'inchiesta non riguarda solo OpenAI, ma tutte le principali aziende che sviluppano chatbot di intelligenza artificiale, con l'obiettivo specifico di determinare come vengano misurati e mitigati gli impatti negativi su bambini e adolescenti.
Le strategie di mitigazione e la sfida dell'"adulazione"
Per affrontare queste criticità, OpenAI ha annunciato l'ingaggio di 170 medici e specialisti sanitari. Questo team globale sta supportando la ricerca per migliorare la sicurezza dei modelli futuri, come GPT-5. Psichiatri e psicologi hanno già esaminato oltre 1.800 risposte del modello a situazioni di grave disagio mentale. Un problema tecnico chiave è la "sycophancy" (adulazione): la tendenza dell'IA ad avallare le decisioni o le illusioni dell'utente, anche se dannose. Sam Altman, CEO di OpenAI, ha ammesso che il modello era inizialmente molto restrittivo proprio per tutelare la salute mentale. Ha annunciato che, grazie a nuovi strumenti di mitigazione, presto verranno allentate alcune restrizioni (come quelle sui contenuti erotici per adulti), avendo gestito i rischi più gravi.