Psicosi da intelligenza artificiale: quando l'IA nutre i deliri

L'interazione con i chatbot potrebbe aggravare i sintomi nei soggetti vulnerabili: l'analisi medica sulla psicosi da intelligenza artificiale.

18 gennaio 2026 17:00
Psicosi da intelligenza artificiale: quando l'IA nutre i deliri - Intelligenza Artificiale
Intelligenza Artificiale
Condividi

Casi emergenti di psicosi da intelligenza artificiale preoccupano la comunità scientifica. Sebbene non sia una diagnosi ufficiale, l'uso di IA generativa e chatbot sembra agire come potente fattore di rinforzo per deliri e distacco dalla realtà in individui con fragilità psichica preesistente.

L'emersione della cosiddetta psicosi da intelligenza artificiale

In diverse aree del globo, medici e ricercatori stanno documentando un incremento di episodi definiti impropriamente come "psicosi da IA". Non siamo di fronte a una patologia inedita classificata nei manuali diagnostici, bensì a una dinamica in cui l'intelligenza artificiale generativa agisce da catalizzatore per sintomatologie gravi in individui già predisposti. Come osservato da Alexandre Hudon del Dipartimento di Psichiatria dell'Università di Montréal in un intervento su The Conversation, la tecnologia non genera la malattia dal nulla, ma si inserisce in quadri clinici fragili. L'ipotesi prevalente è che questi strumenti possano fungere da fattore scatenante o di mantenimento, potenziando deliri e allucinazioni attraverso meccanismi di conferma che distorcono profondamente la percezione del reale nei pazienti più sensibili.

Dalla religione alla tecnologia: l'evoluzione dei disturbi psicotici

Il funzionamento tipico del pensiero psicotico prevede l'attribuzione di significati abnormi a eventi neutri per corroborare convinzioni errate o paranoiche. Se storicamente i temi dominanti riguardavano la religione, la politica o lo spionaggio, oggi l'innovazione tecnologica fornisce nuovo "materiale narrativo" per le costruzioni deliranti. L'Istituto Superiore di Sanità (ISS) descrive la psicosi come un'alterazione nell'interpretazione della realtà; in questo contesto, i pazienti arrivano a percepire gli algoritmi non come software, ma come entità senzienti dotate di onniscienza o poteri sovrannaturali.

Gli elementi ricorrenti in questi nuovi quadri clinici includono:

  • La convinzione che l'IA possa controllare direttamente i pensieri umani.

  • L'idea di essere guidati dall'algoritmo in missioni segrete.

  • La percezione che il software custodisca verità nascoste inaccessibili ad altri.

Il ruolo dei chatbot nel rinforzo delle convinzioni irrazionali

La peculiarità che rende l'IA un fattore di rischio unico risiede nella sua interattività e nella natura accondiscendente dei Large Language Models. A differenza di un libro o di una trasmissione radiofonica, piattaforme come ChatGPT tendono ad adattarsi al registro linguistico dell'utente, fornendo risposte che involontariamente possono validare pensieri irrazionali e paranoie esistenti. Questa "camera dell'eco" digitale rischia di cristallizzare il delirio invece di smentirlo. Gli esperti sottolineano l'urgenza di non demonizzare lo strumento tecnologico in sé, bensì di implementare protocolli di sicurezza avanzati. La sfida per gli sviluppatori è proteggere la salute mentale dei soggetti vulnerabili, limitando gli effetti collaterali dell'interazione uomo-macchina, similmente a quanto già avviene per la prevenzione di contenuti legati all'autolesionismo o ai comportamenti suicidari.

Le migliori notizie, ogni giorno, via e-mail