Intelligenza artificiale tra rischi e potenzialità: l’allarme di Giorgio Parisi

Giorgio Parisi apre il ciclo sull’intelligenza artificiale alla Camera: limiti dei modelli, rischi informativi e proposta di un CERN europeo per l’IA.

11 giugno 2025 19:24
Intelligenza artificiale tra rischi e potenzialità: l’allarme di Giorgio Parisi - Intelligenza Artificiale
Intelligenza Artificiale
Condividi

Nel cuore di Roma, nello storico vicolo Valdina, ha preso il via un ciclo di conferenze dedicato all’intelligenza artificiale, promosso dal Comitato di Vigilanza della Camera dei Deputati e presieduto dalla Vicepresidente Anna Ascani. A inaugurare l’evento è stato Giorgio Parisi, premio Nobel per la Fisica, che ha offerto una riflessione articolata e profonda sulla trasformazione in atto, mettendo in luce tanto le straordinarie opportunità quanto le insidie sistemiche legate all’evoluzione dell’IA.

I limiti intrinseci dei modelli linguistici

Parisi ha esordito con una lucida analisi dei cosiddetti Large Language Model (LLM), come ChatGPT o Gemini, evidenziandone i confini cognitivi. “Questi modelli sono disincarnati e disomatizzati – non hanno un corpo”, ha spiegato. Secondo il fisico, ciò implica che la conoscenza di questi sistemi sia di natura sintattica e semantica, ossia basata sulle relazioni tra le parole, ma non ontologica: manca, cioè, una comprensione autentica della realtà fisica e concreta.

Per Parisi, il loro funzionamento si basa su collegamenti probabilistici tra frasi e concetti, ma non su un’esperienza diretta del mondo. “Tutto è flatus vocis – parole che rimandano ad altre parole – ma senza ancoraggio nella realtà materiale”, ha sottolineato. Questo limite porta, tra l’altro, al rischio delle cosiddette “allucinazioni” dell’IA: quando l’informazione manca, i modelli tendono a colmare i vuoti inventando contenuti, senza poter distinguere tra vero e falso.

L’ombra del monopolio informativo

Un’altra questione cruciale sollevata da Parisi riguarda il crescente rischio di concentrazione informativa nelle mani di pochi attori tecnologici. “Un monopolio dell’intelligenza artificiale sarebbe una tragedia, peggio di quanto immaginato da Orwell nel suo 1984”, ha avvertito. La capacità dell’IA di leggere, sintetizzare e ridistribuire informazioni a milioni di utenti rappresenta un potere immenso, che – se non equamente bilanciato – rischia di distorcere la conoscenza pubblica.

Il premio Nobel ha evidenziato il problema della selezione delle fonti come esempio concreto di questa deriva. Diversi modelli utilizzano archivi di dati differenti, spesso con orientamenti ideologici marcati. Ha menzionato l’intelligenza artificiale promossa da Elon Musk, che “dichiaratamente attinge a fonti di destra e rifiuta quelle woke”, evidenziando come questa scelta condizioni le risposte fornite, amplificando la polarizzazione culturale.

Verso una regolamentazione pubblica e condivisa

Di fronte a questi scenari, Parisi ha lanciato una proposta ambiziosa e concreta: creare un “CERN europeo per l’intelligenza artificiale”, un grande polo pubblico di ricerca collaborativa che favorisca la trasparenza, l’indipendenza e la condivisione del sapere. “È fondamentale che le istituzioni pubbliche conoscano a fondo il funzionamento di queste tecnologie”, ha detto, “per poterle regolamentare in modo efficace e democratico”.

Il paragone fatto dal fisico è emblematico: così come il traffico ha bisogno di un codice della strada, anche l’IA necessita di norme precise e condivise. Parisi ha poi messo in guardia contro fenomeni come i deepfake, che minano la fiducia nei contenuti video, e l’uso incontrollato dell’IA come supporto psicologico non qualificato, specialmente tra i giovani in difficoltà.

Le migliori notizie, ogni giorno, via e-mail