IA e minori: il consenso è valido dai 14 anni
La legge 132/2025 stabilisce che i minori possono usare l’intelligenza artificiale solo dai 14 anni. Prima serve il consenso dei genitori.
La legge 132 del 2025 fissa a 14 anni l’età minima per il consenso autonomo all’uso dei sistemi di intelligenza artificiale. Prima di tale soglia, serve l’autorizzazione dei genitori. Una norma che mira a tutelare i minori nell’ambiente digitale, ma che lascia aperte diverse questioni operative su verifiche, responsabilità e trasparenza.
Il limite dei 14 anni per l’uso dell’IA
Con la nuova legge 132 del 2025, l’Italia introduce un quadro normativo volto a disciplinare l’interazione dei minori con l’intelligenza artificiale. La norma stabilisce che solo i ragazzi che hanno compiuto 14 anni possono utilizzare sistemi basati su IA in modo autonomo e prestare consenso al trattamento dei propri dati personali.
Sotto questa età, ogni uso è subordinato al permesso dei genitori o di chi esercita la responsabilità genitoriale. Il principio riprende il modello già applicato dal Regolamento europeo 2016/679 (GDPR) per i servizi digitali, adattandolo però a una tecnologia in rapida evoluzione come l’intelligenza artificiale. L’obiettivo è proteggere i minori da esposizioni improprie a contenuti o sistemi automatizzati che raccolgono e analizzano dati sensibili, riducendo i rischi legati a profilazione, manipolazione algoritmica o uso improprio delle informazioni personali.
Il nodo del consenso e la responsabilità informativa
Il consenso informato è il fulcro della nuova disciplina. Una volta compiuti 14 anni, il minore può decidere autonomamente se accedere a servizi basati su IA, ma solo se le piattaforme forniscono informazioni chiare, semplici e comprensibili. Questo requisito impone ai gestori di sistemi digitali di ripensare i propri strumenti di comunicazione e informativa, adeguandoli al linguaggio e alla capacità di comprensione dei più giovani.
La legge, tuttavia, non definisce criteri oggettivi per valutare la chiarezza delle informazioni, lasciando un margine interpretativo che rischia di generare ambiguità. Spetta alle aziende, dunque, predisporre interfacce accessibili e informative trasparenti, ma anche garantire che i minori comprendano effettivamente ciò a cui acconsentono. Il passaggio da tutela formale a tutela sostanziale sarà la vera sfida di questa nuova regolamentazione, in un contesto dove l’IA tende a operare in modo automatizzato e spesso poco visibile.
Verifica dell’età e incertezze applicative
Un punto critico della legge riguarda l’assenza di un sistema di verifica dell’età. Non viene previsto alcun meccanismo obbligatorio per accertare che il consenso sia espresso da un utente realmente maggiorenne o da un minore di 14 anni con il consenso dei genitori. Nella pratica, il rischio è che le piattaforme si limitino a richiedere una semplice autodichiarazione, priva di controllo effettivo.
Le aziende dovranno quindi bilanciare l’obbligo di tutela dei minori con il rispetto della privacy e la semplicità d’accesso ai propri servizi. Alcuni operatori potrebbero introdurre strumenti di verifica documentale o basati su identità digitale, ma al momento la legge non impone soluzioni tecniche vincolanti. Restano aperte anche le modalità con cui tali principi saranno integrati nei sistemi che interagiscono quotidianamente con milioni di utenti, dai chatbot educativi alle app di apprendimento automatizzato.
Il provvedimento, pur segnando un passo avanti nella protezione dei minori online, evidenzia dunque la necessità di un successivo intervento regolatorio che renda effettiva l’applicazione di queste tutele nel complesso ecosistema dell’intelligenza artificiale.