Intelligenza Artificiale: il MIM pubblica le linee guida per un’innovazione etica e sicura

Il MIM presenta le linee guida per l’uso dell'Intelligenza Artificiale a scuola, puntando su etica, inclusione, sicurezza, protezione dei dati e innovazione.

15 settembre 2025 13:43
Intelligenza Artificiale: il MIM pubblica le linee guida per un’innovazione etica e sicura - Intelligenza Artificiale
Intelligenza Artificiale
Condividi

Con il Decreto Ministeriale n. 166 del 9 agosto 2025, il Ministero dell’Istruzione e del Merito introduce ufficialmente l’Intelligenza Artificiale nel sistema scolastico italiano. Il provvedimento stabilisce le regole per l’utilizzo dell’IA attraverso la piattaforma digitale UNICA, affiancando Linee guida dettagliate che pongono le basi per un approccio normativamente conforme, eticamente fondato e tecnologicamente sostenibile. L’obiettivo è accompagnare le scuole in un percorso di trasformazione digitale che metta al centro la persona, tuteli i diritti e promuova un uso consapevole e responsabile delle tecnologie emergenti.

Una visione europea per un’IA educativa e responsabile

Il quadro delineato dal MIM si ispira ai valori sanciti a livello nazionale e internazionale, primo fra tutti l’AI Act (Regolamento UE 2024/1689), con cui l’Unione Europea promuove un’Intelligenza Artificiale centrata sull’essere umano. Le Linee guida italiane recepiscono questo approccio, proponendo un modello operativo che aiuti le scuole a integrare l’IA nel rispetto dei diritti fondamentali e della protezione dei dati personali. L’IA deve essere strumento e non fine: il suo impiego va valutato in base all’impatto educativo, alla trasparenza degli algoritmi e alla sostenibilità dell’intervento. Le istituzioni scolastiche, identificate come 'deployer', assumono quindi un ruolo attivo e consapevole nella gestione dei sistemi intelligenti.

Quattro pilastri per un’Intelligenza Artificiale scolastica sicura e inclusiva

Il MIM propone un’architettura basata su quattro pilastri fondamentali: centralità della persona, equità e inclusione, etica e responsabilità, trasparenza e spiegabilità. Ogni scuola è chiamata a pianificare con attenzione l’adozione dell’IA, garantendo coerenza con il PTOF, la mappatura dei rischi e la conformità al GDPR, attraverso strumenti come la DPIA (Data Protection Impact Assessment) e la FRIA (Fundamental Rights Impact Assessment). Il percorso prevede un ciclo in cinque fasi operative, dalla progettazione iniziale fino alla valutazione dei risultati e alla possibile estensione o dismissione del sistema adottato. Ogni fase richiede un controllo costante della qualità, dell’affidabilità e dell’impatto dell’IA sull’intera comunità scolastica.

HUDERIA: valutare i rischi con un approccio ai diritti umani

La valutazione del rischio non si limita agli aspetti tecnici, ma si estende ai diritti umani, alla democrazia e allo Stato di diritto, grazie all’adozione del metodo HUDERIA sviluppato dal Consiglio d’Europa. Questo approccio include quattro strumenti chiave: l’analisi contestuale con COBRA (Contextualisation of Risks and Benefits Analysis), il coinvolgimento attivo degli stakeholder tramite SEP (Stakeholder Engagement Plan), l’identificazione dei rischi specifici e un piano di mitigazione mirato. Le scuole non sono lasciate sole in questo percorso: l’obiettivo è fornire un metodo chiaro e replicabile che consenta alle istituzioni di valutare in modo critico ogni uso dell’IA, anticipando potenziali criticità e valorizzando le opportunità per un’educazione più efficace, equa e consapevole.

Guida-SOS-DS-6-Intelligenza-artificiale-a-scuola-Tosolini-1

Le migliori notizie, ogni giorno, via e-mail