Intelligenza Artificiale (AI): Le linee guida del Ministero
Pubblicato il 29 Agosto 2025
Il Ministero dell’Istruzione e del Merito ha pubblicato la versione 1.0 delle Linee guida per l’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche. Il documento, firmato il 9 agosto 2025, offre un quadro organico per portare l’IA nelle scuole in modo responsabile, trasparente e conforme alle norme europee e nazionali. Non è un manifesto, ma una cassetta degli attrezzi: principi, requisiti, metodo di lavoro e una governance che fa perno sulla piattaforma unica per mappare e monitorare i progetti delle scuole.
Al centro c’è un modello in quattro pilastri: principi di riferimento (centralità della persona, equità, inclusione); requisiti etici, tecnici e normativi; un framework di implementazione per accompagnare le scuole lungo tutto il ciclo di progetto; comunicazione e governance, con la piattaforma unica come sportello interattivo per inserire le “schede progetto”, riusare esperienze e consentire al Ministero di vedere cosa accade – anche con dashboard e audit a campione. Tradotto: si progetta, si misura, si condivide; non si improvvisa.
Sul piano dei diritti, le linee guida richiamano l’AI Act (il regolamento europeo sull’intelligenza artificiale): sono classificati come ad alto rischio i sistemi usati per ammissioni, assegnazioni, valutazioni degli apprendimenti, definizione del livello di istruzione o controllo delle prove d’esame. Per questi l’uso è possibile solo con cautele stringenti, valutazioni d’impatto e sorveglianza umana adeguata. In più è vietata l’“emotion recognition”, cioè il riconoscimento delle emozioni, salvo necessità mediche o di sicurezza. La scuola è formalmente il deployer (chi introduce e utilizza il sistema) e ha obblighi specifici; i fornitori devono garantire qualità, documentazione, gestione dei dati e monitoraggio successivo all’uso. È la fine dell’idea di “prendiamo un’app e vediamo”: ora ogni scelta ha una responsabilità chiamata per nome.
Privacy e protezione dei dati non sono un allegato, ma l’asse portante. Per i sistemi ad alto rischio la valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment, FRIA) va integrata nella valutazione d’impatto sulla protezione dei dati (Data Protection Impact Assessment, DPIA). Devono essere descritte finalità, durata, categorie di interessati, rischi, misure di sorveglianza umana e canali di reclamo. Se restano rischi elevati, scatta la consultazione preventiva del Garante per la privacy; la DPIA va aggiornata ogni volta che cambiano rischi, misure o processi.
Il documento invita a guardare a una metodologia specifica del Consiglio d’Europa, pensata proprio per stimare gli impatti delle tecnologie su diritti, democrazia e stato di diritto. È qui che entra in gioco HUDERIA.
|
HUDERIA HUDERIA è l’acronimo di Human Rights, Democracy and Rule of Law Impact Assessment (Valutazione d’impatto su Diritti Umani, Democrazia e Stato di diritto). È una metodologia sviluppata dal Consiglio d’Europa per valutare in modo sistematico l’impatto che una tecnologia – in particolare i sistemi di IA – può avere su tre dimensioni fondamentali della convivenza civile:
HUDERIA è quindi uno strumento di prevenzione: invita a riflettere prima di introdurre un sistema, a stimare i rischi e a predisporre contromisure. Solo in un secondo momento si procede con l’innovazione vera e propria. Questo rovesciamento della prospettiva – prima proteggere, poi sperimentare – rappresenta il “cambio di passo” sottolineato dalle Linee guida del Ministero. |
C’è poi una novità concreta per la vita scolastica: il “diritto di non partecipazione”. Gli strumenti – inclusi i grandi modelli linguistici (Large Language Models, LLM) – vanno configurati evitando trattamenti di dati personali degli studenti; niente salvataggio dei prompt, niente profilazione, nessun tracciamento. Se, anche indirettamente, si trattano dati di minori, la scuola deve informare in modo chiaro le famiglie prima di partire. In breve: prudenza operativa, trasparenza, configurazioni privacy-by-default.
Il metodo proposto è pratico e, finalmente, sequenziale: Definizione (bisogno, coerenza con Piano triennale dell’offerta formativa, stakeholder); Pianificazione (piano di progetto, piano rischi, competenze interne/esterne); Adozione graduale con formazione e comunicazione; Monitoraggio in parallelo – sugli avanzamenti e sugli output dei sistemi – con rivalutazione periodica dei rischi; Conclusione con verifica degli obiettivi, lezioni apprese e rendicontazione sociale. La logica è ciclica e partecipata; la leadership del dirigente scolastico è esplicita, ma attraversa tutto l’istituto.
Nelle applicazioni, le linee guida distinguono tre prospettive: IA al servizio degli studenti, a supporto dei docenti, a sostegno dell’organizzazione. Per gli studenti, l’enfasi è su personalizzazione, accessibilità, feedback tempestivi e sviluppo del pensiero critico; con un caveat netto: vietati strumenti di sentiment analysis e massima attenzione a non scambiare l’autorevolezza apparente dei modelli per verità di fatto. Per docenti e personale amministrativo, l’IA è leva per progettazione, semplificazione dei processi, gestione documentale e comunicazioni periodiche; resta centrale la spiegabilità delle decisioni algoritmiche e la documentazione interna per eventuali audit.
La governance non finisce nel perimetro della singola scuola. Il Ministero annuncia decreti successivi – sentito il Garante – per definire meglio modalità operative e iniziative di formazione; le linee guida saranno rese e mantenute aggiornate in forma interattiva sulla piattaforma unica. È una promessa di manutenzione normativa e tecnica, oltre che un invito a non procedere in ordine sparso.
Perché tutto questo conta? Perché riconosce lucidamente la doppia natura dell’IA a scuola: opportunità potente per inclusione e qualità, rischio concreto di intrusione e discriminazione se progettata male. Il documento tiene insieme entrambe le cose: spinge sull’innovazione, ma chiede regole, competenze e valutazioni periodiche; chiede trasparenza e coinvolgimento della comunità scolastica, non automatismi calati dall’alto; mette il dirigente nella posizione di guida, ma responsabilizza fornitori, docenti, famiglie e studenti. In altre parole: l’IA entra in classe, ma bussa; e la porta si apre solo dopo aver controllato serrature, luci e uscite di sicurezza.
In sintesi operativa per le scuole: partire da un bisogno chiaro e coerente con il Piano triennale dell’offerta formativa; progettare con stakeholder e piano rischi in mano; scegliere soluzioni spiegabili e configurate privacy-by-default, soprattutto con studenti minori; integrare formazione continua e sistemi ibridi che lascino all’umano ciò che è dell’umano; monitorare e documentare tutto, alimentando la piattaforma unica per contribuire a una conoscenza condivisa del sistema. Non è burocrazia; è il modo per rendere l’IA un alleato e non una scorciatoia.
|
Glossario dei termini tecnici
|