È martedì, 24 giugno 2025, e sulla scuola italiana – statale, paritaria o completamente privata – incombe una scadenza precisa: 2 agosto 2025.
In quella data ogni istituto dovrà dimostrare di avere reso trasparenti e tracciabili i sistemi d’intelligenza artificiale impiegati in classe, negli uffici di segreteria e nei processi di valutazione, come pretende il Regolamento (UE) 2024/1689 (AI Act).
La norma vale per tutti i «deployers» di sistemi ad alto rischio che operano sul territorio dell’Unione, a prescindere dalla natura pubblica o privata dell’organizzazione scolastica, perché il legislatore vuole garantire diritti e tutele identiche agli studenti di qualunque istituto.
Il Regolamento considera ad alto rischio i sistemi che ammettono o assegnano gli studenti, correggono esami, indirizzano i percorsi di studio o sorvegliano i comportamenti durante le prove, attività elencate al punto 3 dell’allegato III.
Se mal progettati, questi algoritmi possono amplificare le discriminazioni e compromettere in modo permanente le opportunità formative: per questo la scuola condivide lo stesso livello di vigilanza previsto per sanità e infrastrutture critiche.
Dal 2 agosto 2025 i software che rientrano in tale categoria dovranno già disporre di un piano di gestione dei rischi, dataset tracciati e testati contro i bias, log consultabili, audit indipendente, marcatura CE e registrazione nel database europeo; ogni istituto dovrà poter sospendere il sistema se genera errori ricorrenti e spiegare agli alunni l’impatto dell’algoritmo sul loro percorso.
Nello stesso giorno gli Stati membri dovranno avere designato le rispettive autorità di vigilanza.
Il conto alla rovescia non parte da zero: il 2 febbraio 2025 è già entrato in vigore l’articolo 4, che obbliga dirigenti, docenti e tecnici a possedere un livello minimo di alfabetizzazione sull’IA.
Senza personale formato non esiste sorveglianza umana credibile; gli istituti che non hanno ancora organizzato corsi adeguati devono recuperare.
Entro l’agosto 2025 vanno ultimati l’inventario di ogni strumento di IA presente a scuola, la richiesta ai fornitori di audit, dataset e log necessari alla registrazione UE e la riscrittura del regolamento interno, in modo che gli studenti sappiano quando un algoritmo li valuta e possano ottenere spiegazioni dettagliate.
Parallelamente occorre un programma di formazione agile: workshop che insegnino a leggere un report di bias, interpretare i log e sospendere l’applicazione se qualcosa non torna.
Comunicare questi passaggi in assemblea trasforma un obbligo giuridico in una lezione di cittadinanza digitale.
Prima dell’AI Act gli strumenti venivano spesso adottati «alla cieca», senza standard condivisi; oggi chi incide sul percorso di studio deve disporre di marcatura CE, audit e registrazione e il personale deve saper bloccare l’algoritmo in caso di malfunzionamenti.
Inoltre, ciò che un tempo non consentiva di contestare decisioni automatizzate ora garantisce a studenti e famiglie il diritto di chiedere spiegazioni e rettifiche.
Il legislatore europeo impone una cintura di sicurezza valida per tutti, dalle scuole statali ai licei internazionali.
Chi si organizza ora potrà usare l’IA per personalizzare le lezioni, ridurre la burocrazia e individuare precocemente le difficoltà di apprendimento; chi rinvia rischia di dover spegnere i servizi digitali proprio quando servono di più.
Fra quaranta giorni la conformità smetterà di essere un progetto e diventerà un requisito: gli istituti che colgono la sfida dimostreranno che tecnologia e istruzione, sotto regole chiare, possono crescere insieme, mentre chi indugia scoprirà – forse dolorosamente – che nell’era degli algoritmi la procrastinazione si paga in tempo di insegnamento e fiducia degli studenti.