AuditAI
Audit AI per le Istituzioni Scolastiche
L’intelligenza artificiale sta entrando in modo sempre più pervasivo nella didattica e nell’organizzazione scolastica. Con l’entrata in vigore del Regolamento UE 2024/1689 (AI Act), della Legge italiana 132/2025 e delle Linee Guida MIM sull’uso dell’IA a scuola, ogni istituto è chiamato a garantire un utilizzo responsabile, trasparente e documentato delle tecnologie AI.
L’Audit AI Formascuole è un percorso operativo che aiuta le scuole a comprendere dove si trovano, quali strumenti stanno utilizzando (o intendono adottare) e come gestire correttamente rischi, obblighi e opportunità. Attraverso una mappatura strutturata, un’analisi dei livelli di rischio e un set di raccomandazioni concrete, la scuola ottiene una fotografia chiara della propria maturità AI e un piano d’azione pratico per garantire conformità normativa, tutela degli studenti e qualità dei processi educativi.
Un supporto completo, pensato per dirigenti, referenti digitali e team innovazione, per accompagnare le scuole nell’integrazione consapevole e sicura dell’intelligenza artificiale.
Come Funziona
Valutare in modo rapido e strutturato il livello di conformità e maturità dell’Istituto nell’uso dell’Intelligenza Artificiale, in coerenza con Linee guida MIM, AI Act (Reg. UE 2024/1689) e L. 132/2025, identificando priorità essenziali (ESS) e azioni raccomandate (REC).
24 requisiti organizzati in 6 aree chiave.
Per ogni requisito si risponde: Sì, Parzialmente, No o N/A (non applicabile).
Non sono richiesti allegati in fase di compilazione: le evidenze si raccolgono nel confronto successivo.
Durata media: 10–12 minuti.
Le domande sono chiare e operative (niente legalese).
È utile coinvolgere il DS, un referente didattico/animatore digitale, il DPO e, se presente, un team IA.
Un punteggio per ciascuna area (in %) e un indice complessivo.
Una classificazione immediata per area: Non conforme / Parzialmente conforme / Conforme / Avanzato.
Un primo elenco di priorità ESS e azioni REC.
I risultati dell'audit vengono inviati automaticamente e saranno poi discussi insieme in un colloquio dedicato, durante il quale si raccolgono evidenze e si definisce un piano 30–60–90 giorni.
I dati sono usati esclusivamente per finalità di audit e miglioramento interno; la scuola conserva il controllo dei propri documenti.
Il questionario “Audit AI” misura in modo rapido e strutturato il livello di conformità e di maturità organizzativa dell’Istituto nell’uso dell’Intelligenza Artificiale. Le domande sono organizzate in 6 aree chiave e la scuola indica, per ciascun requisito, se è già implementato, parzialmente implementato, non presente o non applicabile. L’esito produce un profilo per area e un indice complessivo, da discutere insieme in un colloquio di restituzione, durante il quale si raccolgono le evidenze e si definisce un piano di miglioramento con priorità ESS (obbligatorie) e REC (raccomandate). L’impostazione è coerente con i tre riferimenti di cornice: Linee guida MIM per l’adozione responsabile a scuola, AI Act per classificazione del rischio, trasparenza e supervisione umana, e L. 132/2025 per gli obblighi di governance e accountability nelle PA.
Le 6 aree di analisi
Questa area verifica se la scuola ha definito una cornice organizzativa per l’IA: policy o linee guida interne, ruoli e responsabilità (dirigenza, referenti, DPO, eventuale team IA), processi decisionali e monitoraggio. È il fondamento dell’accountability: chiarisce chi decide cosa, con quali criteri e come vengono registrate le scelte (inventari/registri interni degli strumenti, momenti di revisione periodica). Le Linee guida MIM richiamano una governance chiara per l’integrazione dell’IA a scuola; l’AI Act insiste su supervisione umana, documentazione e trasparenza del sistema rispetto agli utilizzatori; la L. 132/2025 introduce per le amministrazioni pubbliche obblighi di governo, controllo e responsabilità nell’uso di sistemi di IA, favorendo presìdi organizzativi e tracciabilità delle decisioni.
Qui si accerta la correttezza giuridica dell’impiego di IA: basi giuridiche e informative privacy per studenti/famiglie e personale, eventuali valutazioni d’impatto (DPIA) quando il rischio è elevato, accordi di nomina a responsabile (DPA) con i fornitori, disciplina dei trasferimenti extra-UE e coerenza con il registro dei trattamenti. Le Linee guida MIM richiamano attenzione a minori, trasparenza e corretto uso dei dati; l’AI Act introduce requisiti di data governance, documentazione e informazioni agli utenti; la L. 132/2025 chiede alle PA di assicurare conformità normativa e pattuizioni contrattuali adeguate con i fornitori dei servizi di IA.
L’attenzione si sposta sulla classificazione degli strumenti IA utilizzati (minimo, limitato, alto rischio), sul livello di trasparenza dovuto agli utenti e sull’eventuale adozione di misure aggiuntive qualora l’uso rientri in categorie più regolamentate (ad es. requisiti tipici dei sistemi ad alto rischio: gestione del rischio, qualità dei dati, log, supervisione umana, istruzioni d’uso). È l’area più direttamente connessa all’AI Act, che stabilisce il perimetro e i doveri in funzione del rischio; le Linee guida MIM insistono sulla chiarezza verso studenti e docenti circa quando e come si usa l’IA; la L. 132/2025 richiede agli enti pubblici presìdi di conformità e trasparenza nella fornitura di servizi basati su IA.
Questa sezione valuta come l’IA entra nelle pratiche didattiche: progettazione delle attività, regole per valutazioni e feedback (evitando esiti esclusivamente automatizzati), disponibilità di alternative per chi non può o non vuole usare determinati strumenti e formazione dei docenti. Le Linee guida MIM forniscono i criteri per un’integrazione pedagogicamente sensata e inclusiva; l’AI Act richiama trasparenza quando uno studente interagisce con un sistema di IA e la necessità di supervisione umana; la L. 132/2025 rimarca l’obbligo, per le PA, di utilizzare l’IA con garanzie di equità, comprensibilità e controllo umano, specialmente laddove si possano generare impatti su diritti e percorsi educativi.
L’IA a scuola deve essere sicura, non discriminatoria e accessibile. In quest’area si osserva la protezione dei minori, la gestione dei bias (per prevenire discriminazioni), e la pari opportunità d’accesso (dispositivi, connettività, usabilità, accessibilità per studenti con BES/DSA). Le Linee guida MIM ribadiscono la centralità della tutela degli studenti e dell’inclusione; l’AI Act chiede misure per ridurre i rischi sui diritti fondamentali e per mitigare bias e disparità; la L. 132/2025 richiede che l’impiego dell’IA nella PA non comprometta non-discriminazione e pari accesso ai servizi, con particolare attenzione ai soggetti vulnerabili.
Infine, si considerano le misure tecniche e organizzative a protezione dei sistemi e dei dati, le procedure per incidenti o uso improprio, il monitoraggio dell’adozione degli strumenti di IA e i cicli di miglioramento (formazione periodica, revisione delle policy, aggiornamenti). Le Linee guida MIM sollecitano un’adozione sicura e controllata; l’AI Act prevede monitoraggio post-messa in servizio, registrazioni e gestione degli incidenti in funzione del rischio; la L. 132/2025 inquadra per le PA doveri di prevenzione, segnalazione e remediation, oltre alla necessità di aggiornare nel tempo i presìdi organizzativi e tecnici.
In sintesi, le sei aree coprono l’intero ciclo di vita dell’IA a scuola: chi decide (governance), con quali regole (legale/dati/fornitori), per quali rischi (AI Act), con quali pratiche didattiche (didattica/valutazione), per quali studenti (minori/equità/accessibilità) e con quali garanzie operative (sicurezza/incidenti/miglioramento). Questa mappa consente di individuare obblighi immediati (ESS) e miglioramenti progressivi (REC), portando l’Istituto su un percorso di conformità e qualità didattica sostenibile.