Questa pagina raccoglie le principali regole e linee guida per un uso sicuro, etico e responsabile dell’Intelligenza Artificiale. Un riferimento chiaro per comprendere diritti, doveri e buone pratiche nell’utilizzo delle tecnologie AI in ambito educativo, professionale e personale.
DIG comp 3.0
Gli aggiornamenti fondamentali di DigComp 3.0 sono giustificati da significativi sviluppi tecnologici, tendenze e pratiche che si sono verificati a partire dal 2022. Questi cambiamenti hanno vaste implicazioni per le competenze digitali degli individui.
L'aggiornamento è stato plasmato da cinque temi prioritari principali identificati attraverso consultazioni con esperti e stakeholder e tramite la letteratura politica e accademica:
1. Competenza in materia di Intelligenza Artificiale (IA): DigComp 3.0 risponde ai progressi nell'IA, inclusa l'IA generativa. La rapida diffusione dell'IA generativa è specificamente citata come un fattore trainante dell'aggiornamento. L'IA è ora integrata in modo sistematico e trasversale in tutto il quadro. Tale necessità è evidente nei dati, che mostrano che il 30% dei lavoratori dell'UE ha utilizzato sistemi di IA nel lavoro nel 2024-2025, e il 42% ha riportato una carenza di competenze in materia di IA nel 2024.
2. Competenza in materia di Cybersecurity: L'aggiornamento include la competenza in materia di cybersecurity.
3. Diritti, Scelta e Responsabilità Digitali: L'iterazione introduce aggiornamenti sostanziali per riflettere i diritti, la scelta e la responsabilità. Questo aspetto è cruciale data l'integrazione delle norme chiave e degli obblighi previsti dai regolamenti digitali dell'UE, e l'adozione dei valori incentrati sull'uomo della Dichiarazione Europea sui Diritti e Principi Digitali per il Decennio Digitale.
4. Benessere (Wellbeing): È stata riconosciuta la necessità di affrontare il benessere negli ambienti digitali. La Competence Area 4 (Sicurezza, benessere e uso responsabile) copre specificamente il sostegno al benessere fisico, mentale e sociale di sé stessi e degli altri, e la consapevolezza dei benefici e dei rischi delle tecnologie digitali per l'inclusione sociale.
5. Affrontare la Misinformazione e la Disinformazione: DigComp 3.0 affronta la necessità di contrastare l'aumento della misinformazione. Questo è un problema sociale crescente, dato che nel 2023 il 49% degli adulti ha riferito di aver visto contenuti non veri o dubbi sui social media o sui siti di notizie online.
Oltre a queste priorità tematiche principali, gli aggiornamenti sono stati guidati da ulteriori sviluppi e da un più ampio contesto sociale e politico:
• Tendenze Tecnologiche Emergenti e Implicazioni (Generative AI): L'aggiornamento risponde a sviluppi significativi come la rapida diffusione dell'IA generativa, che ha implicazioni a vasta scala per le competenze digitali degli individui.
• Contesto Legislativo Europeo: DigComp 3.0 allinea il quadro alle principali politiche europee e alle leggi digitali recenti, tra cui:
◦ L'AI Act (2024), che affronta i rischi per la salute, la sicurezza e i diritti fondamentali in relazione ai sistemi di IA.
◦ Il Digital Services Act (2022), che aiuta a prevenire attività illegali e dannose online, inclusa la diffusione della disinformazione.
◦ Il Cyber Resilience Act (2024), che introduce requisiti obbligatori di cybersecurity per i fornitori di prodotti software o hardware.
• Competenze "Sotto il Livello Base" e Inclusione: L'aggiornamento riconosce l'importanza dei prerequisiti per l'acquisizione della competenza digitale di livello base, come l'accesso a una connessione internet sufficientemente veloce e stabile e l'assistenza tecnica, per evitare l'ampliamento dell'esclusione digitale. Questo riflette la persistente carenza di competenze, con solo il 56% degli adulti nell'UE che ha almeno competenze digitali di base nel 2023.
• Impatto Ambientale: La Competence Area 4 include anche una nuova attenzione all'impatto ambientale delle tecnologie digitali e all'uso di tali tecnologie per sostenere la sostenibilità.
Per supportare l'interpretazione e l'applicazione del quadro, DigComp 3.0 include anche una nuova sezione che delinea i risultati di apprendimento (learning outcomes), che forniscono una visione più dettagliata e granulare delle competenze digitali.
In sostanza, DigComp 3.0 agisce come un faro che illumina le nuove terre del paesaggio digitale: man mano che l'IA e altre tecnologie si diffondono rapidamente (il cambiamento tecnologico), e mentre sorgono nuove sfide sociali legate ai diritti digitali, al benessere e alla disinformazione (il cambiamento sociale), il quadro viene aggiornato per assicurare che tutti i cittadini europei siano dotati degli strumenti (conoscenze, abilità e attitudini) necessari per navigare in questo ambiente complesso in modo competente, critico e responsabile
Il testo presenta una panoramica approfondita di DigComp 3.0, la quinta iterazione del quadro europeo sviluppato dal JRC e dalla DG EMPL per definire la competenza digitale dei cittadini. Questa versione aggiornata integra sistematicamente aree cruciali come l'intelligenza artificiale (AI), la cybersecurity, il benessere digitale e la lotta alla disinformazione, riflettendo le politiche e i regolamenti digitali dell'UE. Il quadro introduce per la prima volta un approccio basato sui risultati di apprendimento, definendo le capacità su quattro livelli di padronanza, dal Base all'Altamente Avanzato, per assicurarne un'interpretazione coerente. Il documento evidenzia l'urgente necessità di colmare il divario di competenze digitali in Europa, in quanto molti cittadini sono ancora privi di abilità digitali di base. La sua elaborazione è stata un processo rigoroso e pluriennale, che ha incluso la revisione di politiche e la consultazione di 42 esperti e numerosi stakeholder in tutta Europa, culminata in un workshop di validazione nel 2025. Infine, DigComp 3.0 si allinea ai principi della Dichiarazione europea sui diritti e i principi digitali, promuovendo una visione incentrata sull'uomo per la trasformazione digitale.
L’intelligenza artificiale è uscita dai laboratori e si è già insediata nelle nostre vite quotidiane: scrive testi, genera immagini, suggerisce contenuti, analizza dati, supporta decisioni. Proprio per questo l’Unione europea ha scelto di intervenire con una cornice normativa specifica: l’AI Act, cioè il Regolamento (UE) 2024/1689, il primo grande regolamento europeo pensato per disciplinare l’uso dell’intelligenza artificiale in modo armonizzato. Il testo è entrato in vigore il 1° agosto 2024 e diventerà pienamente applicabile dal 2 agosto 2026, con alcune disposizioni già scattate in anticipo.
L’obiettivo dell’AI Act non è bloccare l’innovazione, ma governarla. Il regolamento nasce infatti per proteggere salute, sicurezza e diritti fondamentali delle persone, senza impedire lo sviluppo di tecnologie utili e competitive. In altre parole, l’Europa sta cercando un equilibrio tra due esigenze: da una parte promuovere ricerca, sviluppo e mercato; dall’altra evitare che sistemi opachi, discriminatori o manipolativi incidano negativamente sulla vita delle persone.
Il cuore dell’AI Act è un approccio basato sul rischio. Non tutti i sistemi di intelligenza artificiale sono trattati allo stesso modo: maggiore è il potenziale impatto sui diritti, sulla sicurezza o sulle opportunità delle persone, maggiori sono le regole e le responsabilità previste. È questa la vera novità culturale del regolamento: non si giudica l’IA in astratto, ma il suo uso concreto, il contesto in cui opera e le possibili conseguenze.
L’AI Act individua alcune pratiche considerate inaccettabili e quindi vietate. Tra queste rientrano, in particolare, gli usi che manipolano il comportamento delle persone in modo dannoso o che sfruttano vulnerabilità legate, ad esempio, all’età o alla condizione sociale. Questo punto è molto rilevante anche quando si parla di minori, educazione digitale e piattaforme frequentate da bambini e adolescenti: l’età non è un dettaglio, ma un fattore che il regolamento considera esplicitamente nella tutela delle persone più esposte. Le norme sulle pratiche vietate sono tra quelle già entrate in applicazione dal 2 febbraio 2025.
Accanto ai divieti, il regolamento dedica particolare attenzione ai cosiddetti sistemi ad alto rischio. Si tratta di strumenti che possono incidere in modo significativo sulla vita delle persone: accesso a servizi, lavoro, formazione, valutazioni, sicurezza, infrastrutture, diritti. In questi casi non basta dire che “l’algoritmo funziona”: servono requisiti più stringenti, documentazione, gestione del rischio, supervisione umana, qualità dei dati e trasparenza adeguata. L’idea di fondo è chiara: quando una decisione automatizzata può influenzare opportunità e diritti, non può essere lasciata a una scatola nera incontrollata.
Per il mondo della scuola e della formazione l’AI Act non è un tema lontano. Anche quando non si sviluppano sistemi di IA, spesso li si adotta: chatbot, generatori di contenuti, correttori automatici, strumenti per la personalizzazione, piattaforme predittive, ambienti digitali che profilano comportamenti o stili di apprendimento. Proprio per questo la questione non è solo tecnica, ma educativa e organizzativa.
In Italia questa prospettiva è stata rafforzata anche dalle Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche, pubblicate dal Ministero dell’Istruzione e del Merito nel 2025, che propongono un’adozione consapevole e responsabile dei sistemi di IA, ponendo al centro persone, diritti, trasparenza e uso pedagogicamente fondato.
Uno degli aspetti meno discussi ma più importanti dell’AI Act riguarda la AI literacy, cioè l’alfabetizzazione sull’intelligenza artificiale. L’articolo 4 richiede che chi fornisce o utilizza sistemi di IA garantisca un livello sufficiente di conoscenze, competenze e comprensione ai soggetti coinvolti, tenendo conto del contesto d’uso e dei rischi del sistema. Le indicazioni della Commissione europea chiariscono che non si tratta soltanto di “saper usare un tool”, ma di comprenderne funzionamento, opportunità, limiti, rischi, possibili danni, aspetti etici e giuridici. Questa disposizione è già in applicazione dal 2 febbraio 2025.
Per la scuola questo punto è decisivo. Significa che non basta introdurre strumenti di IA nelle attività didattiche: servono consapevolezza professionale, criteri di scelta, protocolli d’uso, educazione al dubbio, verifica delle fonti, attenzione ai bias, tutela dei dati e capacità di leggere criticamente i risultati generati. In altre parole, l’IA non va solo adottata: va compresa.
Quando l’IA incontra i minorenni, il tema si fa ancora più delicato. L’AI Act non vive da solo: si intreccia con il GDPR, con il Codice privacy italiano e con la protezione rafforzata prevista per i minori nei servizi digitali. In Italia, il Garante ricorda che per i servizi online il riferimento nazionale è l’art. 2-quinquies del Codice privacy, che fissa a 14 anni la soglia per il consenso autonomo del minore nei casi previsti dalla normativa. Questo significa che, nel contesto educativo e digitale, l’adozione di strumenti basati su IA deve essere letta non solo in chiave funzionale, ma anche in chiave di protezione dei dati, comprensibilità delle informative, proporzionalità e tutela dei soggetti più vulnerabili.
Dal punto di vista operativo, il calendario conta molto. La Commissione europea ha chiarito che l’AI Act è entrato in vigore il 1° agosto 2024; le norme sulle pratiche vietate e sull’AI literacy si applicano dal 2 febbraio 2025; le regole di governance e alcuni obblighi sui modelli di IA per finalità generali si applicano dal 2 agosto 2025; l’applicazione piena del regolamento arriva il 2 agosto 2026, mentre alcune categorie di sistemi ad alto rischio inseriti in prodotti regolamentati avranno un periodo transitorio più lungo fino al 2 agosto 2027.
La tentazione più diffusa è aspettare il 2026. Sarebbe un errore. Le organizzazioni che usano già strumenti di IA dovrebbero muoversi da subito almeno su cinque fronti: mappare quali sistemi stanno già utilizzando; capire per quali finalità vengono impiegati; valutare rischi, dati trattati e impatti; definire regole interne e supervisione umana; costruire percorsi di alfabetizzazione per docenti, personale e utenti. Questo approccio è perfettamente coerente con l’impostazione della Commissione europea, che collega l’AI literacy al contesto reale d’uso e ai rischi specifici dei sistemi adottati.
L’AI Act non va letto soltanto come un insieme di obblighi burocratici. È, prima di tutto, una sfida culturale. Ci dice che l’innovazione non può essere considerata neutra e che ogni tecnologia, soprattutto quando incide su apprendimento, lavoro, informazione e diritti, ha bisogno di responsabilità, trasparenza e controllo umano. Per il mondo educativo questo significa una cosa molto concreta: l’intelligenza artificiale non deve sostituire il pensiero, ma renderlo più consapevole, più critico e più competente.
L’Europa ha scelto di non inseguire semplicemente l’innovazione, ma di darle una direzione. L’AI Act rappresenta il tentativo più ambizioso, finora, di costruire una governance dell’intelligenza artificiale fondata sui diritti, sulla sicurezza e sulla responsabilità. Per scuole, enti, imprese e cittadini il messaggio è chiaro: l’IA non è più una questione da specialisti, ma un tema che riguarda tutti. E proprio per questo va affrontata non con entusiasmo ingenuo né con rifiuto pregiudiziale, ma con competenza, visione e senso critico.
Le linee guida delineano come l'Intelligenza Artificiale (IA) possa essere integrata nelle istituzioni scolastiche per migliorare vari aspetti della gestione e dell'insegnamento. L'IA offre strumenti per supportare la pianificazione della formazione, ottimizzare l'orario scolastico e migliorare la comunicazione tra tutti gli attori coinvolti nel processo educativo
L’IA è considerata tecnologia rivoluzionaria, con impatti su istruzione e società .
Il MIM promuove un’adozione responsabile, antropocentrica e conforme ai valori UE, garantendo dignità e diritti fondamentali .
Obiettivi principali :
Migliorare l’apprendimento e personalizzare i percorsi educativi.
Favorire inclusione e contrasto alla dispersione scolastica.
Ottimizzare i processi interni e amministrativi.
Supportare studenti, docenti e dirigenti con strumenti innovativi.
Ispirazione a documenti nazionali ed europei: AI Act UE, strategie AgID, UNESCO, linee guida etiche europee .
Requisiti fondamentali :
Trasparenza e spiegabilità degli algoritmi.
Equità e inclusione (evitare bias e discriminazioni).
Tutela dei dati personali (privacy by design e by default, DPIA, GDPR).
Vietati usi distorti come tecniche manipolative, social scoring, categorizzazioni biometriche .
Etici: responsabilità, non sostituzione del ruolo umano, attenzione ai minori .
Tecnici: sicurezza, affidabilità, manutenzione e aggiornamento continuo .
Normativi: conformità a GDPR e AI Act; obbligo di audit e documentazione .
Approccio graduale e strutturato :
Definizione (analisi bisogni, stakeholder, casi d’uso).
Progettazione (valutazione rischi, piano d’azione).
Adozione (implementazione graduale, formazione, comunicazione).
Monitoraggio e valutazione (impatto, revisione rischi, valorizzazione risultati) .
Studenti: percorsi personalizzati, accessibilità, stimolo alla curiosità, feedback immediato, sviluppo competenze digitali .
Docenti: supporto alla progettazione, correzione, creazione di materiali personalizzati, riduzione compiti ripetitivi .
Dirigenti scolastici: monitoraggio documenti programmatici, governance digitale, supporto decisionale strategico .
Amministrazione scolastica: semplificazione procedure, automazione di back-office .
Basata sulla metodologia HUDERIA del Consiglio d’Europa :
Prevenzione → Mitigazione → Ripristino → Compensazione.
Azioni concrete: protezione dati, manutenzione regolare, backup, formazione del personale .
Piattaforma Unica.istruzione.gov.it per:
Consultare linee guida e materiali operativi.
Censire e condividere progetti di IA.
Visionare iniziative di altre scuole.
Favorire riuso e diffusione delle esperienze .
Dashboard nazionale per monitoraggio, audit e valutazione dell’impatto .
L’IA a scuola è un’opportunità di innovazione, da gestire con consapevolezza.
Richiede coinvolgimento attivo di tutti gli attori (studenti, docenti, dirigenti, famiglie).
La centralità resta umana e pedagogica, con l’IA come supporto e non sostituzione .
pagina 77 del documento online della nuovo documento dedicato alle competenze digitali ed in particolare la sezione in cui si fa riferimento per laprima volta all'IA
Link diretto https://repubblicadigitale.innovazione.gov.it/assets/docs/DigComp-2_2-Italiano-marzo.pdf