Pensavo fosse una legge europea burocratica, soffocante e negativa. Su questo AI ACT mi sbagliavo di grosso.
L’AI Act è potente e coraggioso. È anche lungimirante. Mi fa pensare di essere fortunato a vivere in Europa. Questo è particolarmente vero in questi periodi di cambiamenti così “violenti” nel mondo delle macchine.
Questo testo legislativo è il primo regolamento europeo completo dedicato all’intelligenza artificiale: è la prima legge quadro al mondo. È entrato in vigore il 1° agosto 2024 e diventerà pienamente applicabile nei prossimi anni, con un calendario graduale. Molti l’hanno considerata una norma complessa. In realtà, dopo un’analisi più attenta, è una legge ben scritta, con un grande valore sociale e culturale. Non solo regola la tecnologia, ma aiuta i cittadini a convivere con l’IA costruendo fiducia.
Che cos’è l’AI Act e chi riguarda
Il regolamento si applica sia a chi sviluppa sistemi di intelligenza Chi deve rispettare l’AI Act
In pratica, devono adeguarsi tutte le organizzazioni che sviluppano, distribuiscono o utilizzano sistemi di IA in contesto professionale. Rientrano quindi:
- le grandi aziende tecnologiche che creano piattaforme e modelli;
- le PMI che adottano l’IA nei propri processi produttivi e di servizio;
- le pubbliche amministrazioni che usano algoritmi in settori sensibili come giustizia, sanità o welfare;
- le istituzioni di ricerca e le università quando sviluppano soluzioni applicabili sul mercato;
- le multinazionali fuori dall’UE che offrono servizi a utenti europei.
Il sistema dei rischi: 4 livelli chiave
Il cuore dell’AI Act è la classificazione per rischio, che consente regole proporzionate:
- Rischio inaccettabile → pratiche vietate (es. social scoring di massa, manipolazione inconscia).
- Alto rischio → settori critici (sanità, giustizia, lavoro, istruzione, infrastrutture): requisiti stringenti, supervisione umana e valutazioni di impatto.
- Rischio limitato → obblighi di trasparenza (chatbot e deepfake devono dichiararsi come IA).
- Rischio minimo o nullo → usi quotidiani senza obblighi particolari.

Questa impostazione ha un forte valore sociale: proteggere i cittadini senza soffocare l’innovazione.
Obblighi per aziende e PA: documenti e controlli
Per dimostrare conformità, le organizzazioni devono adottare un vero sistema di gestione dell’IA. Gli strumenti principali:
- AI Policy con principi, ruoli e responsabilità.
- Registro dei sistemi IA utilizzati e finalità associate.
- Valutazioni dei rischi e, ove richiesto, analisi di impatto sui diritti fondamentali.
- Tracciabilità e monitoraggio: log delle attività, registri degli incidenti, audit trail.
- Procedure di supervisione umana per il corretto utilizzo.
Non è burocrazia fine a sé stessa: sono prove di controllo, trasparenza e responsabilità.
AIMS (ISO/IEC 42001): il sistema di gestione dell’IA
L’Artificial Intelligence Management System (AIMS), definito dallo standard ISO/IEC 42001, introduce un ciclo di pianificazione, attuazione, verifica e miglioramento continuo (PDCA). L’AIMS:
- integra l’IA nei processi aziendali esistenti;
- struttura controlli e responsabilità;
- facilita la dimostrazione della conformità all’AI Act.

Formazione e AI literacy: un dovere per tutti
L’AI Act rende centrale la formazione. Ogni lavoratore, dal management all’operativo, deve acquisire AI literacy:
- cos’è l’intelligenza artificiale;
- quali rischi e limiti comporta;
- come usarla in modo sicuro e responsabile.
Ruoli e responsabilità in azienda
Per garantire la compliance, le organizzazioni dovranno nominare figure precise:
- Responsabili della policy IA e della conformità.
- Manager dell’AIMS (implementazione, monitoraggio, miglioramento).
- Referenti per la sicurezza e la protezione dei dati.
I lavoratori concorrono attivamente in diversi modi. Devono rispettare le policy. Non devono introdurre software non autorizzati. Devono segnalare anomalie. Inoltre, devono distinguere sempre l’uso professionale da quello personale degli strumenti IA.
Perché l’AI Act è una buona legge
Pur non essendo perfetto, l’AI Act introduce un approccio nuovo:
- regole proporzionate basate sul rischio;
- alfabetizzazione digitale come leva di fiducia;
- responsabilità condivisa tra organizzazioni e persone.
Più che punire, la legge educa. L’obiettivo è una società che non subisce la tecnologia, ma la comprende e la governa.
Conclusione
L’AI Act segna un passaggio storico: dall’entusiasmo incontrollato verso l’IA a una convivenza regolata, sicura e responsabile. Per aziende e PA la sfida è trasformare l’obbligo normativo in vantaggio competitivo e culturale.
In definitiva, questa legge non è solo un quadro normativo. È un invito a introdurre una nuova cultura dell’intelligenza artificiale nelle organizzazioni. È una cultura che supporta le imprese, le istituzioni e i lavoratori. Li aiuta a costruire ogni giorno il loro futuro con maggiore consapevolezza, sicurezza e visione.


