L’Unione europea ha formalmente dato il via all’applicazione dell’AI Act, aprendo la strada a restrizioni severe e potenziali rilevanti multe per le violazioni.
La legge sull’intelligenza artificiale dell’UE, un quadro normativo unico nel suo genere, è entrata formalmente in vigore nell’agosto 2024. Pubblicato ufficialmente il 12 luglio 2024, il Regolamento 1689/2024 segna un punto di svolta nella regolamentazione dell’AI, seguendo le orme del GDPR (Regolamento 679/2016), che ha segnato la legislazione europea sui dati.
Da ieri in vigore le disposizioni su rischio inaccettabile e alfabetizzazione digitale
A partire da ieri, 2 febbraio 2025, sono entrate in vigore le disposizioni del Regolamento europeo sull’intelligenza artificiale (AI Act) che regolano i sistemi AI a rischio inaccettabile e l’alfabetizzazione digitale.
Il termine per i divieti su alcuni sistemi di intelligenza artificiale e requisiti per garantire un’adeguata alfabetizzazione tecnologica tra il personale è ufficialmente decaduto. Ciò significa che le aziende devono ora rispettare le restrizioni e possono subire sanzioni.
La legge sull’IA vieta alcune applicazioni dell’IA che sono in grado di rappresentare “rischio inaccettabile” per i cittadini.
Questi includono i sistemi di punteggio sociale, il riconoscimento facciale in tempo reale e altre forme di identificazione biometrica, che classificano le persone per razza, vita sessuale, orientamento sessuale e altri attributi e strumenti di intelligenza artificiale “manipolativi”.
Il primo passo di una serie di ulteriori sviluppi imminenti
L’AI Act non è ancora in pieno vigore. Questo è solo il primo passo di una serie di ulteriori sviluppi imminenti.
A dicembre, l’Ufficio AI dell’UE, un organismo di nuova creazione che regola l’uso di modelli in conformità con la legge sull’Intelligenza Artificiale, ha pubblicato un codice di condotta di secondo grado per i modelli di intelligenza artificiale generico (GPAI), che si riferisce a sistemi come la famiglia GPT di modelli linguistici di grandi dimensioni di OpenAI o LLM.
La seconda bozza conteneva esenzioni per i fornitori di alcuni modelli di intelligenza artificiale open source, incluso l’obbligo per gli sviluppatori di modelli “sistemici” GPAI di sottoporsi a rigorose valutazioni del rischio.
Diversificazione dei tempi di attuazione del Regolamento
L’operatività dell’intera disciplina che fissa i livelli di rischio e gli oneri di conformità a seconda degli usi richiederà 24 mesi e si concluderà ad agosto 2026.
I tempi di attuazione del Regolamento sono diversificati, con una finestra che va dai 6 ai 36 mesi, con priorità per i settori a rischio elevato.
Questo intervallo è stato studiato per permettere un’implementazione graduale, affinché le nuove normative possano essere adottate in modo efficace e tempestivo.
Più alto è il rischio che la tecnologia possa violare i diritti delle persone, più attento e oneroso dovrà essere il sistema di prevenzione e controllo implementato da operatori economici e PA per escluderlo o minimizzarlo.
L’AI Act si inserisce all’interno di un quadro normativo europeo che, negli ultimi anni, ha concentrato l’attenzione sulla protezione dei dati e la regolamentazione della digitalizzazione, come dimostrato da altri regolamenti fondamentali: il Digital Governance Act (DGA, 2023), il Data Act (DA, 2023), il Digital Services Act (DSA, 2022) e il Digital Markets Act (DMA, 2022).