Via libera del Parlamento europeo all’AI Act
L’Ue avrà la prima legge al mondo sull’intelligenza artificiale: ecco cosa prevede il testo approvato a Strasburgo
Con 523 voti favorevoli, 46 contrari e 49 astenuti, oggi il Parlamento europeo ha dato il via libera all’Artificial Intelligence Act, il nuovo regolamento europeo sull’IA. È un voto storico: i 27 Peasi dell’Unione europea saranno i primi al mondo ad avere una legge generale sull’intelligenza artificiale, battendo sul tempo le altre grandi potenze globali.
Tre anni di lavoro
Tutto è iniziato ad aprile 2021 con la proposta della Commissione, seguita poi dalle posizioni di Consiglio (dicembre 2022) e Parlamento (giugno 2023). Lo scorso 9 dicembre è stato raggiunto l’accordo politico sul testo e subito dopo sono partiti i lavori di rifinitura in vista delle votazioni finali. Quella del Parlamento è arrivata oggi, anche se l’adozione formale avverrà in seduta plenaria ad aprile. La votazione è stata anticipata di un mese, seguendo una procedura accelerata, vista l’imminente tornata elettorale. L’obiettivo è stato comunque raggiunto in tempi rapidi, con un testo ora composto da 113 articoli e 12 allegati.
A cosa e a chi si applica la nuova legge?
L’AI Act regola lo sviluppo, la fornitura e l’uso di sistemi di IA in tutta Europa. La definizione di «sistema di IA» è quella proposta dall’OCSE: restano quindi esclusi i software tradizionali più semplici e gli approcci di programmazione. Ci saranno anche delle linee guida della Commissione sul punto.
Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di IA in Europa. Ciò vale anche per chi non ha sede in uno paese europeo, a condizione che l’output del sistema sia usato in Ue. La legge obbliga poi anche altri soggetti, come importatori e distributori.
Il regolamento non si applica invece ai sistemi di IA per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free e open source (salvo rischio). Escluse anche le attività di ricerca, prova e sviluppo dell’IA e l’uso personale non professionale da parte di singoli individui.
L’approccio basato sul rischio e i sistemi vietati
La legge classifica i sistemi di IA in base al rischio che potrebbe derivare dal loro utilizzo, graduando di conseguenza requisiti e obblighi. In altre parole, maggiore è il rischio, maggiori sono le misure di protezione imposte dall’AI Act. Sono usi a rischio inaccettabile, e per questo proibiti, i sistemi di polizia predittiva e di social scoring, il riconoscimento delle emozioni nelle scuole e a lavoro e lo scraping di immagini facciali da internet per creare banche dati. Vietato anche l’uso di sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico, con alcune eccezioni in casi predeterminati e con autorizzazione.
I sistemi ad alto rischio
Molte sono le regole e procedure obbligatorie per l’IA che può avere un impatto negativo su salute, sicurezza o diritti fondamentali. Sono sistemi ad alto rischio, ad esempio, l’IA per gestire il traffico stradale, per controllare gli studenti agli esami o per analizzare i curricula e valutare i candidati.
Prima di essere messi sul mercato, questi sistemi devono essere sottoposti a una valutazione della conformità per dimostrare il rispetto dei requisiti della legge, come la gestione dei rischi, la qualità dei dati, la documentazione tecnica e la registrazione dei log. Ci sono inoltre misure di trasparenza, cybersicurezza e sorveglianza umana. In alcuni casi si deve svolgere anche una valutazione d’impatto sui diritti fondamentali. Questi sistemi devono inoltre avere la marcatura CE ed essere registrati in un database europeo.
Obblighi di trasparenza e IA per finalità generali
L’AI Act introduce una serie di misure per favorire la conoscibilità e la trasparenza degli algoritmi. Nel caso di chatbot e sistemi che interagiscono con le persone, queste ultime devono sapere di relazionarsi con una macchina. Le immagini, i testi e gli altri output di un’IA generativa devono essere contrassegnati in un formato leggibile dalla macchina e rilevabili come artificiali, così come occorre indicare che i deep fake sono stati creati da un’IA.
Ci sono poi obblighi specifici per i modelli di IA per finalità generali, vale a dire algoritmi addestrati con grandi quantità di dati e in grado di svolgere un’ampia gamma di compiti. Tra questi, la redazione di documentazione tecnica, l’attuazione di politiche per rispettare il diritto d’autore e la pubblicazione di report sui contenuti usati per addestrare l’algoritmo. Ai modelli a rischio sistemico si applicano alcuni requisiti ulteriori, per garantirne un controllo costante.
Misure pro innovazione, governance e sanzioni
L’AI Act strizza l’occhio anche al progresso, con una serie di norme che facilitano la sperimentazione e l’adeguamento. Tra queste ci sono le regulatory sandbox, le prove in condizioni reali e i codici di condotta, oltre a una serie di agevolazioni per PMI e startup. Sul versante della governance, ogni paese avrà un’autorità di controllo nazionale, a cui potranno rivolgersi cittadini e imprese. A livello Ue saranno diversi i soggetti coinvolti, tra cui Commissione, Comitato europeo per l’intelligenza artificiale e Ufficio per l’IA (istituito a fine gennaio). Ci saranno poi un forum consultivo e un gruppo di esperti scientifici indipendenti. Sanzioni salate per chi violerà il regolamento: fino a 35 milioni di euro o, per le imprese, fino al 7% del fatturato mondiale totale annuo dell’esercizio precedente, se superiore.
I prossimi passi
Dopo l’approvazione formale di Parlamento e Consiglio e la pubblicazione in Gazzetta Ufficiale, l’AI Act entrerà ufficialmente in vigore (si prevede a fine maggio), ma l’applicazione sarà graduale. Alcune norme saranno operative dopo 6 mesi (pratiche di IA vietate) e un anno (IA per finalità generali), altre dopo 36 mesi (alcuni sistemi di IA ad alto rischio): la maggior parte della legge diventerà invece applicabile dopo 24 mesi.
Le reazioni
Con la definizione di regole chiare sulla trasparenza delle fonti utilizzate per l’addestramento degli algoritmi e con l’obbligo di registri d’accesso per i titolari dei diritti, il regolamento europeo sull’AI si conferma un modello nel campo della tutela del diritto d’autore garantendo allo stesso tempo all’industria musicale e agli artisti di sfruttare questa innovazione tecnologica per nuove sfide creative. Enzo Mazza, CEO di FIMI, presente oggi a Strasburgo in occasione del voto, ha commentato: “Un passaggio storico che mostra ancora una volta, dopo la Direttiva Copyright, come l’Europa sia all’avanguardia nel regolamentare l’innovazione evitando il far west”.
Fonte: