La legge sull’intelligenza artificiale, ovvero l’AI Act, è stata approvata dal Parlamento europeo.
Gli obiettivi: proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale.
Vediamo insieme le principali novità.
Le applicazioni vietate dall’AI Act
La tutela dei diritti dei cittadini è messa al centro delle nuove norme, che vietano espressamente alcune applicazioni di IA.
La legge vieta alcuni usi specifici dell’IA come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso, finalizzate alla creazione di banche dati di riconoscimento facciale.
Vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e all’interno delle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva basate sulla profilazione o sulla valutazione delle caratteristiche di una persona e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Qualche eccezione è stata prevista per l’uso dell’IA da parte delle forze dell’ordine, per cui l’uso è ammesso solo se è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Sono esempi di usi ammessi dalla norma, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.
Particolarmente attenzionati sono i sistemi di IA considerati “ad alto rischio”. Nello specifico, si fa riferimento a tutte quelle applicazioni di intelligenza artificiale che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto. Nell’utilizzo di tali sistemi, si introduce l’obbligo di valutare e ridurre i rischi attraverso specifiche azioni e procedure come, ad esempio, la tenuta e l’aggiornamento di registri d’uso.
I diritti dei cittadini sono ulteriormente tutelati attraverso la previsione dello strumento del reclamo. Infatti, l’AI Act concede a tutti i cittadini dell’Unione il diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio.
Introdotto l’obbligo di trasparenza
I sistemi di IA impiegati per finalità generali dovranno soddisfare determinati requisiti di trasparenza, nonché rispettare le norme europee sul diritto d’autore durante tutte le fasi di addestramento dei modelli. Misure più stringenti sono invece previste per i modelli considerati “più potenti”, ossia che potrebbero comportare rischi sistemici.
La norma affronta anche il caso del deepfake, ossia di immagini, video e audio modificati grazie all’intelligenza artificiale. Si tratta di una tecnica che sfrutta l’apprendimento automatico per creare contenuti audiovisivi falsificati in cui, ad esempio, il volto di una persona viene sostituito con quello di un’altra su un video esistente. Il dibattito sul deepfake è alimentato dai timori sui possibili usi e finalità di tali contenuti, che potrebbero facilmente essere utilizzati per diffondere informazioni false o, nei casi più estremi, commettere furti di identità.
Per mitigare i rischi dei possibili usi illeciti, la nuova norma impone che i contenuti deepfake siano chiaramente etichettati come tali.
Ai limiti imposti dalla norma, si affiancano anche misure volte a promuovere la sperimentazione di sistemi innovativi basati sull’IA da parte delle imprese.
I rischi e le implicazioni negative associate all’IA, non devono, infatti, limitare lo sviluppo della tecnologia e lo sfruttamento del suo potenziale come tecnologia innovativa per l’efficientamento dei processi. Da qui l’invito, rivolto a tutti i paesi dell’UE, ad istituire e rendere accessibili a livello nazionale spazi di sperimentazione, in cui PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Riportiamo le parole del correlatore della commissione per il mercato interno Brando Benifei, espresse durante il dibattito conclusivo sull’AI Act:
“Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore.”
La legge rappresenta un equilibrio tra la promozione dell’innovazione e la protezione dei diritti delle persone. L’IA è una tecnologia con un enorme potenziale, ma è importante che sia utilizzata in modo sicuro, etico e responsabile.
Per un approfondimento su IA e tutela della privacy, leggi qui.
Le prossime tappe
Ad oggi il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura.
L’AI Act entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
Nel frattempo vi lasciamo ad una riflessione su alcune domande che, a nostro avviso, rimangono ancora aperte:
Come saranno applicate le nuove regole?
Saranno sufficienti a prevenire i rischi dell’IA?
Come si evolverà la legge in futuro per tenere il passo con il rapido sviluppo dell’IA?
A presto per i prossimi aggiornamenti!
Immagine di coperyina di Freepik.