Nell’ambito delle normative sull’intelligenza artificiale (IA), l’Europa ha fatto un significativo passo avanti con l’adozione dell’Artificial Intelligence Act (conosciuto come AI Act) da parte del Parlamento Europeo. Questa legge, frutto di negoziati con gli stati membri conclusisi a dicembre 2023, segna un momento storico nella regolamentazione dell’IA, ponendo l’UE all’avanguardia nella creazione di un quadro che mira a garantire la sicurezza e il rispetto dei diritti fondamentali, stimolando nel contempo l’innovazione.
Con 523 voti a favore, 46 contrari e 49 astensioni, l’Artificial Intelligence Act mira a proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale dai rischi posti dall’IA ad alto rischio, promuovendo allo stesso tempo l’innovazione e affermando l’Europa come leader nel campo. La regolazione stabilisce obblighi specifici per l’IA in base ai suoi potenziali rischi e livello di impatto.
Le nuove regole proibiscono specifiche applicazioni dell’IA che minacciano i diritti dei cittadini, inclusi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e il raschiamento non mirato di immagini facciali da internet o da telecamere di sorveglianza per creare database per il riconoscimento facciale. Saranno inoltre vietati il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring, la polizia predittiva (quando si basa esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l’IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.
In principio, l’uso di sistemi di identificazione biometrica da parte delle forze dell’ordine è vietato, tranne che in situazioni espressamente elencate e definiti in modo restrittivo. L’uso “in tempo reale” può essere autorizzato solo se soddisfatte rigide salvaguardie, come limitazioni temporali e geografiche e l’autorizzazione giudiziaria o amministrativa specifica prealabile. Tali usi possono includere, ad esempio, la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico.
Sono previsti chiari obblighi anche per altri sistemi di IA ad alto rischio (a causa del loro significativo potenziale danno alla salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto). Questi includono infrastrutture critiche, istruzione e formazione professionale, impiego, servizi essenziali privati e pubblici (ad es. assistenza sanitaria, servizi bancari), alcuni sistemi nelle forze dell’ordine, gestione delle migrazioni e delle frontiere, giustizia e processi democratici. Tali sistemi devono valutare e ridurre i rischi, mantenere registri di utilizzo, essere trasparenti e accurati, e garantire la supervisione umana. I cittadini avranno il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che influenzano i loro diritti.
I sistemi di IA di uso generale, e i modelli di GPAI su cui si basano, devono soddisfare determinati requisiti di trasparenza, inclusa la conformità con il diritto d’autore dell’UE e la pubblicazione di riassunti dettagliati del contenuto utilizzato per l’addestramento. I modelli di GPAI più potenti, che potrebbero presentare rischi sistemici, dovranno affrontare requisiti aggiuntivi, inclusa la valutazione dei modelli, la valutazione e la mitigazione dei rischi sistemici, e la segnalazione degli incidenti.
Il regolamento è ancora soggetto a un ultimo controllo giuridico-linguistico e si prevede che sarà adottato definitivamente prima della fine della legislatura. La legge deve inoltre essere formalmente approvata dal Consiglio. Entrerà in vigore venti giorni dopo la sua pubblicazione nel Giornale Ufficiale, e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ad eccezione di: divieti sulle pratiche proibite, che si applicheranno sei mesi dopo la data di entrata in vigore; codici di pratica (nove mesi dopo l’entrata in vigore); regole sull’IA di uso generale incluse la governance (12 mesi dopo l’entrata in vigore); e obblighi per i sistemi ad alto rischio (36 mesi).
Con l’Artificial Intelligence Act, l’Unione Europea stabilisce un modello per la governance dell’IA che equilibra l’innovazione con la protezione dei diritti fondamentali e la sicurezza, dimostrando un approccio proattivo e lungimirante nella regolamentazione delle tecnologie emergenti.