Il Parlamento europeo ha approvato l’Artificial Intelligence Act, il primo documento a livello globale sulla sicurezza dell’AI. Il nuovo regolamento, ora, dovrà aspettare l’ok definitivo dell’Unione europea per poi entrare in vigore nel 2024.
Artificial Intelligence Act: cosa cambia in termini di sicurezza?
La ricerca di uno standard globale di sicurezza per l’Intelligenza Artificiale è diventato, in questi mesi, un obiettivo fondamentale per stabilire nuove norme tecniche e giuridiche all’interno dell’Ue e rendere l’AI uno strumento più sicuro.
In tal senso, il 15 giugno scorso, il Parlamento europeo ha approvato la bozza del nuovo regolamento sull’AI, “Artificial Intelligence Act“. La normativa stabilisce gli obblighi per i fornitori e le aziende che impiegano i sistemi di AI, a seconda del livello di rischio che l’AI stesso può generare.
Il livello di rischio individuato dal Parlamento Ue vanno da inaccettabile (vietato) a nullo. I sistemi di Intelligenza Artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il social scoring, saranno quindi vietati.
Tra le ultime novità inserite nel testo figura anche il divieto ai sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico. Possibili, invece, i sistemi di identificazione biometrica a distanza “a posteriori”, ma solo per il perseguimento di reati gravi e previa autorizzazione del giudice. I sistemi di Intelligenza Artificiale generativa, come Chat GPT, dovranno essere invece più trasparenti.
Adesso, il documento dovrà attendere il via libera definitivo dall’Unione europea, prima di entrare in vigore, presumibilmente nel 2024. Dall’entrata in vigore, le aziende che producono e impiegano l’Intelligenza Artificiale avranno due anni di tempo per adeguarsi alla normativa.
AI più sicura: il report di ENISA
A inizio maggio, ENISA (European Union Agency for Cybersecurity) ha rilasciato un nuovo report che delinea “un nuovo quadro normativo e standard di approccio per la comprensione degli scenari di evoluzione in ambito B2B e G2G”. Tra le novità evidenziate dal rapporto c’è l’estensione del paradigma della cybersecurity dalla tradizionale triade di “confidenzialità, integrità, disponibilità” (CIA) all’affidabilità dell’IA (AI trustworthiness).
Il secondo elemento di novità è, invece, dato dalla cybersicurezza dell’AI, con l’obbiettivo di assicurare “qualità dei dati, supervisione, solidità, accuratezza, spiegabilità, trasparenza e tracciabilità” dei processi legati all’Intelligenza Artificiale.
Infine, il terzo elemento è l’importanza attribuita all’applicabilità di alcuni standard già esistenti per lo sviluppo di software allo sviluppo di prodotti IA, sulla base del principio per cui l’IA “è nella sua essenza un software”.
“Le novità, in termini di approccio normativo all’Intelligenza Artificiale, si legge in una nota, “sono diverse e rilevanti per comprendere il mutato quadro di riferimento in cui si collocano gli stakeholders europei del settore”.