Intelligenza Artificiale, ecco il Regolamento UE per una AI affidabile
di Marco Zambelli - 19/07/2021
Intelligenza artificiale Regolamento Europeo

Lo scorso 21 aprile la Commissione Europea ha presentata la Proposta per il Regolamento europeo sull’Intelligenza Artificiale. Si tratta della prima stesura di un documento che, dopo un iter di discussione e modifiche tra Consiglio e Parlamento Europeo che ora è presumibile occuperà i prossimi 12-18 mesi, una volta ultimato sarà il primo strumento normativo al mondo nel suo ambito.

Questo sottolinea l’importanza data dall’Unione Europea alla tecnologia della AI, vista come essenziale per raggiungere gli obiettivi del Green Deal, strettamente connessi al successo della transizione digitale sul territorio UE. Precedenti documenti sul tema erano già stati elaborati in ambito europeo, ma solo come misure non vincolanti, ossia la Dichiarazione di cooperazione sulla AI di aprile 2018, le Linee direttive etiche per una AI affidabile ad aprile 2019, il Rapporto di responsabilità per la AI e le tecnologie emergenti pubblicato a novembre 2019 e la consultazione pubblica sul Libro bianco sull’AI a febbraio 2020.

Il Regolamento UE sulla AI sarà quindi il primo strumento di legge al mondo, volto a tutelare la salute, la sicurezza e i diritti fondamentali dei cittadini europei grazie all’applicazione di sistemi di AI affidabile all’interno dei prodotti. La nuova normativa europea sulla AI avrà forma di Regolamento, che a differenza di una Direttiva prevede l’applicazione diretta da parte degli Stati Membri, senza necessitare recepimenti nazionali e quindi eliminando ritardi e divergenze di interpretazione, portando a un quadro di maggiore certezza del diritto.

Regolamento UE intelligenza artificialeLa Proposta di Regolamento UE sulla AI rientra quindi, così come la proposta del nuovo Regolamento Macchine – presentata nello stesso giorno -, nel quadro più ampio dell’Agenda digitale della Commissione. L’obiettivo è allineare il Regolamento sulla AI a tutta la legislazione NLF (New legislative framework) vigente sulla sicurezza dei prodotti, uniformando le procedure di valutazione del rischio qualora i prodotti includano sistemi di AI. Del nuovo quadro legislativo, avviato nel 2008, fanno già parte le normative Atex, PED, la direttiva sulla compatibilità elettromagnetica 2014/30/UE e la direttiva bassa tensione 2014/35/UE, e presto anche il nuovo Regolamento Macchine.

In dettaglio, il Regolamento sulla AI introduce innanzitutto una prima definizione di cosa rappresenta la AI, ovvero un ‘software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono’. Le tecniche di AI di cui all’Allegato I sono ad esempio quelle di machine learning, deep learning, apprendimento automatico e supervisionato.

Nella stesura del Regolamento, la Commissione ha scelto un approccio alla AI basato sul rischio su quattro livelli: il primo livello è quello dei sistemi a rischio inaccettabile, in cui ricadono sistemi che saranno proibiti  sul territorio dell’unione in quanto rappresentano una minaccia per i cittadini europei (ad esempio, i sistemi di credito sociale utilizzati in Cina). Seguono i sistemi ad alto rischio, e in tale categoria rientreranno molti dei sistemi che le aziende impiegano quasi sempre su macchine e prodotti, e che possono avere ripercussioni negative sulla sicurezza delle persone. Questi saranno permessi sul territorio europeo solo previa valutazione di conformità volta a dimostrare che il sistema è conforme ai requisiti di una AI affidabile. Sono considerati in particolare ad alto rischio prodotti dove il sistema di AI è utilizzato come componente di sicurezza, o laddove questo componente è il prodotto stesso. Questi saranno quindi coperti dalla legislazione armonizzata all’Allegato II, che elenca le direttive e i regolamenti del nuovo quadro legislativo NLF.

AI intelligenza artificiale normative UEI sistemi ad alto rischio dovranno rispondere a requisiti obbligatori relativi alla qualità dei dati, alla documentazione tecnica e alla conservazione dei dati, alla trasparenza e fornitura di informazioni agli utenti, alla sorveglianza umana, alla robustezza e accuratezza e al fatto che siano esenti da possibili attacchi di sicurezza informatica. Di particolare rilievo il requisito della sorveglianza umana dei sistemi, con cui la Commissione vuole garantire che l’uomo possa sempre intervenire sulla logica della macchina per correggerne il comportamento e mantenerne la sicurezza intrinseca. Il principio alla base è mettere sempre l’essere umano al centro della AI, affinché sia sempre l’uomo a decidere e non la macchina.

I fabbricanti che vogliano immettere sul mercato europeo sistemi di AI alto rischio dovranno inoltre elaborare un sistema di gestione dei rischi tenendo conto dell’uso finale del sistema di AI. Il prodotto dovrà altresì essere registrato in una banca dati europea, e successivamente all’immissione sul mercato il costruttore dovrà condurre un monitoraggio, cooperando con le autorità di sorveglianza del mercato.

Nella classificazione seguono poi i prodotti a rischio limitato, per i quali vi sono solo obblighi di trasparenza affinché l’utente sia consapevole di star interagendo con sistemi di AI, ad esempio chatbot. In ultimo, i prodotti con rischi minimi o nulli, che sono permessi senza particolari restrizioni, come ad esempio sistemi che effettuano filtri nelle mail.

Nell’intento di promuovere l’innovazione, e raggiungere così gli obiettivi politici fissati dal Green Deal, il Regolamento prevede infine dei Sandbox regolatori (il riferimento è ai recinti con la sabbia dove i bambini possono giocare in sicurezza): istituiti in Italia a giugno 2019, i Regulatory sandbox sono hub tecnologici, o spazi di sperimentazione, dove aziende, PMI, startup innovative, sviluppatori e investitori avranno la possibilità di sperimentare l’operatività dei prodotti di AI prima di immetterli sul mercato, al fine di verificarne il funzionamento e il rispetto di tutte le norme del caso. E’ prevista infine nel Regolamento la creazione di un comitato europeo sulla AI, e viene rivolto un invito alla collaborazione tra i diversi Stati Membri nell’ambito delle tecnologia di intelligenza artifciale.

 

 

Foto di Gerd Altmann da Pixabay

Se Industria 4.0 si è focalizzata sull’implementazione delle tecnologie abilitanti, l’Industria 5.0 si estende ed abbraccia le problematiche socio-ecologiche.

BRAND POST
Telmotor

Telmotor, azienda specializzata nell’Industry Automation ed Energy and Lighting Solutions, oggi sceglie di operare secondo un doppio binario: valorizzare le…