Valutazione del rischio per una AI responsabile con il supporto di Cefriel
22/09/2023
Cefriel servizio valutazione del rischio AI responsabile

La diffusione e lo sviluppo delle tecnologie di Intelligenza artificiale, spinto dalle grandi potenzialità che la AI può avere per l’industria e la società, impongono una riflessione sul suo utilizzo etico e sulla AI responsabile.

All’affidabilità e alla sicurezza della AI guarda anche l’AI Act presentato dall’UE lo scorso 14 giugno, primo regolamento al mondo che intende garantire la sostenibilità dell’intelligenza artificiale e delle sue applicazioni, creando un ambiente favorevole all’innovazione e al contempo sicuro e rispettoso dei diritti delle persone. Al bisogno di percorsi di awareness in tal senso guarda quindi anche il centro di innovazione digitale Cefriel, che ha messo a punto un nuovo servizio per accompagnare imprese e pubbliche amministrazioni a valutare l’impatto delle tecnologie di AI sulla vita delle persone. Offrendo pertanto una valutazione del rischio delle soluzioni basate su AI per pianificare processi e azioni mirati a fare della tecnologia un uso responsabile e a rendere i servizi e i prodotti offerti più pronti a recepire quanto in via di definizione nell’AI Act.

“L’inizio dell’iter di approvazione di AI Act rappresenta un’ottima occasione per avere indicazioni pratiche sulle valutazioni etiche necessarie per l’adozione di soluzioni basate su intelligenza artificiale – afferma Gianluca Ripa, analytics and AI practice manager Cefriel -. In Cefriel da tempo siamo impegnati attivamente nel campo della explainability e della fairness degli algoritmi di intelligenza artificiale, nonché nella valutazione dei rischi delle tecnologie digitali. Con questo nuovo servizio mettiamo ora a fattor comune il nostro know-how, offrendo un servizio che possa aiutare i nostri clienti ad utilizzare l’intelligenza artificiale con fiducia e in modo responsabile”.

L’UE con il primo regolamento al mondo sull’AI – che dovrebbe entrare in vigore tra il 2024 e il 2025 – andrà a regolare lo sviluppo, la commercializzazione e l’uso dei sistemi di intelligenza artificiale, in conformità con i diritti fondamentali e i valori della UE. Il regolamento, infatti, definisce i livelli di rischio associati all’impatto dei sistemi di intelligenza artificiale sulla vita delle persone e suoi loro diritti fondamentali, dal lavoro alla salute fino alla sicurezza, classificando le applicazioni in quattro livelli di rischio: inaccettabile, elevato, limitato e minimo o nullo.

“In attesa che l’AI act diventi esecutivo – commenta Alfonso Fuggetta, AD e direttore scientifico di Cefriel -, le aziende devono prepararsi a fare una valutazione del rischio delle proprie soluzioni per individuare eventuali azioni correttive o di miglioramento necessarie per valorizzare al meglio gli investimenti in nuovi prodotti o servizi. Alcuni usi dell’AI saranno, infatti, considerati del tutto proibiti, mentre altri, saranno classificati come ‘ad alto rischio’ e soggetti a obblighi specifici, nel rispetto di diritti considerati fondamentali dall’Unione europea. Per questo, abbiamo deciso di lanciare questo nuovo servizio a supporto delle organizzazioni che vogliano attivarsi sin da ora per non trovarsi impreparate fra qualche tempo e per evitare che si avviino investimenti in modo incoerente o conflittuale rispetto a quanto prevederà la normativa Europea”.

Non avviare fin da ora le azioni volte a sviluppare awareness e valutare i rischi connessi all’utilizzo dell’AI nelle imprese potrebbe vanificare gli investimenti pianificati per lo sviluppo di sistemi di intelligenza artificiale. Per questo Cefriel ha creato questo nuovo servizio di advisory, facendo leva su una esperienza pluriennale nella valutazione del rischio legato all’adozione delle tecnologie digitali. Tra le esperienze più significative figurano lo sviluppo, insieme a ZenaByte, del progetto AMNESIA che rileva il livello di equità delle piattaforme di intelligenza artificiale e suggerisce eventuali contromisure per mitigare i risultati; o il supporto all’attività di ricerca su trasparenza e comprensibilità dei modelli di intelligenza artificiale tramite il finanziamento di una borsa di dottorato con il Politecnico di Milano.

Se Industria 4.0 si è focalizzata sull’implementazione delle tecnologie abilitanti, l’Industria 5.0 si estende ed abbraccia le problematiche socio-ecologiche.

BRAND POST
Telmotor

Telmotor, azienda specializzata nell’Industry Automation ed Energy and Lighting Solutions, oggi sceglie di operare secondo un doppio binario: valorizzare le…