Pregiudizio artificiale, il software di Cefriel per una AI etica
23/08/2021
Intelligenza artificiale etica Cefriel ZenaByte Amnesia

L’intelligenza artificiale non è scevra da pregiudizi e discriminazioni, e proprio per correggere le possibili decisioni ingiuste prese da sistemi di AI è stato sviluppato il software Amnesia, acronimo di Assessment of fairness of NGI AI-based future interactive technologies. Lo strumento è stato sviluppato da Cefriel, centro di innovazione digitale fondato dal Politecnico di Milano, congiuntamente a ZenaByte, spin-off dell’Università di Genova specializzata in AI e data analytics, con un finanziamento della Commissioni Europea con il programma Horizon 2020.

Il tema è molto caldo, in quanto la AI ha il compito di discriminare contenuti assegnandoli a categorie per poi elaborare le informazioni. Ciò basandosi su algoritmi e dati che sono comunque forniti dall’uomo. Le decisioni che ne derivano possono pertanto essere ingiuste e non rispettose dei diritti fondamentali della persona, inficiate da quello che potremmo chiamare ‘pregiudizio artificiale’, come ha spiegato in un’intervista a Wired Enrico Frumento, senior domain expert di Cefriel: “Il problema dell’intelligenza artificiale è di essere un sistema intrinsecamente discriminatorio. Per esempio, nel caso di un sistema che tramite AI assegna un mutuo, l’algoritmo non può sapere se questo lavoro di classificazione viene fatto considerando anche elementi che sono eticamente discutibili: si pensi anche solo all’uso di informazioni come colore pelle, religione o genere. In passato si è scoperto che nel campo sanitario statunitense un sistema sfavoriva gli afroamericani, perché a fronte di malattie gravi spendevano meno in medicine a causa dei redditi più bassi”.

O ancora, può accadere che il credito non venga concesso alle donne, pur avendo il medesimo profilo di rischio degli uomini, per il fatto che si pensa che nelle aziende lavori meno personale femminile. Oppure, che gli algoritmi di riconoscimento facciale utilizzati dalle forze dell’ordine statunitensi riconoscano male gli individui di pelle scura, con la conseguenza di causare danno alla popolazione afroamericana.

Il problema risiede quindi a monte, nei dataset sui quali vengono costruiti gli algoritmi, che contengono dati non sempre adeguatamente rappresentativi di specifiche comunità. Il software Amnesia è allora in grado di misurare il grado di equità ed etica di una soluzione di AI, per individuare la migliore soluzione disponibile sul mercato. La soluzione è pensata per le PMI, che in genere si affidano alle più diffuse piattaforme di automazione per sviluppare servizi e applicazioni di AI. Amnesia consente di selezionare i set dati di riferimento, il software di apprendimento automatizzato di interesse e altri parametri per condurre delle simulazioni, fornendo agli sviluppatori indicazioni che li guidano nella scelta della suite più adeguata ed eticamente corretta.

 

 

Foto di Gerd Altmann da Pixabay

L’era dell’Industria 4.0, basata sulla digitalizzazione e l’interconnessione dei processi produttivi, ha ormai ceduto il passo a quella dell’Industria 5.0….