Sviluppo etico e controllo umano nella AI in Europa
30/05/2019
Framework trustworthy AI Europe

Chiarezza e trasparenza nell’impiego dei dati, controllo umano e utilizzo etico, sociale e responsabile sono tra i principi cardine che ispirano le linee guida per lo sviluppo affidabile delle applicazioni di Intelligenza Artificiale redatte dall’Unione Europa. Il codice etico sulla AI presentato a Bruxelles, redatto da 52 esperti provenienti da mondo accademico, industriale e della società civile e frutto degli oltre 500 contributi inviati dagli attori di una varietà di settori coinvolti, ha lo scopo di garantire la affidabilità dell’intelligenza artificiale.

Nell’approccio europeo allo sviluppo delle applicazioni di AI, quindi, l’uomo si trova al centro, ed è l’uomo che comanda, e la fiducia nell’impiego dell’intelligenza artificiale è sancita come il punto cardine essenziale al suo funzionamento. Il documento indica quindi sette requisiti fondamentali atti a garantire lo sviluppo affidabile della AI.

Il primo principio richiede che nei sistemi di intelligenza artificiale vi sia sempre un controllo umano, poiché il loro scopo è migliorare l’agire umano e tutelare i diritti fondamentali, senza limitare l’autonomia degli individui. L’AI deve quindi essere caratterizzata da robustezza e sicurezza, impiegando algoritmi sicuri, affidabili e resistenti di fronte a errori o incoerenze nel corso del ciclo di vita dei sistemi. Il terzo principio guarda alla privacy e governance dei dati, a garanzia che i cittadini abbiano il pieno controllo dei propri dati, e che questi non siano impiegati per discriminati o danneggiarli in alcun modo.

linee guida sviluppo AI Europa

La trasparenza è quindi un altro principio fondamentale, il quarto, garantendo la tracciabilità dei sistemi di AI. I sistemi di intelligenza artificiale devono quindi garantire la gamma delle diversità e la non discriminazione, e l’accessibilità. Lo scopo nell’utilizzo della AI deve quindi essere il benessere sociale e l’aumento della sostenibilità ambientale. Infine, deve essere garantita la responsabilità dei sistemi di intelligenza artificiale e dei loro risultati, con meccanismi di ricorso umano affinché gli esseri umani possano modificare le decisioni prese dagli algoritmi, assicurando la responsabilità di chi gestisce i sistemi di calcolo in caso di danni o incidenti.

L’UE traccia così le direttive per spingere aziende e ricercatori alla sviluppo dell’intelligenza artificiale in maniera etica e trasparente, ponendo l’obiettivo di aumentare ad almeno 20 miliardi di euro gli investimenti in questo campo entro il 2020. A giugno è quindi previsto l’inizio di una fase pratica con sperimentazione pilota, volta a decidere della sostenibilità operativa delle linee guida e in caso portare a una loro revisione. La fase pratica terminerà a fine 2019, e prevede la partecipazione di numerosi diversi attori, da imprese e multinazionali extra UE a pubbliche amministrazioni e la supervisione del Gruppo di esperti di alto livello per l’AI.

L’UE intende infine costituire una coalizione internazionale per promuovere l’applicazione dei principi di sviluppo della AI su scala globale, partendo dai Paesi che già condividono questo approccio come Canada, Giappone e Singapore.

Per il Piano Industria 4.0 il 2018 è stato l’anno del passaggio all’Impresa 4.0. Questo intervento di sostegno alla digitalizzazione…