L’Europa detta le linee per guidare l’innovazione etica in tema di intelligenza artificiale. Il documento pubblicato la scorsa settimana – scritto dai 52 esperti dell’High Level Group on Artificial Intelligence istituito dalla Commissione Europea lo scorso luglio – dà vita a quella Trustworthy AI tanto invocata. Spinta non dal volere di singole aziende, ma da una entità istituzionale super partes. E qui risiede la sua forza.

Definiti i sette pilastri alla base di una AI etica, attenta all’uomo:

  • Equità sociale: l’AI dovrebbe favorire una società equa, sostenendo i diritti fondamentali, senza ridurre, limitare o fuorviare l’autonomia umana.
  • Robustezza e sicurezza: l’AI dovrebbe essere affidabile, con algoritmi sicuri e robusti da poter gestire errori o incongruenze lungo tutte le fasi del ciclo di vita dei sistemi.
  • Privacy e data governance: l’AI dovrebbe dare pieno controllo ai cittadini su dati e informazioni che li riguardano, che non devono essere usati per danneggiarli o discriminarli.
  • Tracciabilità e trasparenza: l’AI dovrebbe garantire piena tracciabilità dei sistemi.
  • Diversity, senza discriminazioni, accessibilità: l’AI dovrebbe essere attenta all’intero insieme delle abilità umane, delle capacità e dei requisiti, assicurando l’accessibilità ai sistemi.
  • Sostenibilità ecologica e ambientale: l’AI dovrebbe favorire cambiamenti positivi a livello sociale, migliorando la sostenibilità ambientale e la responsabilità ecologica.
  • Responsabilità finanziaria: l’AI dovrebbe impiegare meccanismi in grado di assicurare le responsabilità finanziarie dei sistemi e degli esiti del loro utilizzo.

Le indicazioni contenuti nella “Ethics Guidelines for Trustworthy AI” sono solo il primo step di un percorso in tre tappe. Seguirà una fase pilota questa estate, in cui gli esperti raccoglieranno i pareri anche di chi ha sottoscritto l’European AI Alliance, per stilare un documento finale da sottoporre alla Commissione Europea a inizio 2020. Nel frattempo, già dall’autunno, dovrebbe prendere il via una rete di centri di ricerca sull’AI accanto agli hub per l’innovazione digitale, ribadendo l’impegno preso dall’Europa di investire in AI, tra pubblico e privato, almeno 20 miliardi di euro lungo un decennio.

Gli impatti dell’AI saranno in tutti i settori: sanità, energia, finanza, industria, automotive, sicurezza e le linee etiche, oltre a evitare uno sviluppo incontrollato dell’intelligenza artificiale, avranno voce in capitolo nei dibattiti con paesi extra UE. Confermate dalla Commissione Europea le partnership con Singapore, Canada, Giappone per aprire tavoli internazionali di discussione sull’etica (tra cui il G20 e il G7).

“La dimensione etica dell’intelligenza artificiale non è né un lusso né un add-on – sostiene Andrus Ansip, vice presidente per il mercato unico digitale europeo -. E’ solo con la fiducia che la nostra società può trarre beneficio dalle tecnologie. E’ un approccio win-win, che può portare l’Europa ad essere un leader nella AI human centrica, con la piena fiducia delle persone”.  

Il lavoro dei 52 esperti incaricati dalla Commissione Europea ha un’autorevolezza unica, non paragonabile ad alcuna iniziativa di comitati di aziende. Perché le aziende a volte ci credono (come Ibm che ha contributo alla definizione della strategia europea con l’esperta mondiale di etica dell’intelligenza artificiale, Francesca Rossi, nel team dei 52) ma a volte inciampano (come Google, che dopo avere annunciato la creazione di un gruppo di lavoro sull’etica dell’AI, lo ha immediatamente sciolto per le obiezioni sollevate da più parti per la presenza nel team di Kay Coles James, con posizioni dichiaratamente anti-LGBT e anti-migranti, non inclusive).

Tra i 52 esperti europei altri 4 italiani: Luciano Floridi (professore di filosofia e etica dell’informazione all’università di Oxford, che aveva rifiutato l’invito a far parte del comitato etico di Google proprio per la figura controversa di James), Chiara Giovannini (vicesegretario generale di Anec), Stefano Quintarelli (presidente della Steering Committee di Agid), Andrea Renda (CITI Fellow alla Columbian University di NY).

Secondo l’Accenture Technology Vision 2019, il report annuale che individua i principali trend tecnologici che ridefiniranno il business nell’arco dei prossimi tre anni, l‘AI sarà trainante per le aziende che vorranno continuare a competere (41%). La questione dell’etica nello sviluppo dell’AI rimane davvero imprescindibile.

© RIPRODUZIONE RISERVATA