Promuovere relazioni positive tra l’AI e i consumatori è fondamentale per creare quel clima di fiducia legato all’incremento delle tecnologie di intelligenza artificiale nella quotidianità. Un tema che solleva continuamente anche la questione etica: per trarre beneficio dalla capacità trasformativa dell’intelligenza artificiale (su società e ambiente) le sfide di carattere etico non possono essere messe in secondo piano.
E’ il cuore di uno studio realizzato da Capgemini Research InstituteAI and the Ethical Conundrum: How Organizations Can Build Ethically Robust AI Systems and Gain Trust – che vede vacillare il senso di fiducia nei confronti dell’uso dei dati raccolti dalle aziende, con strumenti di AI.

Nonostante ci siamo linee guida emanate dalla Commissione Europea sui principi etici chiave che dovrebbero essere utilizzati per lo sviluppo delle applicazioni di AI (recepiti dall’Italia nella stesura della Strategia nazionale per l’intelligenza artificiale), e ci siano indicazioni sulla trasparenza dei sistemi dettati dalla Federal Trade Commission americana a inizio 2020, la ricerca evidenzia ancora un ritardo.

Mancano chief ethics officer

La percentuale di clienti che considera le aziende trasparenti riguardo ai loro dati crolla dal 76% del 2019 al 62% di oggi – secondo i dati Capgemini – e nonostante sia alta l’attenzione nei confronti di temi quali la fiducia e l’etica, solo il 53% delle aziende ha una persona a cui è affidata la responsabilità dell’etica dei sistemi di intelligenza artificiale che ne gestisca anche la governance. Una sorta di chief ethics officer per garantire che venga considerata una priorità assoluta dal top management la creazione di sistemi di AI solidi dal punto di vista etico.

Andrea Falleni, Amministratore Delegato, Capgemini Italia
Andrea Falleni, amministratore delegato, Capgemini Italia

“I progressi nell’implementazione di un’intelligenza artificiale etica sono stati inconsistenti” rivela il report.
Da una parte non è variato in due anni il peso dato dai dirigenti alla stesura di misure di “fairness” (imparzialità, 65% nel 2020 e 66% nel 2019) e di “auditability” (verificabilità, 45% nel 2020 e 46% nel 2019) dei loro sistemi di AI. Dall’altra a fronte di questo stallo (anche se il 58% delle aziende dichiara di aver sensibilizzato i dipendenti sui problemi che possono derivare dall’utilizzo dell’AI) è crollata la percezione di trasparenza dal 73% al 59% nel sentore delle persone. Per questo il 70% dei clienti desidera che le aziende forniscano interazioni di AI che siano trasparenti ed eque.

“Dato il suo potenziale, l’uso etico dell’AI dovrebbe chiaramente garantire l’assenza di danni alle persone e la piena responsabilità individuale nel caso in cui le cose non funzionassero come previsto – commenta Andrea Falleni, amministratore delegato di Capgemini in Italia. C’è inoltre la concreta opportunità di perseguire in modo proattivo il benessere ambientale e sociale. L’AI è una tecnologia innovativa che ha il potere di determinare progressi di vasta portata in tutti i settori di attività, così come nella società e nell’ambiente“.

Nel settore pubblico, i set di dati raccolti in ambito sanitario e pubblico manifestano criticità, ma anche quelli di aziende private. Dalla ricerca di Capgemini emerge che il 65% dei dirigenti dichiara di essere a conoscenza del problemi, il 60% è finito sotto esame dal punto di vista giuridico per problemi relativi a bias discriminatori relativi a AI, mentre il 22% ha dovuto far fronte a un calo di clienti negli ultimi due o tre anni a causa delle decisioni prese dai sistemi di AI.
Tuttavia, mentre nel 2019 il 73% delle organizzazioni globali aveva informato gli utenti sui diversi modi in cui le decisioni supportate dall’AI possono avere un impatto sui clienti, oggi questa percentuale è scesa al 59%.

“Questi risultati sono indicativi delle attuali circostanze causate dal Covid-19 – sostiene il report – nonché delle esigenze della società e dell’ambiente, della crescente complessità dei modelli di intelligenza artificiale, e di un cambiamento nel comportamento dei consumatori, tutti fattori che hanno alterato le funzionalità dei modelli di AI esistenti. Inoltre, nuovi fattori come una maggiore attenzione per la sicurezza, l’acquisto di prodotti in grandi quantità e la mancanza di dati relativi a situazioni simili nel passato stanno spingendo le organizzazioni a riprogettare i propri sistemi per adattarsi a una nuova normalità, aspetto che si è tuttavia tradotto in una minore trasparenza”.  Secondo quanto richiesto dalla Federal Trade Commission, se un sistema abilitato dall’intelligenza artificiale prende una decisione errata, l’ente dovrebbe mostrare al cliente interessato i principali data point utilizzati per arrivare alla decisione errata e concedere il diritto di modifica dei dati stessi. Trasparenza appunto.

Come uscirne

La organizzazioni possono implementare sette azioni, per costruire un sistema di AI eticamente solido, secondo il report.
• Delineare chiaramente lo scopo dei sistemi di AI e valutarne l’impatto potenziale complessivo
• Implementare in modo proattivo l’AI a beneficio della società e dell’ambiente
• Incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di AI
• Aumentare la trasparenza con l’aiuto di strumenti tecnologici
Umanizzare l’esperienza di AI e garantire la supervisione umana dei sistemi di AI
• Garantire la robustezza tecnologica dei sistemi di AI
• Proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’AI

Non sono azioni tra loro disgiunte, ognuna deve essere sostenuta a livello di leadership, governance e pratiche interne. “Invece di temere l’impatto dell’AI sugli esseri umani e sulla società, è possibile indirizzarla verso la lotta attiva ai pregiudizi contro le minoranze, anche correggendo i bias umani presenti oggi nelle nostre società – precisa Falleni -. Ciò significa che le organizzazioni governative e non che possiedono competenze in termini di AI, ricchezza di dati e che si impegnano a garantire il benessere della società e dell’ambiente devono farsi carico di una maggiore responsabilità nell’affrontare queste tematiche a beneficio delle società attuali e future, il tutto nel rispetto della trasparenza e dell’accountability”.  Il chief ethics officer si rende indispensabile.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: