Il tema di un’intelligenza artificiale etica e responsabile è di estrema attualità. Da una parte perché, di fatto quasi all’improvviso, queste tecnologie hanno compiuto un balzo in avanti importante, costringendo anche gli “addetti ai lavori” a una rincorsa affannosa, dall’altra perché questo ha riportato vivi timori e dubbi legati all’utilizzo delle tecnologie che proprio le tecnologie sembravano avere alla fine sopito, anche grazie al grande aiuto che hanno “fornito” durante l’emergenza sanitaria.

L’etica dell’AI
non è certo una questione astratta, ed è importante attrezzarsi ed acquisire “consapevolezza” per non farsi cogliere impreparati. Serve disporre degli strumenti di base per valutare in modo critico l’evoluzione del tema. Punti, questi, recepiti anche dall’Unione Europea che poco prima dell’inizio dell’estate, con l’approvazione dell’Europarlamento relativa all’AI Act ha compiuto un passo avanti importante proprio in questa direzione. Sono i temi di cui parliamo con Francesca Biella, data analyst, Cefriel

L’AI sollecita l’immaginario collettivo sull’idea di un abilitatore tecnologico in grado di ragionare come l’uomo ma con una capacità superiore grazie alle potenzialità del digitale. Ma è davvero così? L’AI di cui parliamo “ragiona” come gli esseri umani? Quali sono i tratti differenzianti e i principi base?

La fantascienza, per esempio in ambito cinematografico, ci ha abituati a scenari  estremi riguardo alle implicazioni dello sviluppo dell’AI. Si pensi per esempio a titoli come Her o Ex machina in cui i dispositivi/robot dotati di intelligenza artificiale provano sentimenti o sono in grado di ingannare gli umani. In realtà, i sistemi basati su AI non hanno intenzionalità, non prendono decisioni o producono elaborati con una propria volontà.

Riguardo ai modelli linguistici in grado di elaborare testi e “conversare”, quali ChatGpt, nell’articolo On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? si diceva: “Contrariamente a quanto può sembrare osservando i suoi risultati, un Language Model è un sistema per ‘appiccicare’ in modo casuale sequenze di forme linguistiche che ha osservato nei suoi vasti dati di addestramento, in base a informazioni probabilistiche, ma senza alcun riferimento al significato: un pappagallo stocastico“.

Generalizzando, il principio su cui si basano i sistemi di AI è l’osservazione, grazie ad algoritmi molto complessi e ad una ingente capacità di calcolo, di una quantità enorme di dati e all’apprendimento di regole probabilistiche che li rendono in grado di svolgere task quali produzione di testi, riconoscimento di immagini, classificazione e così via. Parlare di “ragionamenti” potrebbe essere fuorviante. Un altro elemento distintivo dei sistemi AI rispetto alla persona è la grande velocità di elaborazione che consente di gestire operazioni su larga scala in breve tempo, come per esempio avviene in alcuni campi della diagnostica medica in cui l’utilizzo di AI supporta e velocizza il lavoro del medico.

Quali sono le principali implicazioni etiche dell’uso dell’intelligenza artificiale? Parliamo di tecnologie che possono sfuggirci di mano? Rischi e implicazioni

Francesca Biella Cefriel
Francesca Biella, data analyst, Cefriel

Le principali implicazioni etiche rispetto all’uso dell’intelligenza artificiale emergono quando le applicazioni influenzano temi sensibili che toccano la sfera della vita personale, come per esempio la decisione di accordare un mutuo o scegliere il candidato più adatto a un posto di lavoro. Come essere sicuri che l’AI compia la scelta giusta? Di chi sarebbe la responsabilità se i sistemi attuassero scelte discriminatorie? Ad esempio, un software usato dalle autorità statunitensi per stimare le probabilità che una persona con un precedente penale commetta altri crimini, tendeva ad assegnare una maggiore probabilità ai neri rispetto ai bianchi. (cfr. Machine Bias, fonte: Propublica.org). In questo tipo di contesti sarebbe auspicabile – per esempio – conoscere una motivazione, mentre molti sistemi basati sull’AI sono delle cosiddette “black-box”, ossia non consentono di accedere ai meccanismi che hanno portato a una scelta.

Un altro tema riguarda la trasparenza nei confronti dell’utente rispetto all’esistenza di un processo decisionale automatizzato. Per esempio, nel caso della profilazione, oltre a fornire un consenso, l’utente dovrebbe essere informato delle conseguenze del trattamento dei propri dati, che spesso rimangono invisibili. Da dati apparentemente neutrali, infatti, possono venire ricavati dati sensibili tramite algoritmi e tecniche statistiche. Un altro aspetto è legato alla possibilità che lo sviluppo dell’AI porti a una diminuzione dei posti di lavoro, non compensata dalla creazione di nuovi ruoli e figure. 

Come l’AI Act europeo influenzerà la governance dell’intelligenza artificiale in Europa e quali saranno i suoi impatti sullo sviluppo e l’adozione dell’AI?

L’AI Act europeo prevederà la classificazione di ogni applicazione fondata sull’AI in categorie di rischio. Ad esempio, il “social scoring” sarà classificato come “rischio inaccettabile”, le applicazioni legate a device medici o all’amministrazione della giustizia saranno etichettate come “ad alto rischio”. In base a questa classificazione le applicazioni potranno essere soggette a requisiti di conformità o ad obblighi di trasparenza.
L’AI act mira a regolare lo sviluppo e l’uso dei sistemi di AI, avendo come obiettivo la sicurezza degli utenti e la tutela dei diritti fondamentali.
Introducendo una nuova normativa, tuttavia, necessariamente comporterà un momento di transizione e adattamento per le aziende per le quali sarà necessario iniziare fin da oggi a dotarsi di competenze e ruoli per poter indirizzare gli investimenti che avranno impatto quando la normativa sarà in vigore. Bisognerà vedere quale sarà la versione finale, e monitorare l’evoluzione dell’iter di approvazione.

Quali sono le sfide che le organizzazioni devono affrontare nell’implementazione dell’AI in conformità con le normative etiche e di governance, come quelle definite nell’AI Act europeo?

Una sfida importante sta nella ricerca e nell’utilizzo di dati equi e non polarizzati nell’addestramento dei modelli, che garantiscano l’imparzialità dei sistemi e quindi l’assenza di discriminazione specialmente sulla base di caratteristiche sensibili, come genere o gruppo etnico per esempio. A partire dalla raccolta dei dati utilizzati, infatti, che sono prodotti e scelti da esseri umani, si possono introdurre pregiudizi e bias.

Un altro aspetto fondamentale è la ricerca di algoritmi quanto più possibile trasparenti e interpretabili, proprio per l’importanza che in alcuni contesti rivestono le decisioni suggerite dall’AI e la necessità di potervi trovare spiegazioni. La sfida sulla trasparenza e spiegabilità è ancora aperta. Dalla scelta dei dati, alla validazione degli algoritmi fino agli aspetti di comunicazione e trasparenza verso l’utente, il processo di conformazione alle normative definite nell’AI Act dovrà quindi riguardare tutto il ciclo di sviluppo e rilascio di un sistema AI.

Come aiutare le aziende nel sostenere i progetti basati sull’intelligenza artificiale?

Un primo passo è sicuramente aumentare la consapevolezza sul tema internamente all’azienda. È necessario comprendere le caratteristiche principali dell’AI e i rischi che i sistemi basati su di essa possono comportare. In questo senso si possono avviare percorsi di awareness, formazione e potenziamento delle competenze.

Sarà inoltre utile supportare le aziende nell’identificare i casi d’uso abilitati da sistemi di AI e fare una valutazione del rischio per poi individuare azioni da intraprendere di volta in volta per conformarsi alla normativa. Cefriel ha di recente messo a disposizione un nuovo servizio di advisory che intende proprio accompagnare le imprese non solo nella valutazione del rischio, ma nella comprensione delle potenzialità dell’AI. Tecnologia da usare in modo etico e responsabile.

Per saperne di più scarica il whitepaper: Intelligenza artificiale responsabile

Leggi tutti gli approfondimenti della Rubrica Never stop innovating by Cefriel e Inno3

© RIPRODUZIONE RISERVATA

Condividi l'articolo: