L’impegno della Commissione Europea per la regolamentazione nell’utilizzo dell’intelligenza artificiale è forse il primo significativo cambio di passo a livello globale nell’anticipare l’evoluzione nell’utilizzo dei sistemi digitali prima di un loro effettivo uso massivo non correttamente regolamentato. A guardare al passato, infatti, gli organismi politici competenti quasi mai sono riusciti a legiferare anticipando gli eventi nel mondo digitale. Non è accaduto in precedenza per l’e-commerce, non per il social network, e nemmeno per l’utilizzo dei contenuti digitali e il diritto d’autore, ambiti che invece hanno sempre visto la politica “inseguire” in netto ritardo e spesso “fare danni” maggiori rispetto alle correzioni che si sarebbe voluto apportare a tutela dei cittadini.
L’UE invece è operativa sui temi legati all’AI già dal 2018, anche con la pubblicazione del primo piano coordinato sull’AI. Nel 2019 ha elaborato gli orientamenti per un’AI affidabile e nel 2020 una lista di valutazione per l’AI e poi il relativo libro bianco cui è seguita la consultazione pubblica. Fino al riconoscimento delle effettive lacune presenti nella normativa, in particolare per quanto riguarda la sicurezza di macchine e prodotti, espresso nella Relazione sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e di responsabilità, in cui si concludeva che la vigente normativa in materia di sicurezza dei prodotti presentava una serie di lacune che dovevano essere colmate, in particolare nella direttiva macchine.
AI, i passi avanti dell’Unione Europea
Con la proposizione di un quadro giuridico completo sull’AI e di un nuovo piano coordinato con i Paesi membri da una parte a garanzia della sicurezza delle persone, dall’altra vòlto a incentivare l’utilizzo delle tecnologie legate all’AI – anche attraverso gli investimenti necessari – l’Unione mette una serie di paletti a salvaguardia delle libertà fondamentali ed allo stesso tempo lavora in modo tale che in uno spazio tecnologico così importante come quello dell’intelligenza artificiale, la Comunità possa esercitare la sovranità necessaria che ora si va cercando nell’ambito della gestione dei dati.
Il pensiero alla base dei passi mossi in avanti è chiaro: lo sviluppo e la diffusione delle tecnologie di intelligenza artificiale, oltre ai dati e all’infrastruttura computazionale, richiedono anche azioni mirate, sensibilità condivise e risorse sufficienti. Serve concentrarsi sull’eccellenza nella ricerca e innovazione (R&I), sulla disponibilità dei talenti e delle competenze necessari, in un quadro politico di supporto, regolamentazione e coordinamento. Non è quindi un caso che le azioni comuni “orizzontali” proposte siano state pensate in modo da coprire effettivamente l’intero ciclo di “utilizzo” dell’AI. Per facilitare l’inclusione nell’utilizzo delle tecnologie all’interno di un ecosistema che comprenda la ricerca, lo sviluppo, la diffusione, la commercializzazione e diffusione dell’AI insieme alle misure per sostenere la fiducia nelle tecnologie di intelligenza artificiale.
L’utilizzo dell’AI basato sull’analisi dei rischi
La Commissione in particolare ha improntato la Proposta di regolamento, che stabilisce norme armonizzate sull’intelligenza artificiale comuni per tutti i Paesi dell’Unione, a partire da un’articolata analisi sui rischi ed in una prospettiva ampia volta a considerare anche i naturali impatti della materia per quanto riguarda gli equilibri di controllo delle informazioni a livello geopolitico. Entrando nei dettagli, i documenti della Commissione parlano di rischio inaccettabile, rischio alto, rischio limitato e rischio minimo.
L’unione vieta quindi i sistemi di AI considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, tra questi quelli che “manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale””.
Ad alto rischio sono invece i sistemi in cui la tecnologia di AI è utilizzata – riportiamo testualmente – in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami); in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot); nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei curriculum vitae per le procedure di assunzione); in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito); in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove); nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti). Per questa tipologia di utilizzo sono quindi previsti obblighi rigorosi prima che possano essere immessi sul mercato. Obblighi che prevedono (anche in questo caso riportiamo testualmente):
- adeguati sistemi di valutazione e attenuazione dei rischi;
- elevata qualità dei set di dati che alimentano il sistema, per ridurre al minimo i rischi e i risultati discriminatori;
- registrazione delle attività per garantire la tracciabilità dei risultati;
- documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sulle sue finalità affinché le autorità possano valutarne la conformità;
- informazioni chiare e adeguate per l’utente;
- appropriate misure di sorveglianza umana, per ridurre al minimo i rischi;
- elevato livello di robustezza, sicurezza e accuratezza.
E’ proprio in questo contesto che si innestano le valutazioni relative all’utilizzo dei sistemi di identificazione biometrica da remoto. Sono sempre considerati ad alto rischio, e l’utilizzo dell’AI in spazi accessibili al pubblico è in linea di principio vietato.
Con poche eccezioni rigorosamente definite e regolamentate. Per esempio, per la ricerca di un minore scomparso, la prevenzione al terrorismo – ma solo nel caso in cui si tratti di una minaccia terroristica specifica e imminente (non generica quindi) – o per il bisogno di localizzare, identificare o perseguire autori o sospettati di un reato grave. Utilizzi sempre soggetti all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.
Infine, sussistono specifici obblighi di trasparenza nell’utilizzo dell’AI nei chatbot (rischio limitato), con l’attenzione a sollecitare la necessaria consapevolezza negli utenti sul fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no. Mentre la proposta legislativa consente “il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’AI” (in cui il rischio è qualificato come minimo).
E’ questo ultimo un ambito in cui il progetto di regolamento non interviene poiché “questi sistemi di AI presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini”. Così come è anche per tantissimi sistemi di controllo a livello di produzione industriale.
Sono chiamate a supervisionare al rispetto delle regole le autorità nazionali di vigilanza ma allo stesso tempo è prevista anche l’istituzione di un comitato europeo per l’intelligenza artificiale con il compito di facilitare l’attuazione e stimolare lo sviluppo di norme per l’AI. Vengono inoltre proposti “codici di condotta volontari per i sistemi di AI non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile”.
Se è vero che la regolamentazione dei sistemi di identificazione biometrica tramite l’utilizzo dell’AI può a nostro avviso potrebbe comunque lasciare ancora una certa “mano libera” alla pubblica amministrazione, a meno di ricorrere a specifiche regolamentatorie ancora più definite, da apprezzare nell’impianto complessivo degli elaborati di riferimento, ovvero – Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) e Coordinated Plan on Artificial Intelligence 2021 Review – è soprattutto lo sforzo di coordinamento e la promozione all’utilizzo dell’AI in ambito industriale. Il piano di coordinamento è stato del tutto aggiornato rispetto alla prima pubblicazione del 2018. Propone azioni comuni concrete di collaborazione “per garantire che tutti gli sforzi siano in linea con la strategia europea sull’IA e il Green Deal europeo, tenendo conto, nel contempo, delle nuove sfide poste dalla pandemia di coronavirus”. E vuole accelerare gli investimenti nell’AI volti a favorire la ripresa.
L’impegno UE per un programma AI comune
I programmi comuni si pongono come obiettivi quindi la creazione di condizioni favorevoli allo sviluppo dell’AI ed alla sua adozione (1), la promozione dell’eccellenza in questo ambito è basata sul partenariato pubblico-privato, “mobilitando capacità di ricerca, sviluppo e innovazione e mettendo a disposizione delle Pmi e delle pubbliche amministrazioni strutture di prova e sperimentazione nonché poli dell’innovazione digitale” (2). Allo stesso tempo si vuole anche garantire che l’AI sia al servizio delle persone operando per un’AI “affidabile coltivando talenti e competenze mediante tirocini, reti di dottorato e borse post-dottorato in ambito digitale, integrando la fiducia nelle politiche in materia di AI e promuovendo la visione europea di un’AI sostenibile e affidabile a livello globale” (3).
Sostenibilità e produzione sostenibile, salute, scambio delle informazioni, mobilità efficiente, agricoltura intelligente e robotica, sono gli ambiti su cui l’UE vuole impegnarsi per creare una leadership strategica. Ed in questo frangente si inserisce quindi anche il nuovo regolamento relativo alle macchine per quanto riguarda i requisiti relativi a salute e sicurezza.
Le risorse per attuare i programmi sono quelle assegnate attraverso i programmi Europa digitale e Horizon Europe, quello per la ripresa e la resilienza, che a livello europeo prevede un obiettivo di spesa per il digitale del 20% e i programmi della politica di coesione. Il Parlamento europeo e i diversi Paesi ora devono decidere se approvare le proposte relative all’approccio comunitario e al regolamento sui macchinari, quindi i regolamenti saranno poi applicabili. La Commissione invece continua il proprio percorso di collaborazione con i Paesi per l’attuazione del Piano Coordinato.
© RIPRODUZIONE RISERVATA