Mercoledì 13 marzo il parlamento europeo ha approvato l’AI Act a stragrande maggioranza, a distanza di cinque anni dalla prima proposta di regolamentazione dell’intelligenza artificiale datata 2019. Sarà promulgata come legge entro giugno di quest’anno ma entrerà in vigore gradualmente, per arrivare a un’applicazione completa entro la prima metà del 2026.
Ma l’AI Act ha una valenza particolare. Primo atto che regolamenta la tecnologia AI al mondo (come lo era stato il Gdpr sui temi della privacy) potrà fare scuola in tutti i Paesi, mettendo il controllo delle tecnologie di AI al centro del progresso dell’uomo, della società e della economia. Un modello per la gestione dell’AI, anche se dimostra ancora una volta quanto l’Europa arbitri, normi, ma non giochi questa partita strategica dal punto di vista tecnologico come sostiene in più riprese Alec Ross, uno dei massimi esperti di economia digitale (docente della Bologna Business School, coordinatore della politica tecnologica di Hillary Clinton e Barack Obama) anche su Repubblica del 27 febbraio: “Certo, dovrebbero esserci delle normative ragionevoli sull’AI, ma a meno che l’Europa non voglia essere una colonia economica degli Stati Uniti e della Cina, allora avremo bisogno di meno avvocati, politici, filosofi e burocrati che stabiliscano strategie e norme per l’AI e di più imprenditori, venture capitalist e ingegneri. Da troppo tempo gli europei non sono più protagonisti. È come una partita di calcio. In campo ci sono due squadre, una americana e una cinese. Invece di schierare la propria, gli europei hanno preferito recitare la parte dell’arbitro, che fischia i falli e mostra il cartellino giallo. L’arbitro può contribuire a decidere il risultato della partita, soprattutto se dirige male, ma non è mai lui a vincerla. Se vogliono vincere, gli europei devono mandare in campo la loro squadra”. In una competizione nella quale primeggiano gli Stati Uniti investendo 65 miliardi di dollari quest’anno sull’AI, il doppio della Cina che ne stanzia 35, creando un gap enorme con il vecchio continente che ha approvato un nuovo pacchetto di finanziamenti europei per l’AI di circa 4 miliardi di euro fino al 2027. Un confronto tra numeri che non regge.
AI Act, qualche dettaglio
Due aspetti da ricordare nelle discussioni che seguiranno nei prossimi mesi sull’AI Act. Da una parte l’approccio basato sul rischio (più l’AI è utilizzata in applicazioni rischiose più dovrà sottostare a regole severe e rigorosi controlli, ad esempio se impiegata in medicina o per infrastrutture strategiche…) e la serie di divieti di utilizzo come polizia predittiva, identificazione biometrica, riconoscimento delle emozioni.
Dall’altro la richiesta di maggior trasparenza alle aziende sviluppatrici delle potenti intelligenze artificiali generative (come ChatGpt o Gemini), che dovranno fornire fonti e indicazioni su come hanno addestrato le loro intelligenze, nel rispetto della legge europea sul copyright, per arginare utilizzi scorretti che provochino rischi o incidenti. Tutto ciò che verrà prodotto con l’AI (immagini, testi, video…) dovrà essere ben etichettato per non ingannare le persone.
Certo non è solo l’Europa in moto per regolamentare l’AI. Oltreoceano sette stati americani stanno lavorando su una propria legislazione, anche su invito del presidente Joe Biden per definire leggi e accordi globali sull’AI. Come in Cina il presidente Xi Jinping ha proposto una iniziativa per stendere misure provvisorie per un uso equo e sicuro dell’AI, che si applichino a testi, immagini, audio, video e altri contenuti generati per il mercato cinese.
Ora si stanno strutturando gli uffici di controllo, a partire da Bruxelles dove è stato istituito quello incaricato di supervisionare il rispetto dell’AI Act, via via replicato nei singoli Paesi. Chi non agirà nel rispetto della legge potrà essere sanzionato con multe fino a 35 milioni di euro (38 milioni di dollari), oppure fino al 7% delle entrate globali dell’azienda.
In Italia, il governo oltre a strutturare l’ufficio competente è al lavoro per la stesura di un testo sull’intelligenza artificiale che raccolga le indicazioni dell’AI Act europeo, preannunciando anche un investimento complessivo di 1,2 miliardi per lo sviluppo dell’AI in Italia.
Un tema che vede in prima fila schierate le principali aziende Ict del nostro mercato, coordinate da Anitec-Assinform, che ha presentato la scorsa settimana il proprio Manifesto AI intitolato “IA: Cogliamo le opportunità, riduciamo i rischi”, dettagliando alcune linee guida per promuovere un approccio responsabile all’AI da parte di cittadini e imprese, per far sì che lo sviluppo dell’AI abbia ricadute positive sulla società e sull’economia. Il mercato dell’AI in Italia ha toccato i 570 milioni di euro nel 2023 e si prevede crescerà in media del 28,2% nei prossimi anni, fino ad arrivare a generare una spesa di 1,2 miliardi di euro nel 2026 (fonte Rapporto Anitec-Assinform, Il Digitale in Italia 2023).
“Né l’autoritarismo cinese né i miliardari californiani sono la strada giusta per l’Europa – aveva puntualizzato Ross su Repubblica -. Serve una squadra europea e italiana che porti avanti il proprio modello di contratto sociale e una crescita economica che garantisca l’equilibrio tra aziende, governo e cittadini”.
L’AI Act è importante, ma è solo un buon inizio per quanto c’è da fare.
© RIPRODUZIONE RISERVATA