In un momento in cui l’intelligenza artificiale sollecita lo studio di casi d’uso in ogni verticale, l’Unione Europea rilascia una bozza iniziale del codice di condotta per l’utilizzo dei foundation model denominati nell’AI Act come General Purpose AI Model, ovvero modelli GpAI). Questo documento, ancora in fase di consultazione pubblica, rappresenta il tentativo dell’UE di regolamentare e gestire l’uso responsabile e trasparente delle GpAI, strumenti di potenziale grande impatto ma anche di relativo rischio. Con il supporto di esperti indipendenti, il codice si propone di fissare linee guida chiare per sviluppatori e fornitori di AI, ponendo particolare enfasi sulla trasparenza, la sicurezza e la tutela dei diritti fondamentali.

Come è facile intuire il codice di condotta proposto fa parte del più ampio quadro normativo previsto dall’AI Act (approvato a marzo e pubblicata sulla gazzetta ufficiale UE a luglio, Eur-Lex) che sarà applicato nella prossima primavera. Quello di cui si parla oggi è un primo draft  sviluppato in collaborazione con rappresentanti dell’industria, della società civile e del mondo accademico, e rimarrà aperto per feedback e commenti fino alla fine di novembre 2024. In particolare, il codice mira a coprire due categorie principali di destinatari: i fornitori di AI di uso generale e quelli che sviluppano modelli con rischi sistemici. Tra i princìpi guida che orientano la struttura del codice emergono concetti chiave come la proporzionalità dei rischi e l’allineamento con i valori dell’UE. Le linee guida contenute nella bozza mirano quindi a fornire strumenti per valutare i rischi in maniera proporzionale e adeguata alle potenziali conseguenze che l’AI potrebbe avere sulla società. Inoltre, viene incoraggiata l’integrazione delle normative internazionali in ambito AI, per evitare conflitti e promuovere uno standard di riferimento globale. Altri principi fondamentali di riferimento sono la futura adattabilità delle norme, il supporto alla crescita dell’ecosistema di sicurezza dell’AI e un impegno alla trasparenza per assicurare che le informazioni critiche vengano condivise con autorità competenti e gli “attori downstream”.

Gruppi di lavoro in quattro aree

Il codice è stato suddiviso in quattro aree principali, ognuna delle quali è affidata a uno specifico gruppo di lavoro. Il primo riguarda la trasparenza e i diritti d’autore con l’obiettivo di fornire una documentazione dettagliata sia agli utenti finali sia alle autorità di controllo. Gli standard di trasparenza richiedono che le aziende forniscano dettagli su ogni fase del processo, dal training del modello fino all’eventuale utilizzo da parte di terzi, in modo che questi possano capire le funzionalità e le limitazioni del modello stesso. Questo gruppo si occupa anche di temi legati al diritto d’autore, stabilendo misure per garantire che le AI rispettino le normative UE sui diritti d’autore, specialmente nell’uso di dati protetti.

Marta Ziosi, vice chair Working Group 2 e icercatrice post-dottorato presso l'Oxford Martin AI Governance Initiative
Marta Ziosi, vice chair gruppo di lavoro 2 e ricercatrice post-dottorato presso l’Oxford Martin AI Governance Initiative

Il secondo gruppo di lavoro è dedicato all’identificazione e alla classificazione dei rischi sistemici legati all’uso delle AI general purpose, con particolare attenzione ai rischi che potrebbero avere un impatto significativo sulla sicurezza pubblica e sulla stabilità sociale. Per esempio, questo gruppo identifica rischi come la manipolazione e disinformazione su larga scala o la possibilità che modelli AI possano sfuggire al controllo umano. Questo lavoro si traduce in un “sistema di tassonomia dei rischi” che definisce categorie e criteri specifici per valutare i potenziali pericoli.
Il terzo gruppo si occupa di sviluppare soluzioni tecniche per mitigare i rischi (3), che vanno dall’introduzione di sistemi di sicurezza avanzati all’utilizzo di test rigorosi e valutazioni continue del rischio. In questo ambito, viene enfatizzata la collaborazione con terze parti per ottenere una verifica indipendente dei sistemi di sicurezza, come misura aggiuntiva per garantire la robustezza dei modelli. Infine, il quarto gruppo affronta il tema della governance (4), fornendo indicazioni su come le aziende dovrebbero strutturare i propri sistemi interni per la gestione e la mitigazione dei rischi.

Daniel Privitera, vice chair gruppo di lavoro 3 è fondatore e direttore esecutivo del Kira Center
Daniel Privitera, vice chair gruppo di lavoro 3 è fondatore e direttore esecutivo del Kira Center

La bozza suggerisce che la responsabilità del rischio dovrebbe essere a carico dei vertici aziendali, favorendo un approccio organizzativo che consenta una gestione olistica delle minacce sistemiche. L’adozione del codice di condotta non è oggi obbligatoria, ma la Commissione Europea punta a incentivare la partecipazione e l’adesione volontaria. E per assicurare un processo inclusivo e partecipato, la bozza rimane aperta per feedback fino al 28 novembre 2024. Tutti gli attori coinvolti sono incoraggiati a inviare commenti e suggerimenti attraverso la piattaforma dedicata Futurium. L’obiettivo del codice è piuttosto fornire un quadro di riferimento chiaro che possa favorire una diffusione sicura e responsabile dell’AI. Tuttavia, la rapida evoluzione della tecnologia pone sfide significative, poiché richiede una regolamentazione agile in grado di adattarsi rapidamente ai cambiamenti. Il codice è, quindi, solo il primo passo di un lungo percorso, che richiederà aggiornamenti periodici e una continua collaborazione tra istituzioni, industria e società civile. Se adottato e largamente condiviso il codice potrebbe servire da modello per altre nazioni, delineando un futuro in cui l’intelligenza artificiale possa evolversi in modo sicuro, etico e in linea con i valori fondamentali dell’Unione Europea. 

Prossimi passi

Dopo la fase di feedback pubblico, come detto aperta fino al 28 novembre 2024, la Commissione Europea raccoglierà e analizzerà i commenti provenienti da una vasta gamma di stakeholder, tra cui rappresentanti dell’industria, enti accademici, società civile e organizzazioni governative. L’obiettivo è utilizzare questi contributi per raffinare e migliorare il codice, assicurando che sia inclusivo e rappresenti le esigenze e le preoccupazioni delle diverse parti coinvolte. Durante i mesi successivi, i gruppi di lavoro specializzati, insieme agli esperti indipendenti che hanno già contribuito alla bozza, continueranno a collaborare per sviluppare le misure specifiche, i sotto-obiettivi e gli indicatori di performance (Kpi).

Questo processo iterativo prevede l’elaborazione di un codice sempre più completo e articolato, capace di affrontare in dettaglio questioni complesse come la trasparenza, la mitigazione dei rischi sistemici e la conformità con le normative sui diritti d’autore. Entro maggio 2025, il codice dovrebbe raggiungere la sua forma finale e diventerà un riferimento per i fornitori di AI. Tuttavia, la natura “future-proof” del codice implica che sarà soggetto a revisioni regolari da parte dell’AI Office, che monitorerà l’adeguatezza delle linee guida rispetto all’evoluzione tecnologica e alle nuove sfide sociali. Questo approccio flessibile consentirà al codice di adattarsi rapidamente, cercando di mantenere l’AI sicura nel solco dei binari dei valori europei, qualificati dall’AI Act.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: