L’utilizzo dell’intelligenza artificiale generativa per la produzione di testi, immagini, audio e video – con i relativi problemi di verifica – pone un problema reale: distinguere ciò che è creato dall’uomo da ciò che è generato da sistemi algoritmici. La Commissione europea ha decido quindi di intervenire proprio su questo snodo critico, avviando lo sviluppo di un Code of Practice on Transparency of AI-generated Content come strumento di riferimento, di fatto al momento volontario – pensato per anticipare e facilitare l’applicazione degli obblighi previsti dall’articolo 50 dell’AI Act. Il lavoro della Commissione è introdotto attraverso una serie di comunicazioni ufficiali che delineano un quadro chiaro degli obiettivi, della governance, della roadmap e dei contenuti che comporranno il futuro codice di condotta.
Questione di trasparenza
Il tema centrale è la trasparenza. L’AI Act stabilisce che i contenuti generati o manipolati artificialmente debbano essere etichettati in modo “comprensibile” e, soprattutto, identificabili anche tramite tecniche automatiche. L’intento è prevenire dinamiche di disinformazione, impersonificazione e manipolazione sistemica degli ecosistemi informativi. Per raggiungere questo obiettivo, la Commissione ha chiarito che il codice dovrà costituire un supporto operativo alla normativa, definendo modalità tecniche, processi e standard attraverso cui i diversi attori coinvolti — fornitori di sistemi generativi, piattaforme, editori, integrator, creatori di contenuti e verificatori — potranno assicurare livelli adeguati di tracciabilità dei contenuti. In questo modo, il codice diventa un ponte tra il potenziale delle tecnologie generative e i principi di responsabilità, integrità e verificabilità richiesti dall’impianto regolatorio europeo.
Gli obiettivi della proposta
La proposta del codice cui sta lavorando la Commissione inquadra una serie di obiettivi specifici. Il primo è rendere riconoscibili i contenuti artificiali, sia per gli utenti sia per gli strumenti automatizzati di identificazione, attraverso sistemi di marcatura leggibili da sistemi macchina. La Commissione sottolinea che la rilevabilità tecnica deve basarsi su soluzioni interoperabili, robuste e affidabili, compatibili con lo stato dell’arte tecnologico e con gli standard internazionali emergenti. A ciò si aggiunge la volontà di rendere più trasparente la catena del valore dei contenuti digitali, chiarendo le responsabilità dei provider che generano i contenuti e dei deployer che li pubblicano o ne fanno uso. L’introduzione di marcature persistenti, metadati standardizzati e disclosure esplicite mira a rafforzare la fiducia degli utenti e a contrastare l’uso fraudolento dei contenuti sintetici.
La roadmap
L’impostazione si riflette nella roadmap presentata dalla Commissione. Il percorso di lavoro è iniziato con la consultazione pubblica nel corso di quest’anno ed è proseguito con la selezione formale delle figure che guideranno la fase di redazione: chair e vice-chair indipendenti, responsabili dei due working group dedicati rispettivamente ai provider e ai deployer.

Novembre 2025 ha segnato l’inizio dei sette mesi di lavoro necessari a produrre la versione finale del codice. Nel corso di questo periodo sono previsti incontri tecnici, sessioni tematiche, consultazioni trasversali e successive versioni preliminari del documento, in un percorso iterativo volto a garantire il consenso dei soggetti coinvolti e la coerenza con i requisiti dell’AI Act. La pubblicazione del testo definitivo è attesa per la primavera o l’inizio dell’estate 2026, un timing deliberate per permettere agli operatori di adeguarsi prima dell’entrata in vigore degli obblighi normativi di trasparenza prevista per agosto dello stesso anno (ricordiamo che la piena applicabilità dell’AI Act è fissata proprio al 2 agosto 2026) .
I contenuti
La proposta definisce con precisione anche la struttura e i contenuti del futuro codice. Il perimetro copre tutte le forme di contenuto generate o manipolate da sistemi IA, dai testi sintetici ai deepfake multimediali, passando per immagini modificate, ricostruzioni vocali, avatar e media generativi destinati al pubblico. Per i provider, ossia i fornitori di modelli generativi e tecnologie di produzione dei contenuti, il codice indicherà come implementare marcature machine-readable direttamente negli output, utilizzando meccanismi allo stesso tempo robusti e interoperabili con le tecniche di rilevazione disponibili sul mercato. L’obiettivo è garantire un livello minimo ma efficace di identificabilità, tenendo conto dei costi, dei limiti tecnici e della continua evoluzione dello stato dell’arte.
Ai deployer, cioè gli utilizzatori dei sistemi IA generativi che diffondono contenuti, il codice proporrà responsabilità altrettanto rilevanti. Quando un contenuto è pubblicato, condiviso o utilizzato per comunicazioni rivolte al pubblico, chi lo diffonde dovrà garantire che la provenienza sia chiara. Nei casi più sensibili — come impersonificazioni, ricostruzioni di persone reali, contenuti di interesse pubblico pubblicati senza revisione umana — la disclosure dovrà essere esplicita. Il codice esplorerà anche soluzioni organizzative, come flussi editoriali con forme di supervisione umana, policy interne per la gestione dei contenuti sintetici e processi di verifica prima della diffusione.
L’iniziativa della Commissione introduce inoltre un elemento di collegamento tra gli attori dell’ecosistema. I due working group dedicheranno parte del lavoro alla definizione di standard trasversali, come linee guida comuni per i metadati, modalità di scambio delle informazioni tra provider e piattaforme, interoperabilità tra soluzioni di watermarking e strumenti di rilevazione. L’Unione vuole evitare soluzioni frammentate, promuovendo un approccio coerente in tutta la catena del valore. Questa attenzione all’interoperabilità è considerata essenziale per creare un ambiente in cui i contenuti possano essere identificati indipendentemente dalla piattaforma o dallo strumento di produzione.
Il codice sarà “formalmente” volontario, ma il suo ruolo sarà strategico. La Commissione ha chiarito che il documento servirà come riferimento pratico per soddisfare gli obblighi dell’articolo 50 dell’AI Act, fungendo da strumento di supporto per dimostrare la conformità alle regole europee. In parallelo, saranno pubblicate linee guida normative per chiarire aspetti giuridici più specifici, mentre il codice si concentrerà sulle modalità operative. Questa architettura a due livelli è pensata per accelerare la capacità degli operatori di prepararsi in anticipo, evitando che l’entrata in vigore della normativa colga impreparate imprese e piattaforme. Di fatto aderire al codice stesso non è obbligatorio di per sé: è una strada proposta per facilitare la conformità agli obblighi che invece sono vincolanti.
Le implicazioni per i mercati
Le implicazioni per il mercato europeo e per quello italiano sono immediate. I fornitori di sistemi generativi dovranno integrare nei propri modelli meccanismi di marcatura persistente, confrontarsi con standard comuni e valutare l’impatto di soluzioni di watermarking e di embedding dei metadati. Le piattaforme digitali potrebbero essere chiamate a gestire i contenuti sintetici secondo policy più stringenti, armonizzando disclosure, flussi editoriali e strumenti di rilevazione. Gli editori e i produttori di informazione dovranno integrare procedure interne per distinguere ciò che è generato dall’uomo da ciò che non lo è, evitando rischi reputazionali e potenziali distorsioni del dibattito pubblico. Anche il settore della ricerca e le aziende che sviluppano strumenti di verifica dei contenuti potranno beneficiare del quadro più definito, che promuoverà la richiesta di tecnologie in grado di identificare manipolazioni, riconoscere deepfake e valutare l’autenticità dei media.
Le sfide
L’effettiva implementazione tecnica delle marcature potrebbe non essere immediata, soprattutto per i provider che operano con modelli complessi e multimodali. La cooperazione tra attori — dal produttore del modello alla piattaforma distributiva, passando per gli editori e per gli strumenti di rilevazione — richiederà uno sforzo coordinato per garantire coerenza operativa. Il carattere volontario del codice, se da un lato facilita l’adozione, dall’altro rischia di generare tempi e livelli di maturità differenti tra settori e operatori. Inoltre, l’assenza di confini geografici nelle tecnologie generative rende essenziale un allineamento internazionale per evitare che soluzioni adottate localmente perdano efficacia in un contesto globale. Tutte queste componenti — la roadmap tecnica, la definizione degli obblighi operativi, il ruolo dei gruppi di lavoro, la necessità di standard comuni, le implicazioni per piattaforme, editori, provider e strumenti di verifica — convergono verso un obiettivo comune: costruire un ecosistema in cui la GenAI possa svilupparsi in modo responsabile, rispettando principi di trasparenza e tutelando la fiducia degli utenti. Il codice di condotta rappresenta così uno strumento chiave per rendere operativi i principi dell’AI Act, facilitando il passaggio dalla normativa alla sua concreta implementazione tecnica, in un momento in cui i contenuti sintetici stanno trasformando radicalmente il modo in cui informazione, comunicazione e creatività vengono prodotti e consumati.
© RIPRODUZIONE RISERVATA











































