È passato solo un anno da quando OpenAI ha rilasciato ChatGpt e la ChatGpt di oggi è completamente diversa da quella che il 30 ottobre 2022 aveva scatenato così tanta curiosità che in soli 5 giorni era stata utilizzata da 1 milione di persone, e dopo un mese ne incantava 100 milioni a settimana.
Un anno in cui è cresciuta in fretta, sorprendendo tutti noi per la velocità con cui l’AI generativa è entrata nei discorsi, è migliorata giorno dopo giorno, evolvendo dalla prima versione conversazionale (ChatGpt rispondeva a domande basandosi su dati addestrati fino a un anno prima, settembre 2021, produceva allucinazioni e falsi contesti) a una versione potente (la quarta) migliorata, precisa, addestrata con dati aggiornati ad aprile 2023. Integrata con la ricerca sul Web, multimodale, utilizza foto, documenti, conversa a voce. Ma soprattutto OpenAI, l’azienda che ha creato ChatGpt, ha dato agli sviluppatori la possibilità di creare ChatGpt personalizzate al suo primo DevDay, organizzato a San Francisco a inizio novembre.
La velocità con cui la AI generativa è entrata nei discorsi, nelle preoccupazioni, nei risvolti etici e sociali (alzi la mano chi non ne ha parlato).
La velocità con cui analisti di mercato hanno redatto ricerche, analisi, interviste per capire quanti Ceo, Cio, C-level sappiano di AI generativa e siano disposti a spendere budget dedicati per integrarla in soluzioni che migliorino i loro processi, il loro fatturato (alzi la mano chi non abbia commissionato indagini o approfondito dati).
La velocità con cui anche il mondo dei contenuti si è interrogato sull’uso dell’AI per realizzare testi, articoli, pubblicazioni, solo per citare un comparto a noi (evidentemente) molto caro che rispecchia però molte delle domande che imprenditori, legali, medici, docenti, studenti, sviluppatori si sono fatti sull’impatto dell’AI nei loro lavori. Scrivere una tesi con l’AI generativa? Una memoria legale in campo giuridico? Un software senza competenze di codice? Immagini senza essere grafici o designer?
La velocità con cui sono esplosi gli strumenti di AI generativa per creare propri ChatGpt che lavorano su set di dati prestabiliti, in contesti molto specifici (la lista è lunga e annovera tutti i vendor software a noi noti).
Ma addestrare le intelligenze su grandi quantità di dati ha alzato il dibattito sulla questione vera legata all’AI, sul consenso umano esplicito che richiede, sull’etica, sulla sua regolamentazione comunitaria, che non deve dare adito a misure diverse paese per paese.
Ora. Ci sembrava di esserci quasi all’approvazione dell’AI Act, la regolamentazione con cui l’Unione europea dà regole chiare per lo sviluppo dell’AI, invece l’approvazione da parte del consiglio europeo attesa per fine anno tarda ad arrivare. Anche a causa di un approccio divisivo tra i Paesi europei: tra chi vuole privilegiare la privacy dei cittadini e richiede regole precise, e chi vorrebbe garantire maggiore libertà di azione alle imprese per fare innovazione, convinti della capacità di autoregolazione di aziende e mercato. Tra questi schierati Italia, Francia e Germania.
La lettera ai governi di Italia, Spagna e Germania
In questo scenario l’approvazione dell’AI Act è un’urgenza, sostiene la comunità scientifica italiana ed europea, che ha inviato una lettera appello alla presidente del Consiglio Giorgia Meloni, al presidente della Repubblica Francese Emmanuel Macron, al cancelliere federale tedesco Olaf Scholz e alle istituzioni europee.
Una lettera che ha tra i primi firmatari Luciano Floridi (Founding director del Digital Ethics Center, Yale University, e presidente del comitato scientifico di AI4People Institute), e Michelangelo Baracchi Bonvicini (presidente di Atomium-Eismd e di AI4People Institute), firmata anche da una ampia schiera di professori universitari (qui il testo completo).
“Ci troviamo in un momento critico nel corso della vita della proposta legge sull’AI. Nella fase del trilogo, questo regolamento è minacciato a causa di ciò che crediamo sia una reazione fuorviante da parte dei rappresentanti dei vostri governi a favore dell’autoregolamentazione da parte delle aziende che implementano modelli di intelligenza artificiale fondamentali (come ChatGpt e Bard). Ciò significa che queste aziende dovrebbero aderire ai propri codici di condotta, anziché essere direttamente regolamentate da organismi ufficiali. Il cambiamento di approccio ritarda l’approvazione della legge sull’AI, in particolare con le prossime elezioni del Parlamento europeo a giugno. In modo più critico, potrebbe minare la sua efficacia e rappresentare gravi rischi per i diritti dei cittadini europei e per l’innovazione europea”.
E qui l’appello: “Contro un approccio di autoregolamentazione, esortiamo tutte le parti coinvolte nel trilogo ad approvare l’AI Act il prima possibile. È un errore pensare che la regolamentazione vada contro l’innovazione: è solo attraverso la regolamentazione e quindi una competizione leale che l’innovazione può prosperare, a vantaggio dei mercati, delle società e dell’ambiente” ricordando come la resistenza da parte di Francia, Italia e Germania metta a rischio la leadership dell’Ue nella regolamentazione dell’AI.
Una Ue da sempre all’avanguardia, nel sostenere regole che assicurino tecnologia sicura e equa per tutti, ma che rischia di perdere il vantaggio iniziale se le restanti sfide normative non vengono affrontate in modo rapido ed efficace. “Una Ue indecisa perderà il suo vantaggio competitivo rispetto a paesi come Stati Uniti e Cina. I cittadini europei rischiano di utilizzare prodotti AI regolamentati secondo valori e programmi non allineati ai principi europei”.
Rimane il timore che l’autoregolamentazione delle aziende non tuteli i cittadini ma privilegi i profitti aziendali causando violazione della privacy, pregiudizio, discriminazione, minacce alla sicurezza nazionale in settori critici come la sanità, i trasporti e le forze dell’ordine. “Economicamente, le applicazioni AI non regolamentate possono distorcere la concorrenza e le dinamiche di mercato, creando un campo di gioco disuguale in cui solo le aziende potenti e ben finanziate avranno successo” .
La comunità scientifica scende in campo
Anche la comunità scientifica italiana, con il supporto di importanti associazioni firmatarie (tra cui AIxIA Associazione italiana per l’Intelligenza Artificiale, Cvpl Associazione computer vision, pattern recognition and machine learning, Ailc Associazione italiana di linguistica computazionale, Fondazione Fair, Cini, Comitato di coordinamento del Dottorato nazionale in intelligenza artificiale) ha inviato una lettera aperta al governo per sostenere la necessità di regole sull’AI generativa. “I modelli linguistici generativi come Gpt-2, Gpt-3(.5) e Gpt-4, modelli di complessità gigantesca ottenuti per addestramento su enormi risorse di dati da varie fonti (come web, libri, social media e altro), hanno dimostrato prestazioni sorprendenti in una varietà di compiti linguistici, argomentano gli scienziati. D’altra parte, questi modelli generativi sono frutto di una tecnologia recente e ancora parzialmente immatura e mostrano evidenti lacune di affidabilità e sicurezza. Fra queste, la mancanza di trasparenza sui dati di addestramento e la loro provenienza, la presenza di bias e di errori imprevedibili (allucinazioni), la facilità di uso per scopi manipolativi (produzione di disinformazione), la difficoltà di interpretare o spiegare le risposte che producono e gli errori che compiono. Nel contesto attuale, è difficile valutare l’impatto sulla società e l’economia a medio/lungo termine, inclusi i rischi esistenziali per la democrazia, la scienza e il lavoro, preoccupazioni espresse anche dagli stessi pionieri che hanno contribuito allo sviluppo della tecnologia dell’AI generativa. Crediamo che l’assenza di regole certe per i modelli generativi, per lo più prodotti da grandi aziende extraeuropee, comporti un forte rischio economico sulle aziende europee e italiane che stanno creando prodotti e servizi basati su tali modelli”.
La velocità dello sviluppo della tecnologia – con punti interrogativi su quali saranno i prossimi step – si scontra con un evidente preoccupazione per il ritardo in cui si stabiliscono regole chiare. Stimolare un dibattito sull’approvazione dell’AI Act è fondamentale.
PS: Non solo per cronaca: la vicenda del balletto di Sam Altam, dentro e fuori OpenAI, si è conclusa con il ritorno di Altman a Ceo ma con Microsoft ora nel consiglio di amministrazione di OpenAI senza diritto di voto, un cambiamento importante nella governance di OpenAI. Che si aggiunge come ulteriore elemento al dibattito sull’AI Act. Non dimentichiamoci che Microsoft è una delle grandi aziende extraeuropee di cui sopra…
© RIPRODUZIONE RISERVATA