E’ riduttivo pensare a ChatGpt come ad una semplice evoluzione di un chatbot basato sull’AI per quanto efficiente e maturo. Di fatto, per l’impatto che sta avendo non solo tra gli “addetti ai lavori” ma anche tra le categorie di utenti più disparate, è facile immaginare che la notorietà del sistema conversazionale porterà già nei prossimi mesi ad una serie di mosse sul mercato, delle cui prime avvisaglie già non mancano i segnali. 
E’ come se una marea lenta, all’improvviso abbia ottenuto l’attenzione meritata e sia balzata agli onori delle cronache. Vogliamo ricordare infatti che il modello linguistico autoregressivo – così viene definito Gpt-3 su cui si basa il sistema, con Gpt a significare Generative Pre-trained Transformer – utilizza il deep learning per produrre testo simile al linguaggio naturale umano, è utilizzato già da almeno tre anni a livello “accademico” e da cinque tra gli sviluppatori, mentre la sua prima declinazione risale addirittura al 2010.

Creato da OpenAI, Gpt-3 sfrutta circa 175 miliardi di parametri per l’apprendimento automatico e segue il trend dei sistemi di elaborazione del linguaggio naturale (Nlp) delle rappresentazioni linguistiche pre-addestrate, con particolare maturità, da qui la qualità dei testi che genera al punto da dover utilizzare necessariamente altri software (servizi o app) intelligenti, per poterne disvelare la reale originalità della produzione. Già nell’estate del 2020, una pubblicazione su Hacker News, elaborata con Gpt-3, ottenne ben 26mila visualizzazioni e balzò in cima alla lista dei post prima di essere disvelato che si trattava di un elaborato frutto dell’AI. Poi a settembre Microsoft disvelò di avere una licenza d’uso esclusivo di Gpt-3 mentre diversi enti o utilizzatori finali hanno potuto continuare ad utilizzare le Api (Application Programming Interface) pubbliche per i relativi output. Ed oggi versioni modificate di Gpt-3 sono già in grado di generare immagini partendo da un frase in lingua, per quanto la capacità non sia ancora esperibile dagli utenti.

ChatGpt, in sostanza, è la declinazione “pubblica” disponibile dell’evoluzione del modello conversazionale già operativo nel 2020, oggi maturato alla versione Gpt-3.5. Facile immaginare anche quanto sia potuto “crescere” velocemente in questi ultimi due mesi la sua capacità di apprendimento, in un ambiente – quello utilizzato per l’addestramento – che è ospitato dal cloud di Microsoft.

Una riflessione, quella sui livelli di maturità raggiunti e raggiungibili, che si sono posti anche gli analisti di Gartner, in particolare Bern Elliot, VP e distinguished analyst di Gartner, che propone un interessante filo rosso da seguire per una serie di considerazioni. Innanzitutto, bisogna valutare come il primo ambito di utilizzo di ChatGpt sia stato proprio il debugging del codice. Già su questo task però il sistema ha evidenziato bias e problemi. Questo della generazione e della correzione del codice è un ambito operativo decisamente delicato, ma anche non il più “delicato” in assoluto, ed è quindi da comprendere come, in assenza di affidabilità garantita da una cifra con diversi nove dopo la virgola, sia rischioso affidarsi ad un sistema di questo tipo anche considerato come l’errore di ChatGpt può rivelarsi importante oltreché, in tanti casi, anche marchiano.

Bern Elliot
Bern Elliot,VP e distinguished analyst di Gartner

Non solo, poiché il linguaggio con cui vengono presentate le risposte è effettivamente maturo ed all’altezza delle aspettative, le persone non esperte possono lasciarsi affascinare dalla fluidità e correttezza della risposta dal punto di vista della forma linguistica, e per questo ritenere altrettanto valido anche il contenuto.

E’ facile esperire questa possibilità anche nella somministrazione al chatbot intelligente di alcuni problemi logico/matematici non particolarmente complessi la soluzione dei quali, ben spiegata, si è rivelata all’esperienza pratica figlia di ragionamenti non pertinenti. 

Spiega bene Elliot: “I chatbot consentono l’interazione in un modo conversazionale apparentemente “intelligente”, mentre Gpt-3 produce un output che sembra aver “capito” la domanda, il contenuto e il contesto. Insieme, questo crea un misterioso effetto a valle tipo: ‘E’ umano o è un computer? Oppure è un computer dalle sembianze umane?’. L’interazione è talvolta divertente, talvolta profonda e talvolta perspicace. Sfortunatamente, anche il contenuto a volte è errato e il contenuto non è mai basato su comprensione o intelligenza simili a quelle umane”.

Modelli, addestramento e domini di competenza

Anche per ChatGpt vale che, dall’addestramento utilizzato in un determinato modello di apprendimento, dipenderà il modo in cui verrà data risposta alle domande. Per questo, le prestazioni varieranno anche a seconda dei domini su cui un sistema è già stato accuratamente addestrato. Per esempio visione artificiale, ingegneria del software e della ricerca e sviluppi scientifici. I modelli di base in Gpt, anche se questo non emerge ancora dal servizio ora disponibile a tutti’ sono stati già utilizzati poi per creare immagini dal testo; generare, rivedere e controllare il codice dal linguaggio naturale, inclusi i contratti intelligenti; e – prosegue Elliot“persino nel settore sanitario per creare nuovi farmaci e decifrare le sequenze del genoma per la classificazione delle malattie”; tuttavia la capacità di Gpt di generare in modo imprevedibile informazioni false significa ancora che le esse possano essere utilizzate solo per situazioni in cui gli errori possono essere tollerati o corretti. E si torna punto e a capo.

In verità proprio questa evidenza ci permette di compiere un passo in avanti. Comprendere infatti come sia proprio la complessità del “reale” a rappresentare un limite di Gpt è importante. Infatti, più un modello deve essere applicato ad un dominio esteso, più sarà in gioco un elevatissimo numero di parametri. L’effettiva riduzione di costi e tempi è reale, tanto più quanto più si vuole creare un modello specifico per un determinato dominio, e al contrario è poco pratico addestrare questi sistemi in senso esteso, per la maggior parte delle organizzazioni, a causa delle risorse di elaborazione necessarie, che possono renderli costosi e dannosi per l’ambiente.

La disponibilità di un “pubblico” che esercita il sistema quindi da una parte si rivela un vantaggio, ma allo stesso tempo consuma risorse e considerato come questi modelli sono stati costruiti principalmente dalle aziende che hanno ampie disponibilità di investimenti in ricerca e sviluppo e possono impiegare talenti nel campo dell’intelligenza artificiale, questo porta ad un’ulteriore concentrazione di potere in poche entità grandi e ricche, che potrebbero creare uno squilibrio significativo in futuro. Lo vediamo già oggi, anche se in misura minore, in relazione per esempio alla concentrazione pubblicitaria e della raccolta dati.

Gartner inoltre evidenzia come la possibilità di generare contenuti variabili, simili ad un originale, mini alle fondamenta le possibilità di riuscire ad individuare i “falsi” in modo rapido e favorisca la possibilità di attacchi mirati, i modelli potrebbero fornire risultati inaccettabili quando non è chiara la “natura” alla base della scatola nera, e dovrebbe essere sempre possibile quindi rintracciare a quali modelli di factbase siano attribuibili le risposte, per riuscire ad evitare pregiudizi a valle. In ultimo, serve riflettere in tempi rapidi sulle proprietà intellettuale effettiva delle elaborazioni di contenuti, sui corpus di opere create per individuare criteri legittimi di riutilizzo del contenuto.

Tra i consigli, quindi, per chi è impegnato in questi progetti, quello di utilizzare Api basate su cloud per sfruttare i modelli scegliendo quelli di minori dimensioni per una maggiore precisione, ridurre così la complessità operativa, il consumo energetico e ottimizzare il Tco. Serve poi dare priorità a chi offre l’implementazione responsabile dei modelli pubblicando linee guida sull’utilizzo, applicando tali linee guida, documentando vulnerabilità e punti deboli noti e rivelando in modo proattivo comportamenti anomali e scenari di uso improprio. Nell’elaborazione/analisi dei sistemi basati su linguaggio naturale evitare costose personalizzazioni lasciando la revisione dell’output alla responsabilità di persone reali può essere la via preferire, insieme alla preparazione di un documento strategico che delinei i vantaggi, i rischi, le opportunità e la roadmap di implementazione per i modelli basati sull’AI come Gpt, anche per comprendere se i vantaggi superano i rischi per casi d’uso specifici.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: