Il dibattito sull’introduzione dei Large Language Model (LLM) e dell’AI generativa nei processi aziendali e nel lavoro è tra i temi più rilevanti per le imprese, perché tocca al tempo stesso l’ambito della produttività, quello delle relazioni con i clienti e – ancora prima – con i dipendenti, e quello della governance dei dati. È un tema che genera entusiasmo, ma anche timori legati alla sicurezza e alla qualità dei risultati.
Ne parliamo con Mirko Gubian, Demand Senior Manager & Partner di Axiante “La tematica riveste carattere di particolare attualità – sottolinea Gubian – e stiamo infatti raccogliendo numerose richieste provenienti dalle aziende che vogliono comprendere le modalità di impiego degli LLM. Il nostro primo compito è affiancarle nel distinguere ciò che genera valore effettivo da quanto rischia di configurarsi come mero ‘nice to have’ a seguito dell’onda mediatica su questa tecnologia”. Secondo Gubian, le aree più promettenti di applicazione sono quelle in cui il lavoro umano è fortemente ripetitivo“Non parliamo di automazione deterministica come in passato – spiega -, quando queste attività venivano affidate ad algoritmi basati su dataset strutturati e regole rigide, oggi ci troviamo a gestire attività che, pur essendo ripetitive, richiedono interpretazione linguistica e la capacità di generare risposte comprensibili all’essere umano”. La differenza non è banale: l’innovazione portata dai LLM sta proprio nell’interfaccia, nella possibilità di interagire con sistemi che comprendono il significato delle richieste e restituiscono risposte in linguaggio naturale, superando la rigidità dei form precompilati. È proprio questa caratteristica che rende il customer service la palestra naturale per i nuovi modelli. “Quest’area aziendale può contare su una forte componente di documentazione – sottolinea Gubian – e pertanto abbiamo tutto ciò che serve per alimentare i modelli: casistiche storiche, documenti di input e output, tracciati che consentono di costruire addestramenti mirati. Per questo motivo gli ambiti dell’assistenza cliente non sono solo un’area promettente per il futuro, ma contano già diverse applicazioni valide”.

Il vantaggio, secondo Gubian, sta nella possibilità di affiancare e non sostituire gli operatori. “L’esperienza ci dice che i ritorni maggiori si raccolgono quando l’operatore rimane al centro, ma riceve suggerimenti e sintesi da parte del modello. Le domande semplici possono essere automatizzate, ma le richieste complesse richiedono sempre la supervisione umana”. Questo affiancamento, che Gubian definisce fondamentale “non solo per motivi etici ma anche di efficienza”, consente di gestire in modo più rapido i casi meno complessi, garantendo allo stesso tempo che le decisioni e le conversazioni più delicate siano prese da una persona.

Esempi concreti non mancano: dall’assistenza clienti per informazioni base come l’indirizzo di uno store fino alla gestione di pratiche molto più complesse, come la concessione di un fido o la surroga di un mutuo. “Anche in questi ultimi casi il modello può aiutare a sintetizzare centinaia di pagine di documenti, evitando che l’operatore debba leggere ‘qualche chilo’ di carta. Ma la decisione finale deve sempre essere umana”, prosegue Gubian. Il beneficio si traduce in maggiore produttività“Compiti time consuming, basati su documentazione in ingresso e in uscita, come revisione contratti e accordi o analisi feedback clienti e di survey  diventano più velocemente gestibili. Affiancare un LLM significa ridurre i tempi e consentire all’operatore di concentrarsi sui punti chiave. La produttività migliorata si traduce in valore. Un ostacolo è però che questo valore non è semplice da misurare”.

Mirko Gubian, Global Demand Senior Manager di Axiante
Mirko Gubian, Demand Senior Manager & Partner di Axiante

Qui entra in gioco il tema del ROI, che per molte aziende rappresenta la barriera più grande. “È facile stimare i costi di attivazione di un modello – osserva Gubian – ma molto più complesso misurare il ritorno economico. Eppure questa valutazione è fondamentale per decidere se intraprendere o meno un progetto basato su LLM”. Non sorprende quindi che i primi casi concreti si concentrino nelle aree sales e marketing, dove il miglioramento in termini di produttività e quindi efficienza è più facilmente misurabile: “In queste funzioni stiamo registrando una vera e propria ‘esplosione’ di applicazioni e di proof of concept (Poc), perché i benefici sono più tangibili, verificabili e, non da ultimo, immediati”. Non è però così in altre aree aziendali dove però “il potenziale potrebbe essere maggiore, penso in primo luogo alle operations – prosegue Gubian – dove però è difficile far comprendere il vero ROI alle imprese. Per questo tuttora la maggioranza dei progetti si concentra nei settori legati alle vendite, mentre i benefici operativi dell’implementazione degli LLM restano spesso sottovalutati”.

Oltre alla questione del ROI, c’è un tema di responsabilità etica e compliance, che, per esempio, riguarda tutte le attività basate su dati personali. “Prendiamo come esempio il settore del recruiting” – spiega Gubian –. “Quando un’azienda riceve migliaia di curriculum e utilizza algoritmi di IA per la selezione iniziale, il rischio di introdurre bias discriminatori è significativo. I modelli addestrati su dati storici tendono inevitabilmente a replicare i pattern del passato, con conseguenze potenzialmente discriminatorie. Candidati di determinate fasce d’età, che dispongono ancora di decenni di carriera professionale, potrebbero essere esclusi sistematicamente e ingiustificatamente.” La problematica non si limita a fattori come etnia o religione, ma coinvolge anche l’evoluzione demografica. “La struttura per età della popolazione italiana è mutata profondamente negli ultimi decenni” – precisa l’esperto –. “Un modello addestrato su dati di vent’anni fa produce risultati obsoleti, poiché non riflette l’attuale realtà lavorativa. Un professionista cinquantenne oggi non si trova alla fine del proprio percorso professionale, ma rappresenta una risorsa nel pieno della maturità lavorativa. Algoritmi che non incorporano questa evoluzione demografica risultano intrinsecamente inefficaci e potenzialmente discriminatori.” Questo apre interrogativi più ampi sulla governance dei modelli, sulla trasparenza dei dati utilizzati e sull’impatto che possono avere sulle persone. In altre parole, “la “potenza” dei LLM deve essere bilanciata dalla consapevolezza che l’uomo resta sempre un elemento imprescindibile del processo decisionale”.

L’approccio di Axiante, il valore delle persone e dei processi

Torna, in relazione a compliance ed etica dell’AI, uno dei nodi più dibattuti nell’adozione dei Large Language Model già in parte sviluppato da Gubian sulla relazione tra l’utilizzo dell’AI in “sostituzione” delle persone o piuttosto come strumento destinato ad affiancarle. La differenza non è solo semantica, ma incide profondamente sull’organizzazione del lavoro e sulle strategie di governance. Mirko Gubian affronta la questione con pragmatismo: “La nostra posizione è chiara: i modelli devono affiancare, non sostituire. E questo non per un motivo ideologico, ma perché i processi aziendali funzionano solo se tecnologia e persone vengono integrate in maniera coerente”. In questa direzione, per Axiante il punto di partenza è infatti sempre la mappatura dei processi“Non possiamo introdurre un modello se non conosciamo nel dettaglio come funziona l’azienda o quella data aree aziendale – afferma Gubian –.  Axiante in qualità di business innovation integrator non si limita ad affiancare le aziende nell’ ‘installazione’ di soluzioni, ma nell’individuare e disegnare i processi coinvolti per capire dove la tecnologia può creare reale valore”.

La mappatura serve quindi a identificare con precisione quali attività possono essere demandate a un LLM e quali invece richiedono ancora presidio umano. È anche il modo più diretto per generare fiducia nell’azienda-cliente. Lo spiega bene Gubian: “”Qualora si identifichi un potenziale miglioramento dell’efficienza nel servizio clienti attraverso l’implementazione del modello, è necessario definire parametri specifici e misurabili. Occorre quantificare l’incremento dei ticket risolti, i tempi di risoluzione e gli standard qualitativi raggiunti. Solo attraverso questa specificazione il cliente può formulare aspettative realistiche e valutare oggettivamente i risultati durante la fase di implementazione”. Questo approccio basato sui KPI è centrale per Axiante“Quando definiamo un progetto, stabiliamo insieme al cliente degli indicatori chiari e misurabili. Il miglioramento non può essere descritto in astratto: deve essere quantificato. Ad esempio: se oggi un operatore gestisce cento pratiche al giorno, domani con il supporto del modello ne potrà gestire centocinquanta. Questo rende tangibile il beneficio e permette di valutare oggettivamente il successo del progetto”. Accanto alla misurazione, è altrettanto importante la questione della tracciabilità, anche in relazione alla compliance normativa. “Ogni prompt e ogni risposta devono essere registrati e verificati” – chiarisce Gubian . “Non stiamo parlando di richieste sporadiche alla GenAI, ma di processi aziendali critici. È necessario identificare quali input hanno generato una specifica risposta e poter ricostruire il percorso logico che ha portato a un determinato output. Solo così è possibile correggere eventuali errori e garantire la governance del modello.

Questo sistema di controllo è parte integrante della collaborazione uomo-macchina. Se il modello suggerisce una risposta, l’operatore deve poter verificare che l’output sia coerente con i dati disponibili. Riprende Gubian: “Non si tratta di fidarsi ciecamente della macchina, ma di lavorare insieme in un ciclo di controllo continuo. La tecnologia supporta, l’essere umano decide”. Il problema non è solo tecnico ma, ancora prima, organizzativo.Molte aziende partono da proof of concept sull’onda dell’hype. Qualcuno in azienda chiede: stiamo facendo qualcosa con l’AI? E allora parte un progetto, senza un disegno strutturato. Il risultato è che i modelli vengono introdotti in modo improvvisato, senza sapere bene cosa possono o non possono fare. È un approccio che genera più rischi che benefici.” Per evitare questi rischi, serve un metodo che unisca consulenza e tecnologia. Gubian: “Il nostro compito è fare un passo indietro rispetto alla richiesta esplicita del cliente e chiedere: qual è il risultato che vuoi ottenere? A volte capita che un’azienda chieda di implementare un LLM, ma quello che serve davvero è un algoritmo di machine learning tradizionale o una diversa soluzione di automazione. Senza la mappatura dei processi non lo sapremmo mai. È questo che distingue un approccio superficiale da un approccio strutturato”. Il tema della fiducia torna quindi come collante dell’intero percorso, perché se il cliente percepisce che non si sta semplicemente proponendo l’aggiunta di un altro “pezzo di tecnologia”, ma che si sta disegnando un processo in grado di produrre valore, allora si crea fiducia. “E la fiducia è ciò che permette di integrare davvero la tecnologia nelle attività quotidiane”.

In questa visione, l’augmented intelligence non è uno slogan ma una pratica quotidiana: la macchina non sostituisce, ma aumenta le capacità delle persone, riducendo i tempi, alleggerendo i compiti più gravosi e permettendo ai professionisti di concentrarsi sulle decisioni critiche. “È un concetto che va al di là della semplice efficienza” – conclude Gubian -. “Significa progettare processi in cui l’uomo resta al centro, ma potenziato da strumenti che gli permettono di lavorare meglio. E questo, per noi, è il vero obiettivo dell’integrazione dei modelli linguistici nei processi aziendali“.

Il valore dei modelli AI “verticali”…

Se la collaborazione uomo-macchina è il principio guida, la sua traduzione concreta passa quindi da un disegno architetturale solido, capace di garantire compliance normativa e, come abbiamo già considerato, auditabilità degli output. La compliance normativa rappresenta senza dubbio un ulteriore livello di complessità. Con l’entrata in vigore dell’AI Act, alle aziende non basta più preoccuparsi di efficienza: devono garantire che i modelli siano trasparenti, spiegabili e controllabili, tutti punti su cui anche la dimensione dei modelli gioca un ruolo cruciale. Prosegue Gubian“Un LLM general purpose, addestrato a rispondere a qualsiasi domanda, non è adatto a processi aziendali. Più il dominio è specifico, più si riducono errori e allucinazioni. Per questo è preferibile allenare modelli verticali, piccoli e limitati a un preciso ambito di conoscenza. Non solo sono più affidabili, ma sono anche più facili da riaddestrare ogni volta che cambia un requisito normativo o operativo”. Il risultato è un sistema flessibile, capace di evolvere insieme al contesto; “le normative cambiano, i processi si aggiornano, i dati si trasformano. Per questo serve un’architettura che non sia statica ma che incorpori cicli di controllo e retraining. Solo così possiamo garantire che i modelli restino compliant e continuino a produrre valore”.

… e dell’orchestrazione multi-modello

L’evoluzione dei Large Language Model che non procede quindi soltanto verso una crescita dimensionale ma anche – e soprattutto – verso la specializzazione verticale, secondo Mirko Gubian apre a un futuro promettente e al tempo stesso più sicuro per le aziende. Il problema, tuttavia, è che un’azienda non ha bisogno di un solo modello, ma di molti. “Se ogni processo ha il suo modello verticale – osserva Gubian – ci troviamo di fronte a un mosaico di LLM. L’utente non può sapere ogni volta quale modello interrogare. Serve quindi un livello architetturale di orchestrazione che faccia da gateway tra la domanda dell’utente e il modello corretto”. Questa logica è simile a quanto già avviene con le API: un livello intermedio che smista le richieste verso il servizio giusto. Spiega in dettaglio Gubian: “Immaginiamo di avere modelli specializzati per il customer service, per il finance, per il legal. Il gateway riceve il prompt e lo indirizza al modello più adatto. In questo modo l’utente ha un’interfaccia unica e semplice, ma dietro le quinte la complessità è gestita dall’architettura”. Per realizzare questa orchestrazione entrano in gioco tecniche come la Retrieval-Augmented Generation (RAG) e la Low-Rank Adaptation (LoRA)“Con il RAG si limita il modello a un set documentale specifico, riducendo drasticamente le possibilità di allucinazione. Con LoRA possiamo invece  adattare modelli di base – anche open source – a domini verticali, senza doverli riaddestrare da zero. È un approccio valido del tipo ‘divide et impera’ – per modo di dire – : tanti modelli più piccoli, ognuno addestrato su un ambito ristretto, orchestrati da un livello superiore che smista le richieste”. Questo schema ha un altro vantaggio: la facilità di aggiornamento: “Se cambia una normativa, come l’AI Act o le regole sulla sostenibilità, è sempre possibile riaddestrare solo il modello verticale dedicato a quel dominio, senza dover intervenire su un immenso modello generalista. In questo modo il retraining diventa più rapido, meno costoso e più mirato”.

La consulenza di Axiante, quindi, non guarda quindi solo ai grandi modelli general purpose, maanche a ecosistemi multi-modello in cui ogni tassello ha un ruolo preciso e controllabile. “Questo approccio – spiega Gubian – ci permette di offrire alle aziende un sistema robusto, scalabile e allo stesso tempo sicuro. Non basta avere un modello che funziona oggi: bisogna avere un’architettura che possa adattarsi domani a nuovi scenari, normative e dati”. Un esempio concreto arriva ancora dal mondo dei progetti reali. Lo racconta Gubian: “Un cliente che opera nell’intermediazione nel settore siderurgico ci ha chiesto un LLM per gestire pratiche di esenzione da dazi doganali che abbiamo sviluppato solo per la componente testuale e lasciando il resto agli algoritmi tradizionali. Questo dimostra che non sempre serve un modello enorme: a volte bastano strumenti specifici e ben addestrati, inseriti in un disegno più ampio”.

Il tema della specializzazione si lega direttamente – ancora una volta – alla questione strategica. Molte aziende infatti stanno investendo nell’AI ma senza una visione e un piano chiaro: “Una recente ricerca del MIT condotta dal gruppo di ricerca Project Nanda evidenzia come la difficoltà di passare dai POC all’execution non sia un problema solo italiano, quanto piuttosto un fenomeno globale: l’hype ha spinto tutti a sperimentare, ma senza un approccio strutturato. E senza definire dove l’AI può generare bebefici, cosa va migliorato o strutturato graze a queste tecnologie, i progetti sono fini a se stessi e rimangono prototipi” conclude il manager di Axiante.

Per saperne di più, consultare www.axiante.com

© RIPRODUZIONE RISERVATA

Condividi l'articolo: