La gestione della conoscenza rappresenta una delle sfide più complesse per le imprese, strette tra frammentazione informativa e necessità di garantire continuità operativa. Documenti sparsi, sistemi IT eterogenei e know-how custodito nella memoria di singoli esperti rischiano di trasformarsi in un fattore di vulnerabilità. In questo contesto si colloca la visione di Gianluca Ripa, AI and Data Analytics Business Line manager di Cefriel, che racconta come agenti AI, knowledge graph e modelli Rag possano rendere la conoscenza un asset aziendale attivo, accessibile e sicuro

La frammentazione delle conoscenze aziendali, tra documenti, sistemi IT e memoria delle persone, rappresenta una criticità strutturale. Quali approcci concreti basati su AI state sperimentando per trasformare questo sapere diffuso in un patrimonio aziendale realmente accessibile e riutilizzabile?

La frammentazione del sapere è una delle sfide più grandi e sottovalutate per le imprese oggi. La conoscenza critica, quella che determina l’efficienza di un processo o la qualità di una decisione, troppo spesso non risiede in sistemi strutturati, ma è distribuita tra documenti, archivi e, soprattutto, nella memoria di poche figure esperte. Questo crea una fragilità sistemica: in più casi di quanti ci si possa immaginare, abbiamo visto interi processi critici bloccarsi per il fatto che una singola persona, portatrice di un know-how unico, prendeva qualche giorno di ferie. Il nostro approccio mira a risolvere questa criticità, trasformando il sapere latente in un patrimonio aziendale attivo e resiliente.

Lo facciamo attraverso una combinazione di due tecnologie chiave:

  • Agenti AI per l’acquisizione intelligente: Utilizziamo agenti AI basati su large language model (Llm) che agiscono come “collettori di conoscenza”. Questi agenti possono interagire con i dipendenti tramite interfacce conversazionali per raccogliere quella conoscenza tacita – esperienze, soluzioni pratiche e competenze maturate sul campo – che altrimenti andrebbe persa perché troppo complessa da documentare formalmente.
  • Knowledge graph per la strutturazione: I knowledge graph (KG) sono uno strumento fondamentale per trasformare il sapere aziendale frammentato e diffuso in un patrimonio accessibile e riutilizzabile. Dopo uno sforzo iniziale per la loro realizzazione, sono sfruttati per sopperire ad alcuni problemi strutturali degli agenti AI basati su Llm, per arricchire il contesto e migliorare accuratezza, spiegabilità e affidabilità delle informazioni. I knowledge graph quindi agiscono come una spina dorsale semantica che integra e organizza la conoscenza. Essi consentono di “catalogare” il sapere aziendale in modo strutturato e di aggiornarlo dinamicamente con il contributo degli esperti, trasformando la conoscenza frammentata in un bene aziendale coerente, accessibile e continuamente migliorato.
Gianluca Ripa
Gianluca Ripa, AI and Data Analytics Business Line manager di Cefriel

In sintesi, gli agenti estraggono la conoscenza da silos e persone, e i knowledge graph la trasformano in una mappa intelligente e interconnessa a disposizione di tutta l’azienda. E’ come trasformare una pila disordinata di note sparse in una biblioteca ben organizzata con l’aggiunta di un bibliotecario intelligente e sempre disponibile.

La tecnologia Retrieval-Augmented Generation (Rag) viene indicata da Forrester come chiave per l’affidabilità dei sistemi AI generativi. In quali scenari reali, secondo voi, l’integrazione di Rag con agenti AI può fare la differenza nel supporto decisionale e nell’interazione con il cliente?

Il Rag è fondamentale perché ancora le risposte dell’AI generativa a fonti autorevoli e aggiornate, che nel nostro caso coincidono con il patrimonio di conoscenza verificato dell’azienda. L’integrazione del Rag con agenti AI non è solo un’evoluzione tecnica, ma un cambio di paradigma che sblocca scenari ad altissimo valore.
Alcuni esempi:

    • Progettazione e R&D: Un progettista può chiedere a un agente AI: “Quali materiali resistenti alla corrosione abbiamo già validato per turbine in ambiente marino?”. L’agente, usando il Rag, non inventa una risposta sulla base delle informazioni pubbliche viste in fase di addestramento del Llm, ma la estrae da specifiche tecniche, report di test e documentazione di progetti passati dell’azienda, fornendo non solo il dato ma anche la fonte.
    • Manutenzione e produzione: Un tecnico sul campo di fronte a un’avaria può descrivere il problema in linguaggio naturale a un assistente mobile. L’agente, tramite Rag, recupera rapidamente casi simili già risolti, procedure di intervento corrette, schemi tecnici e persino video tutorial, contestualizzando l’informazione per quel preciso macchinario e adattandola al livello di competenze e conoscenze del tecnico e, se necessario, traducendola nella sua lingua.
    • Commerciale e vendite: Un commerciale può usare un agente AI per costruire un’offerta complessa e personalizzata. Chiedendo “Prepara una bozza di offerta per il cliente X includendo la nostra soluzione per la manutenzione predittiva e citando un caso di successo nel settore energetico”, l’agente usa il Rag per recuperare dati di performance reali, dettagli tecnici corretti e il caso d’uso più pertinente dal database aziendale. Il risultato è un’offerta più veloce, accurata e convincente, basata su dati di fatto.

In tutti questi scenari, il Rag garantisce la pertinenza e rilevanza della risposta, mentre l’agente AI ne garantisce l’usabilità, trasformando una ricerca complessa in una conversazione.

Un punto centrale è il tema “human-in-the-loop”: come si progetta un bilanciamento efficace tra automazione intelligente e intervento umano per garantire accuratezza, governance dei dati e adozione diffusa delle soluzioni di knowledge management?

Il concetto di “human-in-the-loop” deve essere al centro dei progetti di adozione di soluzioni AI di gestione della conoscenza. E’ opinione comune e diffusa che non deve essere un obiettivo dell’AI puntare a sostituire l’esperto umano, ma potenziarlo. Il bilanciamento efficace si fonda su alcuni pilastri:

  1. L’AI fa il lavoro di quantità e volume, l’umano valida e governa: L’AI si occupa di acquisire, classificare e correlare enormi quantità di informazioni, suggerendo connessioni o preparando bozze. L’esperto umano interviene nei punti critici: per validare l’accuratezza delle risposte, per gestire i casi ambigui e, soprattutto, per arricchire la base di conoscenza con il suo intuito.
  2. Integrazione armonica nei processi: Per garantire l’efficacia e l’impatto concreto, la soluzione non deve essere percepita come un ulteriore carico di lavoro. Gli agenti AI devono essere integrati negli ambienti digitali già utilizzati dai dipendenti e nei processi operativi. Processi che è bene riprogettare in senso di una maggiore ergonomia sfruttando proprio gli agenti AI.
  3. L’utente da consumatore a contributore attivo: Rag può estrarre informazioni da sorgenti già digitalizzate, ma solo gli esseri umani possono condividere il loro sapere tacito e la loro esperienza pratica. Per facilitare questo processo, che è spesso il più complesso, servono strumenti AI conversazionali che guidano gli esperti di dominio passo dopo passo nella formalizzazione della loro conoscenza. Va reso estremamente semplice per gli utenti non solo fruire della conoscenza, ma anche contribuire. Ad esempio, se un tecnico trova una soluzione innovativa a un problema, può comunicarla all’assistente AI in linguaggio naturale. Sarà poi l’AI a strutturarla e a renderla disponibile a tutti. Questo trasforma ogni dipendente in un nodo attivo della rete di conoscenza, garantendo che il sistema rimanga vivo, aggiornato e sempre più prezioso nel tempo.
  4. L’utente consapevole e responsabile. Anche se gli agenti AI interagiscono in modo estremamente intuitivo tramite conversazioni, è opportuno formare il personale per comprendere a fondo come “ragiona” una AI così da poterne sfruttare al massimo il potenziale e da non incappare nei rischi.

Il successo non si misura dall’intelligenza dell’AI da sola, ma dalla qualità della collaborazione che si instaura tra uomo e macchina all’interno dei processi decisionali e operativi. Questo approccio, dove l’uomo insegna all’AI e la valida, genera fiducia nel sistema. Gli operatori si fidano dell’assistente AI perché sanno che le sue risposte si basano su conoscenza che loro stessi o i loro colleghi più esperti hanno contribuito a creare e verificare. In questo modo, l’adozione diventa un processo naturale: lo strumento non è una scatola nera imposta dall’alto, ma un partner di lavoro affidabile, co-progettato e costantemente migliorato da chi lo usa ogni giorno.

Le aziende manifatturiere e dei servizi, soprattutto in settori regolati come energia, trasporti e difesa, devono rispettare vincoli stringenti di sicurezza e compliance. Come l’AI per la gestione della conoscenza può coniugare efficienza operativa e requisiti normativi, senza introdurre ulteriori rischi o rigidità nei processi?

Questa è una preoccupazione centrale per le aziende che operano in contesti ad alta complessità tecnica e normativa. Il nostro approccio trasforma l’AI da potenziale rischio a potente alleato della compliance. La chiave è che il sistema di AI non opera nel vuoto, ma è ancorato a un perimetro di conoscenza definito e controllato dall’azienda. Ecco come gestiamo l’equilibrio:

  • Conoscenza basata su fonti controllate: La base di conoscenza del sistema viene costruita a partire da documentazione interna verificata: standard di settore, normative, procedure di sicurezza approvate, specifiche di progetto. L’AI non “interpreta” la norma, ma aiuta a navigarla e applicarla nel contesto corretto. Da questo punto di vista, un po’ di lavoro preliminare di selezione delle fonti è fondamentale per il successo del progetto.
  • Compliance proattiva: La compliance diventa un attributo integrato nel processo. Ad esempio, durante la fase di progettazione, un agente AI può assistere un ingegnere suggerendo componenti già omologati e segnalando in tempo reale se una scelta progettuale viola un vincolo normativo dello specifico paese di destinazione della commessa. Se tra le fonti selezionate di informazione ci sono anche newsletter e archivi pubblici aggiornati dinamicamente, è possibile intercettare variazioni normative in modo tempestivo.
  • Mitigazione del rischio umano: La dipendenza da pochi esperti per la conoscenza di normative complesse è un rischio per l’azienda. Un sistema AI democratizza l’accesso a questa conoscenza, garantendo che tutti, anche i neoassunti, operino secondo le procedure più aggiornate e corrette. Questo riduce l’incidenza di errori umani e garantisce uno standard operativo omogeneo e conforme.

L’AI, quindi, fornisce agilità all’interno di un perimetro di sicurezza, rendendo la conformità normativa più semplice da raggiungere e mantenere.

E’ importante validare le soluzioni sul campo, con metriche di adozione, accuratezza e usabilità. Quali sono gli indicatori che oggi ritenete più significativi per misurare il valore generato da un sistema AI di knowledge management e come questi dati possono orientare strategie future di innovazione aziendale?

La validazione sul campo è il momento della verità, in cui si misura il valore reale di queste soluzioni. Per farlo in modo efficace, adottiamo un approccio su due livelli: da un lato misuriamo l’impatto sul business, quello che percepiscono l’azienda e gli utenti; dall’altro, monitoriamo costantemente la qualità e l’affidabilità del “motore” AI sottostante. Questi due livelli sono strettamente collegati e si alimentano a vicenda.

Alcuni esempi delle metriche del primo tipo, che ci dicono se la soluzione sta avendo un impatto concreto e se viene adottata dalle persone, sono:

  • Riduzione del time-to-information: Misura quanto velocemente i dipendenti trovano le informazioni di cui hanno bisogno. Spesso trovare le informazioni richiede non solo accesso a sistemi informatici ma riunioni, telefonate, email. Ridurre drasticamente la necessità di questo tipo di interazioni ha un impatto notevole sull’accelerazione dei processi.
  • Accelerazione dell’onboarding: Un Kpi chiave è la riduzione del tempo necessario a un neoassunto per diventare pienamente produttivo. Passare da mesi o addirittura anni a settimane ha un impatto economico diretto.
  • Tasso di adozione attiva: è significativo misurare l’uso attivo delle soluzioni AI, la frequenza delle interazioni e la loro distribuzione tra i vari dipartimenti.
  • Tasso di contribuzione: un altro indicatore molto significativo, promosso da un approccio human-in-the-loop, è la frequenza con cui gli utenti arricchiscono la base di conoscenza. Un sistema sano è quello che cresce grazie al contributo della community che lo usa.

Per garantire che le metriche di business siano positive, dobbiamo assicurarci che il sistema AI sia accurato e affidabile. Qui entrano in gioco indicatori più tecnici, specifici per i sistemi Rag basati su agenti AI, Llm e KG, che vanno misurati da parte di specialisti:

  • Correttezza: in che misura la risposta generata dall’AI è strettamente basata sulle informazioni recuperate dai documenti aziendali. In altre parole, ci assicura che il sistema non stia “allucinando” o inventando informazioni.
  • Rilevanza: Controlla se la risposta, anche se fattualmente corretta, sia effettivamente pertinente alla domanda posta dall’utente. Una risposta corretta ma non pertinente è inutile e frustrante, impattando negativamente il time-to-information.
  • Completezza: misura se il sistema è stato in grado di trovare tutti i documenti disponibili pertinenti rispetto alla ricerca. Un equilibrio tra correttezza, completezza e rilevanza è cruciale per fornire risposte utili.

Questi dati, nel loro insieme, ci forniscono una visione che orienta le strategie future. Gli indicatori di business dimostrano il valore generato, giustificando l’investimento. Gli indicatori di qualità dell’AI funzionano come una diagnostica avanzata: dicono esattamente dove intervenire per migliorare il sistema, ad esempio affinando il motore di ricerca o migliorando la qualità di certi documenti utilizzati come fonti.

Per saperne di più scarica il whitepaper: L’intelligenza artificiale per valorizzare la conoscenza in azienda

Leggi tutti gli approfondimenti della Rubrica Never stop innovating by Cefriel e Inno3

© RIPRODUZIONE RISERVATA

Condividi l'articolo: