Circa 150 partecipanti tra prospect, clienti, partner e rappresentanti dell’ecosistema si danno appuntamento a Milano per l’edizione 2026 di Sas Executive PerspectivesFrom AI Adoption to AI Value, evento con cui l’azienda – prima ancora della propria visione tecnologica – porta sul palco le voci di chi l’intelligenza artificiale la sta già usando nei processi. Apre i lavori Mirella Cerutti, managing director di Sas Italia, che fa gli onori di casa e dà il benvenuto ai presenti sottolineando come l’elemento distintivo di questo appuntamento sia la concretezza “per questo portiamo sempre i clienti a raccontare il loro punto di vista e soprattutto come stanno utilizzando le nostre tecnologie e l’AI per migliorare e rendere più efficienti i processi”. Ma Cerutti inquadra anche il momento attuale come di passaggio critico: “l’Agentic AI è già uscita dai laboratori per entrare in produzione, e questo cambia il modo di lavorare delle organizzazioni”.

Mirella Cerutti
Mirella Cerutti, managing director, Sas Italia

Ed è proprio sulla scorta delle storie concrete che l’evento prende corpo, con tre testimonianze provenienti da settori molto diversibanking, farmaceutico, pubblica amministrazione – eppure accomunati da sfide simili: la necessità di integrare l’AI nei processi reali, la centralità dei dati e l’esigenza imprescindibile di una governance solida. “Che si traducono poi in tre dimensioni fondamentali per il successo delle iniziative di intelligenza artificiale: ritorno degli investimenti, governance e trust“, riprende Cerutti. Se infatti l’AI rappresenta un acceleratore del processo decisionale, è importante evitare scelte guidate dall’“impressione” più che dal valore reale, con conseguenze che impattano risultati, reputazione e fiducia.

L’esperienza di Intesa Sanpaolo

Andrea Cosentini, head of Data Science & Responsible AI di Intesa Sanpaolo, racconta come la banca italiana stia ridisegnando i propri processi attraverso l’AI, con un’attenzione particolare alla difesa dai rischi. In un istituto che abbraccia ambiti operativi molto diversi – dalla relazione commerciale con il cliente fino ai mercati finanziari – l’AI viene impiegata anche  – ma non solo – per rendere più efficaci le difese contro i crimini finanziari e le frodi.
Cosentini porta l’esempio di Velocity, tecnica malevole di riciclaggio in cui “il flusso di denaro viene frammentato in moltissime parti, fatto transitare rapidamente su livelli differenti, per poi ricomporsi in un conto accessibile alla rete criminale”. Un pattern che può essere intercettato solo da sistemi automatici di machine learning capaci di monitorare in tempo reale volumi enormi di transazioni.

Andrea Cosentini
Andrea Cosentini, head of Data Science & Responsible AI di Intesa Sanpaolo

Intesa Sanpaolo ha contribuito nel 2022 alla creazione di un consorzio anti-riciclaggio (Digital Hub) con sede a Torino, nato e che opera proprio per mettere l’intelligenza artificiale al servizio della difesa dell’intero sistema finanziario. Ma “lAI in banca non è solo presidio: è anche motore commerciale. Cosentini racconta quindi come “è possibile indirizzare le offerte in modo mirato verso i clienti potenzialmente interessati a specifici prodotti finanziari, superando l’approccio delle campagne commerciali indifferenziate del passato”. Il salto di qualità, però, richiede una governance robusta. Si insiste su questo punto: “Mettere in esercizio decine di soluzioni AI senza una piattaforma centrale di monitoraggio significa dissipare lo sforzo”. E, in Intesa Sanpaolo, un sistema centralizzato tiene traccia di 237 modelli AI sensibili, monitorandone le performance in tempo reale e verificando trasparenza, spiegabilità e assenza di discriminazione – esattamente quanto richiesto dall’AI Act europeo per i sistemi ad alto rischio.

Alfasigma, l’AI per il settore farmaceutico

Se nel mondo bancario l’AI opera su flussi finanziari e profili di rischio, nel settore farmaceutico la posta in gioco è ancora più alta: la salute delle persone. Ed è su questo terreno che si muove la testimonianza di Mara Magni, IT and R&D director di Alfasigma, che porta una prospettiva dove la narrativa sull’AI si scontra anche con la complessità della realtà regolatoria.

Mara Magni
Mara Magni, IT and R&D director di Alfasigma

Magni declina questa complessità nel caso della drug discovery: modelli come AlphaFold – il sistema open source di DeepMind per la modellizzazione delle proteine – “rappresentano una svolta straordinaria, permettendo di prevedere la struttura di oltre 200 milioni di proteine in tempi che la ricerca tradizionale non avrebbe mai raggiunto”. Tuttavia,dalla struttura della proteina al farmaco vero e proprio il percorso resta lungo e complesso”, fatto di validazioni in laboratorio, sperimentazioni e trial clinici che l’AI, da sola, non può sostituire.

Dove l’AI genera valore tangibile in Alfasigma è nella farmacovigilanza, ovvero nel monitoraggio degli effetti avversi dei farmaci già sul mercato. “Le segnalazioni arrivano da fonti eterogenee – pazienti, medici, trial clinici, persino da ricerche online – in formati destrutturati e con tempistiche di reportistica molto stringenti. L’AI consente di processare automaticamente questi dati, inserirli nei database strutturati e tagliare drasticamente i tempi di lavorazione, liberando i professionisti per le attività a più alto valore: l’informazione ai pazienti e l’individuazione di nuovi segnali di rischio”. Magni sottolinea a questo proposito come “nel farmaceutico la governance non sia un’opzione ma una necessità vitale: ogni decisione basata su dati di salute deve poter essere tracciata e spiegata alle autorità regolatorie”. L’human oversight – la supervisione umana – è obbligatoria, e il framework di accountability deve definire con precisione chi è responsabile di ciascun output dell’AI.

Comune di Pisa, l’AI per gestire le complessità del territorio

La necessità di decisioni tracciabili e difendibili accomuna dunque il mondo bancario e quello farmaceutico, ma emerge con forza anche in un contesto apparentemente lontano: la pubblica amministrazione locale. Marco Redini, direttore della Direzione Ambiente del Comune di Pisa, offre una testimonianza che dimostra come l’AI possa essere un alleato anche dove le risorse sono limitate e la complessità è dettata dal territorio.

Marco Redini
Marco Redini, direttore della Direzione Ambiente del Comune di Pisa

Pisa, con i suoi 90mila residenti, viene frequentata ogni giorno da 150-160mila persone anche dalla stazione ferroviaria (16 milioni di passeggeri l’anno), per visitare la torre, come dall’aeroporto, senza contare la presenza di tre università e le relative dinamiche legate alla vita degli studenti. Una pressione che genera criticità ambientali complesse. Redini racconta come la Direzione Ambiente utilizzi l’analisi dei dati per affrontare queste sfide in modo nuovo: “Dati sul rumore aereo, sulla qualità dell’aria e dell’acqua, sulla modellistica aeronautica confluiscono in un sistema integrato che supporta le valutazioni di impatto ambientale con indicatori documentati e decisioni tracciabili” – ne parliamo per esteso in questo contributo -. L’esempio più eloquente riguarda le rotte aeree: grazie all’analisi dei dati, il Comune riesce a documentare l’impatto acustico sulle comunità residenziali e a lavorare quando occorre sulla modifica delle rotte di decollo. Redini insiste però in particolare su un aspetto chiave: “la diffusione dei dati come strumento di potere trasparente all’interno dell’amministrazione”. A differenza di altri uffici che tengono le informazioni ‘in scatole chiuse’, “la Direzione Ambiente ha scelto di diffonderle, giustificando ogni scelta con dati verificabili e rendendo le proprie decisioni difendibili anche in sede legale. Un modello che altri comuni stanno già cercando di replicare”.

Sas, dall’automazione all'”autonomia” degli agenti AI

A fare da ponte tra le testimonianze dei clienti e la visione tecnologica di Sas è Angelo Tenconi, senior director Customer Advisory, che offre una lettura strutturata dell’evoluzione dell’AI nelle imprese. Tenconi ricorda che “l’intelligenza artificiale non è nata con ChatGpt: machine learning, forecasting e ottimizzazione sono tecnologie presenti da tempo nelle aziende. La ‘novità’ dell’AI generativa, quella capace di produrre testi, video e immagini, porta con sé la sfida di capire come integrarla nei processi decisionali reali”.

Angelo Tenconi
Angelo Tenconi, senior director Customer Advisory, Sas

Secondo l’esperienza di Sas con i propri clienti, le organizzazioni attraversano diversi livelli di maturità: si parte dalla produttività individuale – i copilot che aiutano a leggere documenti e risparmiare tempo – per arrivare all’inserimento dell’AI generativa e agentica nei processi di business, con agenti capaci di svolgere compiti complessi in autonomia, combinando modelli di machine learning tradizionali e grandi modelli linguistici.

Tenconi individua “tre complessità principali in questo percorso: l‘infrastruttura sottostante (con il rischio di esplosione dei costi), le competenze necessarie (che cambieranno profondamente: serviranno sempre più professionisti capaci di sviluppare e governare l’AI, più che programmatori tradizionali) e la governance di tutto l’ecosistema AI aziendale. Su quest’ultimo punto, Tenconi insiste: “E’ fondamentale sapere quanti modelli AI sono attivi in un’organizzazione, se sono aggiornati e se producono risultati ancora validi, anche e soprattutto per le realtà più strutturate”. L’approccio di Sas, riprende Tenconi, non è quindi proporre tecnologia “nuda e cruda”, ma “calarla in use case verticali immediatamente utili”.

A chiudere l’evento è Véronique Van Vlasselaer, AI and Data Science manager Emea di Sas, che propone la vision di Sas sull’utilizzo degli AI agent e sul percorso che porta dall’automazione all’autonomia. Van Vlasselaer utilizza la metafora circense con una nota riflessiva sul “grande circo dell’AI attuale”: un proliferare di termini – ambient AI, cognitive AI, reasoning AI, foundational models – che “rende sempre più difficile per le organizzazioni capire su cosa investire e cosa genera davvero valore”.
La risposta, secondo Sas, sono proprio gli AI agent strategici: sistemi capaci non solo di connettersi ai dati enterprise, ma di fornire insight, eseguire modelli di machine learning, interrogare dati strutturati e non strutturati e supportare decisioni complesse con piena trasparenza sull’origine delle informazioni. Vanno, insomma, ben oltre i copilot e gli assistenti tradizionali. Van Vlasselaer illustra in particolare tre casi d’uso virtuosi degli agenti. Il primo: un AI agent di fraud investigation, “capace di analizzare trend nelle transazioni, generare automaticamente nuove regole di detection, verificare se la regola esiste già nel motore di rilevamento e proporla all’analista per la validazione”. Il secondo: un agente per lo screening delle sanzioni, che “estrae dati da fonti eterogenee, incrocia entità e valida relazioni per restituire un quadro completo”. Il terzo: un sistema per il suspicious activity reporting, che monitora le transazioni in tempo reale, raggruppa i casi sospetti per la revisione umana e supporta la generazione dei report obbligatori (Sar). Non prototipi, ma applicazioni in produzione.

Véronique
Véronique Van Vlasselaer, AI and Data Science manager Emea di Sas

“La visione di Sasspiega Van Vlasselaer – è quella di accompagnare gli AI agent verso livelli crescenti di autonomia decisionale. Un passaggio che comporta implicazioni tecniche profonde. Se gli agenti agiranno in modo sempre più indipendente, è necessario prepararli, seguendo di fatto modelli validi, tipicamente queli dei processi educativi.
Van Vlasselaer sintetizza questo lavoro in cinque principi e declina ciascuno di essi in termini operativi precisi.

Il primo principio è dare regole chiare. Gli AI agent si connettono a dati interni, sistemi esterni, modelli di machine learning potenzialmente sensibili: “Serve definire in anticipo, in modo trasparente e user-friendly, quali risorse possono essere utilizzate, in quale situazione e con quali vincoli. Senza questa configurazione esplicita, il rischio è che l’agente acceda a informazioni o attivi processi in contesti inappropriati”.
Il secondo è fornire l’ambiente giusto: dati affidabili e strumenti robusti. Van Vlasselaer sottolinea come “nel dibattito sull’AI il tema dei dati è spesso trascurato, quando in realtà è fondamentale”. Se ora anche gli AI agent – e non solo gli esseri umani – si connettono direttamente ai dati, data management e data governance diventano ancora più critici. Quanto agli strumenti – Api verso sistemi interni ed esterni, funzioni di item processing, capability grafiche, chiamate a modelli di machine learning – “devono essere affidabili, testati, e soprattutto soggetti ad accesso autorizzato: non tutti gli agenti devono poter accedere agli stessi dati e agli stessi tool”.

Il terzo principio è insegnare agli agenti a chiedere aiuto. Gli AI agent operano su uno spettro che va dalla completa sostituzione dell’umano (human-alternative) alla collaborazione con l’umano quando necessario (human-in-the-loop). Il punto cruciale è programmare esplicitamente le soglie di escalation: Van Vlasselaer torna sull’esempio di un agente per la fraud detection che blocca automaticamente le transazioni sospette, approva quelle legittime, “ma deve sapere che nella zona di incertezza è necessario coinvolgere un investigatore – e non semplicemente passare il caso, ma predisporre i dati necessari affinché possa lavorare in modo efficiente”.

Il quarto principio è costruire accountability. Significa garantire la piena tracciabilità di come un AI agent è arrivato a una specifica decisione, quale logica ha applicato e quali dati ha utilizzato. “Ma accountability è anche definire chi è responsabile di ciascuna fase del ciclo di vita dell’agente: dalla progettazione al deployment, dal monitoraggio alla dismissione”. Van Vlasselaer tocca anche il tema della riproducibilità: “I large language model, per loro natura, non restituiscono mai esattamente la stessa risposta. Ciò che va monitorato e garantito è che l’essenza della decisione – il suo contenuto sostanziale – resti consistente nel tempo”.

Il quinto e ultimo principio è consentire la crescita, ma con supervisione. Situazioni impreviste accadranno: non è possibile programmare ogni scenario. “Il livello di autonomia concesso a un agente deve dipendere dalla natura del compito, dal livello di rischio e dal contesto di business, e si fonda sulla solidità dei quattro principi precedenti”. In ogni caso, il monitoraggio continuo resta imprescindibile per verificare che l’agente operi in linea con i valori aziendali e gli obblighi regolatori.
Van Vlasselaer chiude il pomeriggio di lavoro con un avvertimento sulla shadow AI – l’esistenza di sistemi, agenti e modelli AI di cui l’organizzazione non è nemmeno consapevole – e con un messaggio deciso: Prima di poter ‘crescere’ AI agent autonomi, è necessaria una vista unificata di tutti i sistemi AI in essere, una valutazione sistematica rispetto a policy e regolamenti, e una fondazione solida, ben governata e trasparente. Non è solo un requisito tecnico: è il fattore che definirà il vantaggio competitivo di domani”.

Sas Executive Perspectives Milano

Immagine 1 di 11

© RIPRODUZIONE RISERVATA

Condividi l'articolo: