La soluzione dei problemi complessi legati ai dati, alla loro gestione e valorizzazione, alla “governance” dei big data, rappresenta il core della proposizione di Tibco che opera in tutti i mercati, sia dal punto di vista geografico sia dei verticali. L’azienda serve i dieci più importanti produttori di semiconduttori (manufacturing), otto delle dieci più importanti case farmaceutiche (life sciences), sette su dieci delle realtà bancarie più importanti (financial services) ed è operativa anche con clienti nel food, nelle telecomunicazioni e nel turismo (5 su 10 delle più importanti linee aeree fanno riferimento a Tibco). Ne parla Gianfranco Naso, regional vice president South West Emea, Tibco: “L’offerta per indirizzare le esigenze si declina su tre macroaree: Connect, Unify e Predict. Nella prima area si possono collocare tutti gli strumenti che permettono alle aziende di connettere le sorgenti dati, le applicazioni e le persone che collaborano nell’amministrare i dati. Di Unify fanno parte le soluzioni per normalizzare i dati, creare i Golden Record, generare livelli di informazione corretta sul valore che si può estrarre dai dati. La proposizione che ricade nell’area Predict comprende quelle soluzioni che permettono alle aziende di utilizzare i dati per estrarre effettivamente valore per azioni commerciali e di business”.
Tibco ha annunciato di recente la piattaforma Responsive Application Mesh, innovativa nell’ottica di “assecondare quelli che sono i nuovi modelli architetturali – spiega Naso – in cui si lavora meno su applicazioni verticali, e molto di più su microservizi elementari che vengono riorchestrati per generare funzioni di business“.
Sin dalla prima fase di design i dati sono condivisi all’interno dell’ecosistema. La piattaforma permette quindi di disegnare architetture in un nuovo modo. A questo proposito, in relazione all’emergenza sanitaria, Tibco in pochi giorni ha realizzato GatherSmart che fornisce una vista integrata su una serie di parametri tra cui la presenza dei dipendenti ed il loro stato di salute (sulla base anche delle autodichiarazioni) con una serie di funzionalità specifiche dedicate allo scopo, per esempio fornendo un barcode per l’accesso giornaliero in ufficio, con la possibilità di gestire grandi moli di dati in cloud.
Big data, competenze e strumenti per valorizzarli
Sul tema della gestione dei big data interviene Gianluca Della Vedova, docente di Data Science presso l’Università degli Studi di Milano Bicocca, che spiega: “L’utilizzo di dati di grandi dimensione e molto variabili nel tempo, come sono i big data, ha richiesto all’IT di cambiare l’approccio nella gestione delle informazioni. Da un paradigma di elaborazione ed analisi offline si è passati ad un contesto di analisi online. Se la parte di gestione del dato è una problematica squisitamente informatica, l’analisi richiede una serie di competenze molto variegata”, oltre a quelle IT, servono competenze statistiche difficili da valorizzare senza specifiche conoscenze nel dominio in cui si opera. Si devono formare quindi persone con competenze informatiche e statistiche ma anche economiche, mediche, biomediche e comunque di settore.
“A questo si associa l’idea di puntare a una vera eterogeneità della formazione – prosegue Della Vedova – ed alzare l’attenzione perché i dati siano gestiti in modo eticamente corretto. Sappiamo bene che gli algoritmi possono essere indirizzati a massimizzare la resa della pubblicità, con una serie di rischi anche di discriminazione”. L’ampia disponibilità di dati, grazie anche all’utilizzo dei sensori, solleva il problema della gestione e dell’analisi successiva. E’ inevitabile quindi l’apertura di un ventaglio di nuovi percorsi formativi per cui competenze diverse (informatiche e non) devono essere formate insieme a nuove professionalità che prima non c’erano o comunque non venivano create in ambito accademico, ma successivamente in azienda.
Tibco ha condotto una serie di progetti importanti, per esempio con Mercedes e Pirelli (dal 2001), per la valorizzazione dei dati catturati dai sensori, in cui l’analisi e l’elaborazione tramite l’AI giocano un ruolo fondamentale, ma Naso vuole sottolineare come “sono le persone che alla fine continuano a prendere le decisioni. Le tecnologie permettono di offrire una visione “aumentata” della realtà, in modo più semplice, certo, ma decidono le persone”.
Tibco, aiutare le aziende a diventare data driven
“Il contesto attuale, per quanto riguarda lo sviluppo delle soluzioni di data management, vede i clienti Tibco lavorare affinché la piattaforma dei dati sia in grado di agevolare la digitalizzazione – così spiega Massimo Milano, director solutions consultants Tibco Emea – . Essi si trovano quindi a dover definire l’intero sistema dei dati a supporto di prodotti e servizi digitali. Il nostro compito è aiutare queste realtà a diventare data driven sfruttando il dato in tempo quasi reale, e puntando ad estendere la possibilità di fare analisi con i dati a più competenze e attori in azienda”.
E’ il tema della democraticizzazione degli analytics in una situazione segmentata a silos dei sistemi di dati messi in piedi negli anni, che non aiuta. Tibco in questo contesto “modernizza quindi i sistemi dati (1), introduce i layer di integrazione anche per il cloud (multicloud ibridi), e la fornitura di strumenti per evolvere l’approccio agli analytics e alla data science (2)”.
Per quanto riguarda il primo punto Tibco lavora sulla consistenza (“trustability” e disponibilità) per l’accesso ai dati, per gestire la diversità degli stessi con la piattaforma Tibco Ebx, soluzione di Master Data Management (Mdm) che permette la definizione, la classificazione, la segmentazione e la gestione dei Golden Record.
Il punto di forza è essere una soluzione end-to-end e multidomain, con univoco sistema di gestione di data modeling, lifecycle e data integration, non a caso inquadrata da Gartner in alto a destra.
Per abilitare l’accesso ai dati Tibco propone invece Cloud MetaData, soluzione di data governance, e meta data management service: è un servizio di data catalog e business glossary che aiuta a collaborare e condividere le considerazioni sui dati. Torna il tema del Citizen Data Analyst: avere accesso ai dati non è sufficiente, di fronte alla complessità e alla stratificazione delle informazioni spesso non si è in grado di fare reportistica o lo si fa su dati non corretti. La soluzione guida gli utenti in questo senso offrendo una visione strutturata sul patrimonio dati aziendale.
Per quanto riguarda l’erogazione dei dati e il loro utilizzo la proposizione si lega a Tibco DataVirtualization, software enterprise che aiuta gli utenti ad avere accesso semplice, veloce, controllato e strutturato ai dati sui diversi cloud. La soluzione permette di costruire viste vicine al modo effettivo di fruire i dati da parte dell’utilizzatore, in modo innovativo, in un contesto in cui “la virtualizzazione stessa abilita il tema della gestione delle Api, con una logica di accesso alle informazioni non più ‘cablata’ nelle Api, ma con le Api stesse ad affacciarsi su microservizi e data service forniti dalla virtualizzazione”.
Tibco DataScience permette l’approccio strutturato ai progetti con le funzioni che aiutano l’organizzazione a gestire i team con competenze diverse e complementari e abilita le figure con competenze business a dare un contributo fattivo sui progetti di analisi avanzata grazie a funzioni di modellizzazione grafica per calibrare i modelli di machine learning sui processi di business in modo che generino il valore atteso. Mentre con Tibco Spotfire è possibile “l’operazionalizzazione dei modelli pensati per un consumo visuale, per analisi realtime” ed infine con Tibco Streambase “operazionalizzare modelli su stream di eventi, per indirizzare tematiche legate agli ambienti IoT o la fraud analysis“.
Utilizzo etico del dato, alta l’attenzione
“Il tema dell’analisi del dato viaggia sempre di pari passo con quello della sua contestualizzazione e del suo utilizzo etico, ed è di importanza chiave – interviene Maria Laura Costantino, professore di I fascia di Bioingegneria Industriale presso il Politecnico di Milano – perché sono le persone a dover interpretare le evidenze, e perché il dato non è il principe davanti a cui inginocchiarsi. Protezione, proprietà, pubblicizzazione dei dati restano problemi chiave.
La profilazione, l’utilizzo del dato per capire come le persone si comportano, sono temi che richiedono una serie di riflessioni etiche”.
La tecnologia in questo caso è neutrale ma può offrire strumenti di governance per indirizzare in modo corretto i problemi, tanto più nel trattamento dei dati in ambito life sciences and health, anche nel rispetto di chi sia il reale proprietario del dato.
Interviene Naso: “Se dal punto di vista tecnologico l’uso etico o meno è ingovernabile, le aziende indubbiamente possono fornire strumenti per permettere l’accesso a dati e informazioni in modo selezionato a chi ha bisogno di utilizzarle. In questo senso la semplificazione e la fruibilità di tutta la base di informazione interna ed esterna all’azienda – oggi tutte le aziende sfruttano quantità di dati generati esternamente – la semplificazione dei processi di aggregazione e la normalizzazione delle informazioni perché abbiano valenza corretta, pensiamo possano rappresentare vantaggi importanti anche per un utilizzo etico, così come rendere ingegneristico l’utilizzo degli algoritmi”.
Per esempio è possibile automatizzare la definizione dei campi per assegnare corretti criteri di protezione a seconda della normativa, allineare l’implementazione di queste regole ai sistemi di filtraggio a seconda dei modelli di accesso, gestire per alcuni aspetti il diritto all’oblio legando la vita del dato ad altre condizioni specifiche, “chi parla però di privacy by design gestita in modo automatizzato – chiude Naso – indubbiamente sbaglia perché non è possibile garantirla in senso assoluto”.
© RIPRODUZIONE RISERVATA