Cresce ad un ritmo esponenziale la mole dei dati disponibili (ma anche da gestire) che “potrebbero” fornire informazioni importanti per indirizzare le attività di business, ma il condizionale è d’obbligo perché mettere a valore tutte le informazioni, anche da fonti eterogenee, di fatto è per le aziende sempre più complesso.
La missione di Tibco parte proprio da questo punto e si riassume in tre parole che in occasione di Tibco Now 2021 ritornano nel corso dei keynote, come un mantra: Connect, Unify, Predict. Percorsi che raccontano l’importanza dell’integrazione, della gestione delle Api, del master data management e dei “visual analytics” per il futuro dell’enterprise data driven.

Su tutte la spiegazione più lineare è quella offerta da Matt Quinn, chief operating office di Tibco che sottolinea quanto oggi sia “importante che i dati vivano in un ‘ecosistema collaborativo”. Significa riuscire a connettere ogni tipo di informazione, da ogni fonte, indipendentemente dai volumi (quindi con la capacità di scalare); significa “governarla ed aggiungervi intelligenza, in modo da poter assumere in azienda una postura proattiva ed anticipare i tempi per non dover “rincorrere e reagire al cambiamento ma al contrario “cavalcarlo” per prevedere con sicurezza i risultati in azienda”.

Matt Quinn, Coo di Tibco
Matt Quinn, Coo di Tibco

Nel proliferare degli ambienti di elaborazione attuale – edge, core, cloud – la complessità è un elemento importante da considerare: la possibilità di spostare carichi di lavoro e dati da un’infrastruttura on-prem, al cloud, accumulando inerzie, invece che mantenendo il dato “vivo”, si aggiunge alle sfide.
Per questo Tibco lavora in una prospettiva volta a mantenere il “baricentro sul dato”, atteggiamento che ne consente anche la protezione per quanto riguarda la trasparenza degli insights e la loro profondità, a patto di essere in grado di valorizzarli in tempo reale. I “dati come motore dell’innovazione”, quindi, ritorna come tema centrale. Con l’accento, non casuale nel claim dell’evento, sul concetto di “limitless opportunity”idea spinta da Tibco, ad indirizzare un’accelerazione continua sulla valorizzazione del dato, così cara a Dan Streetman, Ceo di Tibco.

“Accelerazione” declinata nella proposizione a partire dalla proposta di una piattaforma come Tibco Cloud, evoluta, digitale, unificata, self-service per gestire e adattare il modo in cui opera l’azienda a partire proprio dallo sviluppo della connettività di messaggistica, dati e app accelerati.

Dan Streetman, chief executive officer di Tibco Software
Dan Streetman, chief executive officer di Tibco Software

Per quanto riguarda le soluzioni Tibco nella sfera Connect, quindi, vengono innestate nella proposta nuove funzionalità di automazione per semplificare processi e flussi di lavoro, migliorando l’efficienza di attività come l’onboarding, la generazione di lead, etc., mentre con Api Management si offre la gestione dell’intero ciclo di vita delle Api come parte integrante di Tibco Cloud, in modo da facilitare, integrazione, analisi dei dati, automazione dei processi e messaggistica.

Si alza l’asticella delle attese anche per Tibco Cloud Messaging, con l’estensione delle opzioni storage cloud-native grazie a Tibco Enterprise Message Service X. Tibco Cloud Messaging consente di gestire completamente nel cloud soluzioni open source come Apache Pulsar e Apache Kafka e ora offre supporto nativo per Jms; si facilita quindi la migrazione da risorse on-premise a risorse cloud in modo più fluido, ad assecondare l’idea di offrire flessibilità completa che consenta a chiunque di connettere app, dati e dispositivi, utilizzando l’approccio che meglio soddisfa le esigenze aziendali.

La “mission” si evidenzia anche per quanto riguarda le potenzialità della proposta Tibco nell’integrazione dei dati in modo da arrivare a disporre di un’efficace data fabric. Con la nuova famiglia di prodotti Tibco DQ, per esempio, insieme a miglioramenti chiave su Tibco Data Virtualization e Tibco Ebx all’interno del portafoglio Unify. L’utilizzo dell’AI per migliorare con l’automazione la qualità del dato e rendere la data fabric più agile – così come per correggere gli errori prima che impattino sui processi decisionali – oltre a maggiori possibilità di elaborazione dati in streaming, caratterizzano i passi avanti.

Di fatto si può dire che Tibco DQ diventerà la nuova famiglia di prodotti per la qualità dei dati e con il supporto per container cloud-native e le offerte SaaS sarà più facile per i clienti “distribuire qualità dei dati” anche su qualsiasi cloud che sia pubblico, cloud privato o ibrido, e ovviamente on-premise, mentre Tibco Ebx (master data management) con le sue caratteristiche di scripting low-code semplifica le possibilità di configurazione dei dati e garantisce corrispondenza e unione intelligente dei processi sui dati assicurando integrazione estesa con le nuove Api di sviluppo. Arriva il nuovo “motore” per supportare l’elaborazione rapida di grandi volumi di dati .

Automazione dei processi
I temi su cui si gioca l’innovazione riguardo l’automazione dei processi nella gestione del dato

Punto chiave dell’evoluzione è però a nostro avviso da rinvenire negli aggiornamenti di Tibco Data Virtualization che rendono i dati virtualizzati più facilmente accessibili nel cloud e on-premise. Si attiva in un clic la ricerca del catalogo dati virtualizzato, e questo democraticizza la disponibilità del dato, perché qualsiasi utente aziendale può scoprire e accedere ai dati in pochi secondi. Inoltre, il nuovo “workbench” di Tibco Data Virtualization consente agli ingegneri dei dati dei cittadini di preparare e trasformare le informazioni con un’esperienza utente agile, basata su Web e low-code.

Nell’ambito invece delle iniziative collegate a Tibco Labs, il programma progettato per consentire ai clienti e ai partner di Tibco di partecipare e collaborare attivamente agli sviluppi dell’offerta, si innestano Tibco Cloud Discover, Cloud Composer e Tibco Labs Gallery per un accesso rapido ai Labs Projects e alle demo interattive. Cloud Discover sfrutta tecniche di process mining all’interno di un unico ambiente per una migliore trasparenza nell’ambito della process mining analysis, mentre Cloud Composer è una proposta per facilitare ulteriormente lo sviluppo di soluzioni e applicazioni per il cloud combinando microservizi e Api, funzionalità di case e decision management e analytics anche in un’unica applicazione. 

© RIPRODUZIONE RISERVATA

Condividi l'articolo: