Quando raggiungono l’eccellenza operativa combinando IoT, big data e data science, le aziende riescono ad essere all’altezza delle sfide di oggi. Tuttavia, sono consapevoli che il progetto di ridefinizione del business spesso comporta numerosi ostacoli in termini di stabilità, sicurezza e scalabilità.

E’ il punto di inizio della doppia intervista con due esperti di TIBCO Software, indirizzata a capire come ricercare l’eccellenza operativa nel business di oggi: Olivier Lebret, Analytics Solutions Consultant e Pierre-Jacques Evrard, BI and Data Visualization Consultant oltre che Lecturer in Supply Chain Management, che interpretano le nuove sfide delle aziende con il supporto degli strumenti di insight. Dimostrando che i tool di analytics gestiti in un’unica piattaforma accelerano lo sviluppo di progetti innovativi, portando una maggiore efficienza ai processi aziendali.
In particolare, la loro analisi dettaglia le componenti TIBCO Spotfire e TIBCO Statistica che offrono competenze di machine learning sui big data e agiscono come un sistema nervoso digitale, aiutando le aziende a creare intelligenza all’interno del business, con analisi in tempo reale e apprendimento continuo e integrato. 

Cosa significa eccellenza operativa oggi per una azienda?

Pierre-Jacques Evrard, BI and Data Visualization Consultant, Lecturer in Supply Chain Management di TIBCO Software
Pierre-Jacques Evrard, BI and Data Visualization Consultant, Lecturer in Supply Chain Management di TIBCO Software

Pierre-Jacques Evrard: “L’idea di eccellenza operativa è molto diffusa nel settore manifatturiero e fa da complemento al concetto di lean management. Nel settore industriale, l’eccellenza operativa è spesso usata per raggiungere obiettivi di availability ed efficienza, per esempio implementando processi per mantenere le attrezzature nelle condizioni operative migliori. Il lean management invece riguarda più che altro la ricerca di un miglioramento continuo. Indicatori come l’Overall Equipment Effectiveness (OEE) ci permettono di misurare l’eccellenza operativa”.

Olivier Lebret: “L’obiettivo di base è che il business sviluppi competenze di autoapprendimento e la capacità di adottare misure nel tempo per migliorare i processi produttivi riducendo i costi ed elevando la qualità di prodotti e le performance”.

Come possono gli analytic promuovere l’eccellenza operativa?

Pierre-Jacques Evrard: “I tool di analytic favoriscono l’evoluzione verso le smart factories, che aggregano tutti i dati rilevanti, li analizzano e fanno leva su di essi per supportare le scelte aziendali. Sensori, attrezzature, persone e processi diventano parte di un ecosistema interconnesso sviluppato per minimizzare i tempi di fermo, ridurre gli scarti oppure il surplus di produzione e permettere di avere insight end-to-end in tempo reale nella value chain. In questo ecosistema gli analytics sono utili per mostrare in che misura un processo di miglioramento continuo stia dando risultati. 
Il modulo di data visualization di TIBCO Spotfire nella suite TIBCO System of Insight
può stimolare le performance: il risultato diventa visibile e può essere facilmente condiviso all’interno dell’intera organizzazione, coinvolgendo attivamente tutte le linee di business nella missione di trovare l’eccellenza operativa.
Il secondo beneficio è l’utilizzo di algoritmi statistici e di intelligenza artificiale come il machine learning per introdurre un elemento predittivo che manterrà l’eccellenza operativa nel lungo termine. Un esempio è la predictive analytic per incidenti che interessano un macchinario o una linea di produzione”.

Olivier Lebret, Analytics Solutions Consultant di TIBCO Software
Olivier Lebret, Analytics Solutions Consultant di TIBCO Software

Olivier Lebret: “Il tempo di fermo della produzione ha importanti ripercussioni finanziarie. Ecco perché ha senso usare la predictive analytic per passare da un approccio reattivo a un approccio proattivo. I progressi nel machine learning stanno anche migliorando direttamente gli indicatori della performance come la qualità del prodotto e gli sprechi. Questi sistemi sono ormai abbastanza maturi per permettere agli operai e ai macchinari di rimanere connessi e comunicare gli uni con gli altri per raggiungere risultati in tempo reale.
Guardando al di là dell’interazione tra uomo e macchina, i sistemi di sicurezza fisica decentralizzati permettono ai macchinari di prendere decisioni autonomamente. Ma per fare leva su queste tecnologie, le aziende devono implementare una gamma di funzionalità come la manutenzione predittiva, l’analisi delle cause principali, il monitoraggio delle operazioni e dei processi, ecc.”.

Casi concreti di come la BI può essere usata per migliorare l’eccellenza operativa?

Pierre-Jacques Evrard: “Uno dei nostri clienti, attivo nella produzione e nella lavorazione del gas, si affida a un TIBCO System of Insight per raccomandare agli operatori on site le impostazioni migliori per i macchinari. Lungo la catena di produzione è installato un elevato numero di sensori per raccogliere dati su temperatura, pressione e qualità delle materie prime. Questi flussi IoT di big data arrivano a un data lake. Facendo un’analisi incrociata di questi dati con dati esterni, come le informazioni sul clima su un lungo periodo, è possibile determinare e modellare il costo di produzione ottimale per un’unità di lavoro in un determinato ambiente, specifico di un certo contesto.
Il processo supporta la creazione di modelli predittivi capaci di raccomandare le impostazioni ideali per l’attrezzatura industriale. Quello che gli operatori ottengono è un’interfaccia grafica facile da usare che mostra i parametri operativi e le impostazioni  ottimali in tempo reale.
Gli operatori possono così selezionare le impostazioni di best practice in tempo reale e monitorare l’impatto delle loro azioni sul costo di produzione, sempre in tempo reale. Questi sistemi di insight sono utilizzati su larga scala in centinaia di siti, sottolineando l’enorme potenziale della prescriptive analytic in tempo reale sulla strada verso l’eccellenza operativa.
In una serie di casi d’uso, TIBCO Spotfire si è dimostrato uno strumento di supporto decisionale essenziale per ottimizzare i parametri e le impostazioni operativi delle attrezzature industriali”.

Olivier Lebret: “Altri esempi sono i programmi per identificare le cause dei problemi riguardanti la qualità del prodotto. Stabilendo correlazioni tra gli indicatori di qualità dei prodotti finiti e gli indicatori dei processi a monte, attrezzature e componenti, è possibile identificare le cause più probabili dei problemi di qualità. Alcuni algoritmi di machine learning come il Gradient Boosting Machine (GBM) aiutano a rivelare le complesse relazioni in gioco nell’identificazione dei problemi di qualità. Infine, si possono implementare processi per anticipare questi problemi di qualità addirittura prima che si presentino.
La transizione verso l’eccellenza operativa è evidente anche nel settore dei servizi. Qui l’obiettivo è lo sviluppo di processi necessari per garantire che i servizi offerti siano allineati al 100% con le regole definite per evitare i problemi incontrati in passato”.

Perchè gli strumenti di TIBCO sono una buona scelta per questo genere di progetti industriali?

Pierre-Jacques Evrard: “La capacità di sfruttare la data visualization, gli algoritmi predittivi e la real-time analytic su larga scala rende TIBCO System of Insight la piattaforma ideale per implementare questo tipo di progetti. La data visualization fornisce supporto pratico agli operatori, mentre la componente algoritmica valuta i dati storici per effettuare predictive e prescriptive analytics in tempo reale.
Il cliente che abbiamo menzionato prima aveva provato in passato ad applicare queste competenze usando una soluzione di pura data visualization e un codice open source, ma l’applicazione non è mai riuscita a soddisfare le aspettative in termini di sicurezza, stabilità e scalabilità. Invece, con TIBCO System of Insight il cliente è stato in grado di avviare e utilizzare la soluzione in poche settimane e ha ottenuto un ritorno sul suo investimento nel giro di qualche mese”.

Olivier Lebret: “TIBCO System of Insight incorpora soluzioni avanzate di analytic come TIBCO Statistica, che è largamente utilizzato nel settore industriale. Oltre a supportare le funzionalità specifiche all’implementazione di una strategia Six Sigma, Statistica permette anche di condividere le informazioni e di coinvolgere i dipendenti a tutti i livelli dell’organizzazione. Per esempio, gli operatori possono seguire le fase di controllo, gli indici di  capability e altri importanti indicatori della performance in tempo reale. Gli ingegneri hanno accesso a una grande quantità di strumenti esplorativi, analitici e predittivi per raggiungere una migliore comprensione dei processi e migliorarli. I manager possono attingere a strumenti di reporting e sintesi che li aiutino a indirizzare la strategia dell’azienda in modo più efficace”.

L’IoT sta alimentando l’esplosione di dati. Come processarli per estrarne il maggior valore possibile?

Pierre-Jacques Evrard: “Il primo passo è archiviare i dati prodotti dai dispositivi connessi in un data lake. Questa è la fase di analisi asincrona. Poi passiamo all’analisi oggettiva degli obiettivi per capire le correlazioni tra i punti di dati e costruire degli algoritmi. Questi algoritmi sono applicati in tempo reale ai flussi di dati prodotti dai dispositivi connessi così da poter prendere decisioni al volo, in tempo reale”.

Olivier Lebret: “L’analytics è davvero al centro dell’IoT. Una vasta raccolta di dati non è di per sé l’obiettivo, è piuttosto il primo passo verso l‘attuazione di azioni predittive. Gli algoritmi statistici sono usati per analizzare i dati, identificare i parametri, creare i modelli e poi utilizzarli. Uno degli elementi chiave delle tecnologie IoT è la capacità di processare i dati molto vicino al loro punto di raccolta ed eliminare così la necessità di spostare i dati grezzi o immagazzinarli in un server centrale. Questo significa che i dati possono essere gestiti sul posto molto più rapidamente. Questo è ciò che chiamiamo edge analytic. È d’aiuto costruire sensor intelligence trasportando gli algoritmi di machine learning to the edge. La tecnologia open source TIBCO Flogo supporta questo processo”.

Olivier Lebret, Analytics Solutions Consultant di TIBCO Software & Pierre-Jacques Evrard, BI and Data Visualization Consultant, Lecturer in Supply Chain Management di TIBCO Software
Olivier Lebret, Analytics Solutions Consultant di TIBCO Software & Pierre-Jacques Evrard, BI and Data Visualization Consultant, Lecturer in Supply Chain Management di TIBCO Software

C’è chi sostiene che il machine learning sia una tecnologia deleteria per il settore industriale. È davvero così? Qual è l’impatto?

Olivier Lebret: “Il machine learning è il processo con cui si creano modelli statistici per imparare dai dati esistenti e usare queste insight per fare previsioni sui dati futuri. Richiede sempre uno stadio di apprendimento seguito da uno stadio di utilizzo dei modelli.
Gli sviluppi tecnologici degli ultimi decenni sono stati caratterizzati da un enorme aumento delle capacità di storage, un’enorme diminuzione dei costi, e un’esplosione della potenza di calcolo. La combinazione di questi tre fattori ha dato vita a ciò che chiamiamo big data, alla democratizzazione delle infrastrutture cloud, ma anche a molti problemi connessi all’IoT e all’intelligenza artificiale. A tal proposito, anche i software analitici hanno tratto dei benefici da questi progressi tecnologici.
Gli stessi metodi di deep learning disponibili in TIBCO Statistica, che si basano in particolare su complessi network neutrali e si applicavano ai big data, sono anche incorporati nei veicoli a guida autonoma e nella medical imaging analytics. Le tecniche analitiche alla base esistono in verità da decenni. Ma è solo con la potenza di elaborazione superiore disponibile oggi che i veicoli a guida autonoma sono in grado di analizzare in tempo reale le forme e i segnali incontrati sulla strada usando numerosi sensori, radar e telecamere – e di prendere le decisioni giuste per la sicurezza e l’efficienza basate su modelli predittivi e regole”.

Pierre-Jacques Evrard: “Il vero potenziale del machine learning viene sbloccato quando la tecnologia lo rende accessibile agli utenti commerciali. Le moderne tecniche di machine learning usano una nuova categoria di algoritmi che imparano dai dati che vengono loro presentati. Dopo di ciò, creano automaticamente il miglior modello possibile per ogni dataset. Queste tecniche permettono agli analisti anche con minima esperienza nel campo della statistica e dello sviluppo di modelli, di risolvere problemi complessi senza bisogno di programmare. Ciò ha portato alla nascita dei “citizen” data scientist.
Per supportare i nuovi citizen data scientist, TIBCO offre algoritmi di machine learning off-the-shelf. I data scientist creano flussi di lavoro grafici, definiscono le origini delle connessioni e scelgono gli algoritmi proposti dalla piattaforma a seconda del contesto, tutti finalizzati alla previsione di eventi o trend futuri.
Il machine learning è spesso più efficiente dell’analytic tradizionale. Gli algoritmi di Spotfire sono in grado di scoprire collegamenti nascosti tra le variabili di produzione, il prodotto in uscita e la qualità, in ambiti dove la tradizionale analisi delle correlazioni non trova dei segnali forti”.

Come TIBCO supporta l’Implementazione di un progetto di eccellenza operativa?

Pierre-Jacques Evrard: “Basandoci sul concetto di “connected intelligence”, aiutiamo i nostri clienti con l’aspetto di analytics del progetto e con l’integrazione, che è sempre stata il nostro core business. Il nostro supporto va dall’esperienza nel campo dell’analytics allo sviluppo e diffusione delle soluzioni. Il successo di un progetto di operational excellence è determinato dalla qualità dell’approccio di data science, dalla misura in cui i dati sono arricchiti e dalla capacità di selezionare insight, così come lo stadio di costruzione dei modelli. La collaborazione con le linee di business per coordinare le variabili è in verità più complessa e richiede più tempo che scegliere e implementare il modello migliore”.

Olivier Lebret: “L’analytics si basa sia sulle variabili sia sulle interazioni tra di esse. Questa cross-analysis è resa possibile dalle tecnologie di visualization e descriptive analytics disponibili in TIBCO Systems of Insight.
Prendiamo l’esempio di un progetto nel settore dell’aeronautica. Studiando i dati prodotti da decine di migliaia di sensori installati nei velivoli, gli analisti scoprono che la combinazione di un alto tasso di umidità, un’elevata temperatura e un’intensa luce solare ha un forte impatto sul consumo di carburante. Queste insight possono essere ottenute se le variabili alla base sono state selezionate con attenzione: è richiesto molto lavoro per definire i dati più adatti in partenza. Come parte della nostra offerta, TIBCO Statistica integra una serie di strumenti per assistere nella definizione di questi indicatori.
L’identificazione delle variabili da analizzare è un fattore chiave del successo di ogni progetto di analytics”.

Quali sono i fattori chiave del successo di un progetto di eccellenza operativa?

Pierre-Jacques Evrard: Lo stadio di ricerca e identificazione delle variabili è cruciale. Nelle industrie si ha spesso un alto numero di variabili provenienti da sensori e dispositivi connessi. Questi dati grezzi non sono molto utili così come sono. Bisogna dunque operare il “data wrangling” e arricchire le variabili in modo da trasformarle in actionable insight.

Un buon esempio è la previsione in tempo reale dei bagagli smarriti nei sistemi di smistamento di un aeroporto. Quando vengono esaminati così come sono, dati come il numero di bagagli/il numero associato al bagaglio, l’orario/la marca temporale, o il numero del sistema di smistamento bagagli sono di scarso valore. Invece, se si aggiunge una variabile rilevante come il numero di sistemi di smistamento attraverso cui il bagaglio è passato, la situazione diventa più chiara perché si hanno dati operativi (operational data) utili. In seguito si ha lo stadio di model building/in cui si costruiscono i modelli, ma il compito essenziale consiste sempre nell’identificazione delle variabili giuste.

Olivier Lebret: Il novanta per cento dei dati accumulati nel corso della storia è stato creato negli ultimi due anni e questo trend è destinato ad accelerare. Tuttavia, mentre la quantità di dati sta crescendo in modo esponenziale, la nostra capacità di estrarre informazioni e agire sulla base di queste informazioni rimane limitata e si sta avvicinando al suo limite. Sarebbe errato credere che moltiplicando il volume di dati raccolti, si moltiplichino automaticamente la conoscenza e le informazioni che possiamo racimolare. Un numero limitato di dati che descrive accuratamente un aspetto fondamentale di una determinata situazione ha molto più valore di un’enorme quantità di dati che getta luce su una moltitudine di aspetti marginali.

C’è dunque davvero bisogno di elaborare dei sistemi di archiviazione dei dati e dei metodi di analisi che portino utilità al business. Il primo passo si concentra su una valutazione iniziale delle sfide da affrontare, sulla definizione degli obiettivi da raggiungere e sul capire come arrivare a tali obiettivi: riducendo i costi, aumentando la produttività, riducendo la complessità delle operazioni che coinvolgono le varie attrezzature, ecc.. È di vitale importanza che tutti gli stakeholder (le linee di business, i data scientist, l’IT, il management e i vari dipendenti che svolgono un determinato ruolo) siano coinvolti nel processo sin dall’inizio. Un progetto che funziona è un progetto al cui successo ognuno sente di aver contribuito.

Che consiglio dareste a un project manager che vuole usare strumenti di BI come propulsori per l’ eccellenza operativa?

Pierre-Jacques Evrard: Credo che debbano restringere le loro scelte a soluzioni di business intelligence che sono facili da introdurre. Va bene usare strumenti di data visualization o machine learning per la data discovery “in laboratorio”, ma è molto meglio se i manager riescono a sbloccare il pieno potenziale di questi strumenti per fornire previsioni e prescrizioni su larga scala!

Olivier Lebret: Per rimanere competitivi, i business devono capire i loro processi e poi migliorarli sistematicamente nello sforzo di raggiungere l’eccellenza operativa. I diversi gradi di maturità dell’analytics di un business possono essere descritti come: analisi empirica dei dati, analisi descittiva ed esplorativa, insight sui fenomeni principlai, capacità di conoscere a fondo i processi produttivi e  analisi predittive. Il software di TIBCO permette ai clienti di raggiungere tutti questi obiettivi. La capacità di utilizzare i dati come uno strumento per indirizzare la business strategy si traduce sempre in un vantaggio competitivo.

La collaborazione è essenziale per la riuscita di un progetto di eccellenza operativa. Come gli analytic aiutano la collaboration?

Pierre-Jacques Evrard: “La dimensione collaborativa è riassunta nel concetto di citizen data scientist, in cui crediamo fermamente. I citizen data scientist sanno molto su big data, business dynamics e metodi di analytic ma non hanno gli skill per sviluppare direttamente in linguaggi statistici come R o Python. L’approccio self-service supportato dalle soluzioni  TIBCO abilita i citizen data scientist a lavorare in maggiore autonomia e ad ampliare le loro competenze di analytics pur non avendo le skill di un programmatore.
Un perfetto circolo collaborativo emerge allora tra il data scientist, che raccomanda gli algoritmi rilevanti, il citizen data scientist, che visualizza e utilizza i metodi selezionati per condurre un’analisi che vada maggiormente in profondità, e il data engineer, che diffonde all’interno del business la soluzione creata. Questo processo interattivo contribuisce all’eccellenza operativa, giorno dopo giorno.
Le capacità collaborative sono sempre più al centro di TIBCO Systems of Insight. L’idea è quella di permettere a tutti i dipendenti nelle linee di business di esprimere il proprio parere sull’importanza degli algoritmi, il che consente ai data scientist di correggerli e migliorarli continuamente. I dipendenti poi testano questi miglioramenti e forniscono ulteriori feedback. Col tempo, questo crea un loop di ottimizzazione per gli algoritmi in uso, molto efficace”.

Olivier Lebret: “La democratizzazione dell’advanced analytics è un passaggio ovvio nel viaggio verso l’eccellenza operativa. Ogni stakeholder coinvolto in uno degli step del processo deve avere accesso ai dati e deve essere in grado di contribuire.
TIBCO System of Insight e i moduli di analytics che compongono la piattaforma hanno componenti collaborative native che permettono a tutti i livelli dell’organizzazione di collaborare. Ciò è essenziale, dal momento che l’eccellenza operativa riguarda tutti all’interno del business. È un impegno collettivo e tutti gli stakeholder devono provare un sentimento di identificazione, partecipazione e responsabilità per il successo dei progetti di miglioramento continuo”.

Non perdere tutti gli approfondimenti sul tema e vai alla room “Oltre gli analytics”

© RIPRODUZIONE RISERVATA

Condividi l'articolo: