Nel 2020, a livello globale verranno consumati nel mondo 59 Zettabyte di dati (fonte: Idc), mentre secondo Gartner saranno collegati circa 21 miliardi tra dispositivi e sensori. Un dato interessante riguarda il fatto che la crescita della cosiddetta “data sfera” è legata più ai dati che vengono analizzati e consumati che a quelli generati ex novo.
Certo i dati devono essere creati prima di poter essere analizzati, ma la velocità cosiddetta “ricorsiva” – quella con cui gli stessi dati vengono nuovamente elaborati – cresce in modo esponenziale rispetto a quella con cui si generano nuove informazioni. E i sensori che vengono innestati nei progetti IoT di ogni scenario industriale scaricano a loro volta ed in continuazione dati essenziali per comprendere le informazioni.

Questi dati, insieme alla quantità crescente di metadati, aumentano quindi in modo importante e presto sono destinati a superare tutte le altre tipologie, ponendo anche nuove importanti sfide. Per esempio il bisogno di trovare un giusto equilibrio tra sicurezza, efficienza e privacy sarà una delle grandi tensioni nel prossimo decennio.
Rubiamo un ultimo dato ad Idc, interessante proprio in relazione alla progettualità per Internet of Things: il rapporto tra dati unici (creati e acquisiti) e dati replicati (quelli copiati e consumati) è all’incirca 1:9, ma gli analisti leggono un importante spostamento della proporzione a favore di dati meno unici e più replicati. Al punto che entro il 2024, si prevede che questo rapporto sarà di 1:10.

Per certi aspetti poi bisogna considerare come l’edge stesso oggi stia diventando più importante rispetto al core della rete. Robot, dispositivi aziendali, i sensori espandono sensibilmente le possibilità di analisi e, se implicano in modo diretto problemi importanti per quanto riguarda la sicurezza, allo stesso tempo forniscono effettivamente indicazioni utili e importanti sia in relazione ai progetti di trasformazione digitale, sia a nuove opportunità di business.

Mondo fisico e digitale, confini sfumati

Di fatto, mondo fisico e mondo digitale sono sempre più legati. Con l’endpoint a rappresentare il punto di “passaggio” e a fornire messaggi importanti per indirizzare l’azione. Nei più svariati ambiti e in un contesto favorevole, considerato come gli analisti collochino IoT al centro dell’evoluzione digitale. Per fare un solo esempio, Gartner prevede per il prossimo anno una crescita del 13% della spesa per l‘IoT medicale, ma non mancano progetti importanti oltre che nel manifatturiero, anche in un settore primario come l’agricoltura, solo per fare un esempio “fuori dal coro” delle industries più frequentate quando si parla di progetti IoT.

Sviluppare un progetto IoT resta comunque una sfida complessa: bisogna scegliere la piattaforma cloud in grado di monitorare le informazioni sugli endpoint, visualizzare ed analizzare i flussi di eventi, con attenzione a lasciare all’edge la prima elaborazione, ma si deve curare anche la disponibilità di applicazioni facilmente distribuibili, che funzionino poi nei diversi ambienti e riuscire a gestire la connettività.

Su questo punto raccogliamo lo spunto di un’analisi Qualcomm sull’evoluzione del 5G, destinato ad aprire nuovi scenari di utilizzo anche in ambito IoT, soprattutto da Release 17, con una significativa semplificazione della scalabilità radio che consentirà la convivenza di diverse classi di device 5G, un’ottimizzazione dei consumi, e significativi miglioramenti di copertura, con una trasmissione più precisa anche di minimi volumi di dati. Aspetti, questi ultimi, molto importanti per indirizzare use cases in ambiti IoT industriali critici.   

IoT, spostare l’intelligenza all’edge

Gli abilitatori digitali indispensabili – oltre al cloud – sono AI e machine learning, per poter agire subito sui dati all’interno di un’architettura che come caratteristica di base deve essere scalabile. Secondo Gartner, l’edge intelligence basata sull’AI distribuita ai margini della rete, non al core, per lo sviluppo di applicazioni intelligenti (per esempio per acquisizione e controllo dei dati negli ambienti Scada) si consoliderà come trend anche nei prossimi anni e prevederà l’adozione di intelligenza a bordo dei sensori stessi.  

Integrazione delle tecnologie di Machine Learning nei progetti IoT (Fonte: Gartner)
Integrazione delle tecnologie di Machine Learning nei progetti IoT (Fonte: Gartner)

Con due note: il cloud – indispensabile – proprio nei progetti IoT nasconde alcune insidie importanti, per esempio in relazione alla possibilità di prevedere e valutare i costi, nel tempo. E l’archiviazione stessa dei dati potrebbe rivelarsi un problema. Per questo sarebbe importante prevedere una strategia lungimirante per quanto riguarda la conservazione e il flusso di informazioni che in questo ambito sono spesso immediatamente consumabili fino a che rimangono “live”.

Evitare i silos informativi

In questo senso è opportuno cercare di spremere il massimo vantaggio dallo streaming delle pipeline di dati IoT, in modo da ridurre latenze e ridurre i costi, con grandi vantaggi anche dal punto di vista della sicurezza. Non sono rari i casi di aziende che mancano gli obiettivi perché non riescono a gestire efficacemente i dati IoT, spesso per la mancanza di un’architettura dati scalabile ma soprattutto elastica. E’ indubbio comunque come proprio il cloud offra per questi progetti piattaforme di analisi in grado effettivamente di accelerare la realizzazione dei progetti IoT. Per esempio Aws, con IoT Analytics, Microsoft con Azure IoT e Google con Cloud IoT.  

Per parlare solo di metodo, l’analisi dei requisiti applicativi di piattaforma in relazione agli obiettivi è mandatoria tanto quanto l’usabilità poi della piattaforma stessa anche in rapporto alle risorse esistenti. Per esempio può essere virtuoso che essa insista sull’infrastruttura esistente per evitare di creare silos informativi, ed in modo da fornire la possibilità di eseguire più facilmente analisi di dati interfunzionali su specifici carichi di lavoro, ma non sempre questo è possibile. Il livello di complessità del contesto richiama l’attenzione sulla governance dei dispositivi che generano dati, sulla movimentazione del dato stesso e sulla sua proprietà. Per esempio in alcuni contesti la proprietà del dato non è sempre dello stesso attore che opera nella supply chain Iot e bisogna tenerne conto.   

Processi e competenze

Per questo un buon approccio prevede in primis un disegno di ampio respiro e una maniacale cultura del processo, preferendo una prospettiva end-to-end. Una roadmap di processo interessante a questo proposito è quella proposta da John Rossman di Amazon (in The Amazon Way on IoT) mutuata sì dall’esperienza dell’azienda ma almeno consolidata e interessante proprio su questi aspetti. Tre i passaggi chiave: l’analisi dello scenario sul settore in cui si opera, il confronto con i competitor, e la valutazione dei costi in relazione ai profitti – quest’ultimo il punto più delicato e complesso, perché spesso mancano proprio i termini di paragone. In questa valutazione per esempio rientra il problema delle competenze. Per qualsiasi progetto IoT infatti serve la squadra e una squadra con skill specifiche sui big data, solitamente scarse, o disponibili solo in outsourcing. E’ difficile quindi pensare di partire senza la figura del Chief Data Officer. 

I vantaggi

La realizzazione dei progetti IoT sviluppati su queste direttrici oltre alla possibilità di individuare nuovi modelli di business si rivelerà funzionale non solo per una gestione proattiva e predittiva delle infrastrutture ma anche alla riduzione dei costi legati alla gestione dei dati, oltre che ovviamente al miglioramento dei processi decisionali che resta tra gli obiettivi principali in grado di giustificare l’impresa.
In un contesto di progettualità diffusa, nel tempo, arriveranno anche i benefici legati alle valorizzazioni date dall’interscambio delle informazioni con i partner della supply chain. Un vantaggio questo indiscusso ma che richiede anche un livello di maturità dei progetti per ora scarsamente diffuso sul territorio. 

© RIPRODUZIONE RISERVATA