Google, Amazon, Ibm e Microsoft sono riconosciuti player nel mercato delle soluzioni legate all’intelligenza artificiale (AI) e al machine learning (ML). La correlazione con la rispettiva proposta cloud non è per nulla casuale. AI e ML permettono infatti la trasformazione del dato – raccolto in cloud come all’edge – in informazioni utili per migliorare e fare crescere il business.

Parliamo della proposta specifica di Google con Paolo Spreafico, head of customer engineering di Google Italia, nello stesso giorno della presentazione di Machine Learning Checkup. E’ uno strumento gratuito per consentire alle imprese italiane di valutare la propria maturità per l’adozione di soluzioni di AI, e in grado di offrire un report personalizzato sui potenziali benefici in relazione al settore di riferimento delle aziende.

Paolo Spreafico
Paolo Spreafico, head of customer engineering di Google Italia

L’approccio di Mountain View si àncora strettamente ai casi d’uso. Esordisce Spreafico: “Il data scientist oggi è chiamato a definire con i numeri quelle che possono essere virtuose intuizioni. E per farlo è vincolante partire mossi dall’esigenza di risolvere casi concreti”. Google cerca di mappare una serie di soluzioni riconoscibili come affidabili e distribuibili in cloud.

Oggi così è anche possibile creare reti neurali in grado di emulare i processi di apprendimento umani per risolvere problemi, di cui non si avrebbe la soluzione, attraverso lo studio di quello che accade, l’associazione delle situazioni e la possibilità di riapplicare l’appreso ad altre situazioni (ML).

L’ampia disponibilità di dati e informazioni facilita questi processi. La stima di Idc sulle dimensioni della “datasfera” segna una produzione nel 2018 di 33 Zettabyte di informazioni a livello globale; nel 2025 saranno 175, ma già oggi disponiamo delle risorse tecnologiche per estrarne valore. 

Spreafico, citando Hardware Business Review, chiosa: “Un’azienda non è in grado di mettere in pista tecnologie di ML se prima non si dota delle capacità di data management e analisi sul parco dati disponibile. Sul mercato, in ambito cloud, leggiamo una serie di bisogni di migliorare proprio la parte di analytics, sul dato, e riteniamo che questo sia un’urgenza primaria e imprescindibile”.

In azienda, i processi e le informazioni sono invece divise in silos, mentre è un fattore critico la riduzione della latenza sulle intuizioni generabili che si vorrebbero realtime, specialmente in ambito e-commerce.

Tensorflow

Google indirizza quindi le esigenze in questi ambiti con il progetto open source Tensorflow che serve a sviluppare algoritmi di machine learning a partire dalle primitive applicative. Tensorflow (che poggia su Github) è oggi un progetto adottato non solo da Mountain View ma da una serie di altri vendor.

Tra i passaggi chiave il primo, quindi, quello dell’ingestion dei dati – la capacità di digerirli dalle diverse fonti eterogenee – è il più critico. Google dal 2012 ad oggi ha lavorato sensibilmente sul punto e il risultato è che  l’adozione di algoritmi basati sul motore che li genera, Tensorflow appunto, è cresciuta secondo una curva esponenziale.

Google, offerta per il machine learning
Google Cloud, l’offerta per il machine learning

Tra le caratteristiche più importanti di Tensorflow c’è la portabilità del deployment, previsto anche per i dispositivi mobile – e quindi le possibilità di utilizzo anche sull’edge. Google rende poi disponibili sistemi di calcolo dedicati, le cosiddette Cloud Tpu che sono in pratica Cpu dedicate in grado di eseguire in modo ottimale i carichi di lavoro basati sugli algoritmi.  

Le aree in cui Google pensa di poter contribuire in modo efficace sono inoltre la modernizzazione del data warehouse e lo streaming nell’analisi del dato (a partire dalla vicinanza rispetto a dove esso è generato) – preferibile rispetto all’analisi del dato a lotti che incrementa la latenza e quindi l’analisi.

Mountain View agisce anche attraverso la proposizione di una serie di servizi Google Cloud con la caratteristica comune di poter essere utilizzati dimenticandosi del tutto dei problemi infrastrutturali (approccio serverless). “La possibilità di dimenticare la gestione dell’infrastruttura – sottolinea Spreaficoè indubbiamente un vantaggio importante per qualsiasi categoria aziendale”.

BigQuery

Tra questi, per esempio, il servizio BigQuery, un motore di analisi disponibile come servizio cloud (usato da Spotify, LLoyds Bank, Telepass) che consente di lanciare query di ML direttamente con chiamate alle primitive direttamente da Sql. Questo permette di innescare processi di prediction sulle serie storiche direttamente dall’interfaccia applicativa.

La disponibilità di analitiche descrittive e diagnostiche sono i primi due passaggi su cui le aziende oggi lavorano in modo diffuso, più difficile il salto verso gli analytics predittivi e quindi prescrittivi.

Google Cloud Platform, l'architettura
Google Cloud Platform, l’architettura

Google punta altresì alla democratizzazione dell’accesso a queste tecnologie.
Scrivere un algoritmo Tensorflow, infatti, richiede una serie di conoscenze non alla portata di tutti.
E’ possibile farlo, seguendo le linee guida disponibili su Google per poi anche fare il deployment su un servizio che lo esegue per innestare i processi di apprendimento.

E’ poi possibile anche utilizzare Api in linea, perdendo però parte della flessibilità, perché l'”allenamento” sarà stato compiuto in modo standardizzato da Google.

Google propone però anche una terza via, che viene incontro alle diverse verticalità industriali. E quindi permette di personalizzare il comportamento delle Api anche senza disporre di conoscenze in ambito ML sufficienti per scrivere un algoritmo.

Per farlo è disponibile il servizio cloud AutoML che sulla base di reti neurali che Google ha già scritto permette di allenare e fare il tuning di una rete neurale con i dati che il cliente stesso può fornire (anche con dati tabellari).            

Come portare AI e ML alle aziende 

Google cerca di supportare questa evoluzione sia direttamente, sia attraverso le sinergie con i system integrator. Il modello di go to market prevede di percorrere entrambe le strade.

Spreafico: “Ci sono clienti che delegano al system integrator implementazione, adozione e sviluppo di tecnologie Google, che a sua volta crede fortemente che la presenza di partner forti per competenze sia l’approccio più virtuoso sul mercato. In Italia, si vedono sempre più spesso però anche grandi aziende dotate di team in casa di data scientist in grado di implementare direttamente le nostre tecnologie, lo stesso accade con le aziende digital native. Non è l’unico approccio”.

I partner, secondo Google, contribuiscono direttamente alla crescita dell’ecosistema, e per l’azienda sarà un fattore di crescita importante scalare quanto più possibile sulle diverse tipologie di business. Il fatto di disporre di tecnologie opensource è un elemento che contribuisce all’apprezzamento.

Sollecitato sulle criticità del public cloud vs gli scenari di hybrid cloud – oggi approccio preferito da tante aziende – Spreafico specifica: “BigQuery oggi è disponibile solo sulla cloud Google, ed è vero che – per come è scritto a livello software – potrebbe risultare interessante anche on-premise, ma la possibilità di scalare l’infrastruttura richiede la residenza su Google Cloud. Questo però non significa preclusione. Google dispone di soluzioni per indirizzare correttamente anche le esigenze delle infrastrutture ibride. In occasione di Google Cloud Next, per esempio, abbiamo annunciato Anthos che a tutti gli effetti abilita il deployment di alcuni servizi cloud in modalità on-premise”.

© RIPRODUZIONE RISERVATA