Google Data Cloud Summit rappresenta per la community Google Cloud l’occasione di fare il punto sullo sviluppo dei servizi necessari alle aziende per sbloccare il potenziale dei dati ed in questo modo migliorare l’esperienza finale dei clienti, a vantaggio del business. Si tratta di sfruttare i vantaggi del cloud soprattutto per svincolarsi da metodi di lavoro obsoleti e mettere a fattore comune, per tutti i dipartimenti, le informazioni e gli insights, così da riuscire a prendere decisioni informate. E’ l’utilizzo dell’intelligenza artificiale a guidare l’innovazione, mentre proprio i modelli dei dati in silos ne limitato la capacità.  Sono i temi anche del keynote di apertura toccati da Gerrit Kazmaier, GM e VP Database, Data Analytics e Looker Google Cloud che evidenzia come “le organizzazioni che riescono a crescere si stanno liberando dai vecchi modi di lavorare con i dati e ne stanno sbloccando il potenziale in un’ampia varietà di casi d’uso”. 

Google Cloud cresce anche in queste direzioni ed incontra l’apprezzamento delle aziende, si aggiorna così l’ecosistema dei partner con le relative proposte. In particolare, in questo ambito, gli aggiornamenti più importanti includono una nuova iniziativa Cloud Ready – BigQuery e un’anteprima di Analytics Hub per i dataset dei partner su Google Cloud. Sono oltre 700 le applicazioni dei partner costruite su BigQuery e con Cloud Ready – BigQuery si propone una nuova classificazione che riconosce le soluzioni dei partner, come quelle di Informatica e Fivetran (già 25 partner complessivamente hanno già aderito all’iniziativa), che soddisfano requisiti funzionali essenziali e di interoperabilità. Google Cloud Analytics Hub, ora in anteprima, serve a supportare i partner nel rendere i propri data set più facilmente accessibili ai clienti. 
 
Gerrit Kazmaier, GM e VP Database, Data Analytics e Looker Google Cloud
Gerrit Kazmaier, GM e VP Database, Data Analytics e Looker Google Cloud

La centralità dei dati è rispecchiata dalle novità tecnologiche mainstream. In un contesto di continua crescita esponenziale dei volumi di informazioni è importante poter lavorare in modo da non generare duplicazioni e proliferazioni inutili, ma anche evitare di spostare i dati per eseguire le analisi necessarie, perché questo aumenta i rischi per la sicurezza e comporta la crescita dei costi cloud. Google Cloud a questo proposito propone in anteprima BigLake, realizzato per unificare data warehouse e data lake ed estendere le capacità di BigQuery così da ottenere il controllo dell’accesso e l’accelerazione delle prestazioni attraverso lo storage multicloud su una singola copia dei dati.

BigLake elimina la necessità di duplicare o spostare i dati da una fonte, riducendo i costi e le inefficienze, e si rivela utile quindi nella gestione dei dati quando insistono su data lake disparati, a silos. Per quanto riguarda la gestione dei database complessi, la proposta Database Migration Program supporta clienti ad accelerare rapidamente il passaggio da on-premise e altri cloud ai servizi di settore di Google per i database gestiti. Sono inclusi strumenti, risorse e competenze dei partner e finanziamenti incentivanti per compensare il costo della migrazione dei database a Google Cloud.
Abbiamo evidenziato l’importanza dell’intelligenza sui dati, della possibilità di valorizzarli.
La novità più importante in questo specifico ambito, annunciata in occasione di Google Data Cloud Summit si lega alla proposta di un Portfolio BI ora unificato.
I prodotti di business intelligence (BI) di Google Cloud si uniscono per espandere l’accesso ai dati e rendere più facile, per tutti, scoprire nuove prospettive di stimolo all’innovazione. Nello specifico inoltre, con Connected Sheets per Looker viene offerta la possibilità di accedere ai modelli di dati Looker in Data Studio con un’esperienza unificata per offrire ai clienti un punto di accesso unico e sicuro per fruire dei dati attraverso qualunque modalità, sia tramite un Looker Explore, un foglio di Google, o utilizzando l’interfaccia Data Studio drag-and-drop. 

L’evoluzione di Vertex AI

Più specifici invece gli annunci relativi a Vertex AI. Nell’ambito dell’offerta Google Cloud, Vertex AI serve a creare e scalare modelli ML eseguirli e farne il deployment più rapidamente, con strumenti pre-addestrati e personalizzati in una piattaforma di intelligenza artificiale unificata. Permette quindi di utilizzare gli strumenti MLOps per gestire facilmente dati e modelli in sicurezza e replicarli su larga scala.
Vertex AI, concretamente, unisce i servizi Google Cloud per creare ML, attraverso la proposta di un’unica interfaccia utente e Api unificate. In Vertex AI, le aziende possono addestrare i modelli utilizzando AutoML o sulla base del codice personalizzato e poi archiviare i modelli in un unico repository centralizzato.
Vertex AI piattaforma unificata per MLOps
Vertex AI, piattaforma unificata per MLOps
La proposta cresce ora con Vertex AI Workbench che porta dati e sistemi di ML sotto un’unica interfaccia in modo che i team abbiano un set di strumenti comune per data analytics, data science e machine learning ed i clienti guadagnano la possibilità di accedere accedere a BigQuery direttamente da Vertex AI Workbench. Con Vertex AI Model Registry invece viene fornito un repository centrale per scoprire, utilizzare e governare modelli di machine learning compresi quelli in BigQuery ML.

In questo modo si punta a facilitare la condivisione dei modelli da parte dei data scientist e il loro utilizzo da parte degli sviluppatori di applicazioni.

Così è possibile trasformare i dati in previsioni e decisioni in tempo reale ed essere più agili di fronte alle mutevoli dinamiche del mercato. Con Workbench di fatto Vertex AI è integrata in modo nativo con BigQuery, Dataproc e Spark. E si usa BigQuery ML per creare ed eseguire modelli di machine learning in BigQuery utilizzando query Sql standard su strumenti e fogli di lavoro che già si utilizzano, oppure si potranno esportare set di dati da BigQuery direttamente in Vertex AI Workbench ed eseguire i tuoi modelli da lì.

In ultimo, arriva la proposta Spanner change streams che permette ai clienti di tracciare i cambiamenti all’interno del proprio database Spanner, accedere ed integrare questi dati con altri sistemi, per generare un nuovo valore. Ricordiamo che Cloud Spanner è un database relazionale completamente gestito e scalabile che fa della coerenza e dell’alta disponibilità i suoi punti di forza. Interessante, in occasione dell’evento, il caso Walmart che ha scelto Spanner per costruire la piattaforma dati di nuova generazione sulla piattaforma database nativa in cloud.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: