Google Data Cloud Summit, meno inefficienze nei dati
Aiutare le aziende a svincolarsi da metodi di lavoro obsoleti nell’approccio ai dati e dalle architetture a silos così da sfruttare il valore degli insights. In questa direzione l'evoluzione della proposta presentata in occasione di Google Data Cloud Summit
Google Data Cloud Summit rappresenta per la community Google Cloud l’occasione di fare il punto sullo sviluppo dei servizi necessari alle aziende per sbloccare il potenziale dei dati ed in questo modo migliorare l’esperienza finale dei clienti, a vantaggio del business. Si tratta di sfruttare i vantaggi del cloud soprattutto per svincolarsi da metodi di lavoro obsoleti e mettere a fattore comune, per tutti i dipartimenti, le informazioni e gli insights, così da riuscire a prendere decisioni informate. E’ l’utilizzo dell’intelligenza artificiale a guidare l’innovazione, mentre proprio i modelli dei dati in silos ne limitato la capacità. Sono i temi anche del keynote di apertura toccati da Gerrit Kazmaier,GM e VP Database, Data Analytics e Looker Google Cloud che evidenzia come “le organizzazioni che riescono a crescere si stanno liberando dai vecchi modi di lavorare con i dati e ne stanno sbloccando il potenziale in un’ampia varietà di casi d’uso”.
Google Cloud cresce anche in queste direzioni ed incontra l’apprezzamento delle aziende, si aggiorna così l’ecosistema dei partner con le relative proposte. In particolare, in questo ambito, gli aggiornamenti più importanti includono una nuova iniziativa Cloud Ready– BigQuery e un’anteprima di Analytics Hub per i dataset dei partner su Google Cloud. Sono oltre 700 le applicazioni dei partner costruite su BigQuery e con Cloud Ready– BigQuery si propone una nuova classificazione che riconosce le soluzioni dei partner, come quelle di Informaticae Fivetran (già 25 partner complessivamente hanno già aderito all’iniziativa), che soddisfano requisiti funzionali essenziali e di interoperabilità. Google Cloud Analytics Hub, ora in anteprima, serve a supportare i partner nel rendere i propri data set più facilmente accessibili ai clienti.
La centralità dei dati è rispecchiata dalle novità tecnologiche mainstream. In un contesto di continua crescita esponenziale dei volumi di informazioni è importante poter lavorare in modo da non generare duplicazioni e proliferazioni inutili, ma anche evitare di spostare i dati per eseguire le analisi necessarie, perché questo aumenta i rischi per la sicurezza e comporta la crescita dei costi cloud. Google Cloud a questo proposito propone in anteprima BigLake, realizzato per unificare data warehouse e data lake ed estendere le capacità di BigQuery così da ottenere il controllo dell’accesso e l’accelerazione delle prestazioni attraverso lo storage multicloud su una singola copia dei dati.
BigLake elimina la necessità di duplicare o spostare i dati da una fonte, riducendo i costi e le inefficienze, e si rivela utile quindi nella gestione dei dati quando insistono su data lake disparati, a silos. Per quanto riguarda la gestione dei database complessi, la proposta Database Migration Program supporta clienti ad accelerare rapidamente il passaggio da on-premise e altri cloud ai servizi di settore di Google per i database gestiti. Sono inclusi strumenti, risorse e competenze dei partner e finanziamenti incentivanti per compensare il costo della migrazione dei database a Google Cloud.
Abbiamo evidenziato l’importanza dell’intelligenza sui dati, della possibilità di valorizzarli.
La novità più importante in questo specifico ambito, annunciata in occasione di Google Data Cloud Summit si lega alla proposta di un Portfolio BI ora unificato.
I prodotti di business intelligence (BI) di Google Cloud si uniscono per espandere l’accesso ai dati e rendere più facile, per tutti, scoprire nuove prospettive di stimolo all’innovazione. Nello specifico inoltre, con Connected Sheetsper Looker viene offerta la possibilità di accedere ai modelli di dati Looker in Data Studio con un’esperienza unificata per offrire ai clienti un punto di accesso unico e sicuro per fruire dei dati attraverso qualunque modalità, sia tramite un Looker Explore, un foglio di Google, o utilizzando l’interfaccia Data Studio drag-and-drop.
L’evoluzione di Vertex AI
Più specifici invece gli annunci relativi a Vertex AI. Nell’ambito dell’offerta Google Cloud, Vertex AI serve a creare e scalare modelli ML eseguirli e farne il deployment più rapidamente, con strumenti pre-addestrati e personalizzati in una piattaforma di intelligenza artificiale unificata. Permette quindi di utilizzare gli strumenti MLOpsper gestire facilmente dati e modelli in sicurezza e replicarli su larga scala.
Vertex AI, concretamente, unisce i servizi Google Cloud per creare ML, attraverso la proposta di un’unica interfaccia utente e Api unificate. In Vertex AI, le aziende possono addestrare i modelli utilizzando AutoML o sulla base del codice personalizzato e poi archiviare i modelli in un unico repository centralizzato.
La proposta cresce ora con Vertex AI Workbench che porta dati e sistemi di ML sotto un’unica interfaccia in modo che i team abbiano un set di strumenti comune per data analytics, data science e machine learning ed i clienti guadagnano la possibilità di accedere accedere a BigQuery direttamente da Vertex AI Workbench. Con Vertex AI Model Registry invece viene fornito un repository centrale per scoprire, utilizzare e governare modelli di machine learning compresi quelli in BigQuery ML.
In questo modo si punta a facilitare la condivisione dei modelli da parte dei data scientist e il loro utilizzo da parte degli sviluppatori di applicazioni.
Così è possibile trasformare i dati in previsioni e decisioni in tempo reale ed essere più agili di fronte alle mutevoli dinamiche del mercato. Con Workbench di fatto Vertex AI è integrata in modo nativo con BigQuery, Dataproc e Spark. E si usa BigQuery ML per creare ed eseguire modelli di machine learning in BigQuery utilizzando query Sql standard su strumenti e fogli di lavoro che già si utilizzano, oppure si potranno esportare set di dati da BigQuery direttamente in Vertex AI Workbench ed eseguire i tuoi modelli da lì.
In ultimo, arriva la proposta Spanner change streams che permette ai clienti di tracciare i cambiamenti all’interno del proprio database Spanner, accedere ed integrare questi dati con altri sistemi, per generare un nuovo valore. Ricordiamo che Cloud Spanner è un database relazionale completamente gestito e scalabile che fa della coerenza e dell’alta disponibilità i suoi punti di forza. Interessante, in occasione dell’evento, il caso Walmart che ha scelto Spanner per costruire la piattaforma dati di nuova generazione sulla piattaforma database nativa in cloud.
Inno3 si serve di alcuni cookie per fornirti una migliore esperienza di navigazione del sito. Clicca su Ok per dare il tuo consenso al loro utilizzo. OkInformativa
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.