“In Italia, tra il 2017 e il 2018, NetApp è passata dal quarto al primo posto del mercato all-flash, il segmento storage che secondo i dati Idc cresce più velocemente. Ora siamo chiamati a confermare questi risultati”, così esordisce Marco Pozzoni, country sales director NetApp Italia per proseguire e spiegare come l’azienda sia impegnata a raggiungere l’obiettivo.
NetApp si muove nel solco di un doppio binario: sulla scorta di un’analisi che mette a fuoco percezioni e previsioni dell’azienda in relazione ai trend di mercato (multicloud, artificial intelligence, containers e Iot) e facendo tesoro di una ricerca condotta da NetApp con Idc, in cui si evidenzia il grado di maturità delle aziende e dei Cio nella gestione del dato, nella capacità di “prosperare” sfruttando le informazioni.
In veloce rassegna i principali trend di mercato sono così indirizzati.
Per quanto riguarda l’Ai, il vendor ha nel portafoglio l’accordo con Nvidia di circa un anno fa e sottolinea come alcuni dei progetti relativi iniziati in cloud, in futuro probabilmente torneranno almeno parzialmente on-premise, in seno alle aziende.
Per quanto riguarda IoT – 20 miliardi di sensori saranno dispiegati entro il 2020 worldwide – la tendenza più evidente riguarda l’adozione di tecnologie di edge computing, per portare nel data center l’informazione pulita e prendere le decisioni in modo più rapido.
Con gli annunci del 16 di giugno (tra cui Fabric Orchestrator per la gestione di ambienti multicloud o ibridi) NetApp mette a terra il proprio impegno nello scenario hybrid-multicloud che non rappresenta più un’opzione ma una scelta obbligata, per estendere a 360 gradi le proprie possibilità.
La containerizzazione infine è il tema cardine per chi punta sull’effettiva portabilità dei workload applicativi. NetApp vi lavora da circa un anno, con il proprio sistema NetApp Kubernetes Service.
La ricerca dal titolo Become a Data Thriver, Best Practices for Data-Driven Transformation condotta con Idc su un campione di 3.000 Cio a livello mondiale (50% Usa, 40% Emea e 10% Area Pacifico) – vi hanno partecipato anche realtà italiane – è invece illuminante proprio per evidenziare come si stanno strutturando le aziende per sfruttare meglio il dato.
Entra nel tema, caldo, Marco Pozzoni, country sales director NetApp Italia: “Le realtà di business sono fotografate come Data Resisters (18%), Survivors (34%), Responders (22%), Synergizers (15%) e i veri Data Thrivers, che sono solo uno su dieci. Significa che molte aziende di fatto non utilizzano ancora il dato a proprio vantaggio”.
Mentre essere Data Thriver (to thrive significa proprio “prosperare”), dati Idc alla mano, porta a migliorare di sei volte l‘efficienza operativa, incrementare di tre volte la profittabilità e la produttività del dipendente e può raddoppiare la soddisfazione del cliente finale e i ricavi.
Certo cambiano i processi in azienda e soprattutto cambiano i ruoli, Pozzoni: “Chief Data Officer (Cdo), Chief Transformation Officer, Data Management Executive (studia come sfruttare i dati a proprio vantaggio) e Data Scientist (l’ingegnere del dato) sono le nuove figure funzionali a fare bene nell’era dei dati”.
Negli Usa queste sono già funzioni attive, meno in Italia dove inizia ora ad essere utilizzata la figura del Data scientist, ma mancano del tutto i Cdo; così come solo ora si inizia a parlare di New staffing model, ad indicare la necessità di ripensare le dinamiche tra le linee di business.
La ricerca Idc evidenzia inoltre quattro ambiti di investimento, sempre per quanto riguarda la data driven transformation oggetto dello studio: le aziende si stanno orientando all’adozione delle tecnologie all-flash, con un approccio hybrid cloud e la scelta frequente di soluzioni iperconvergenti ma soprattutto cercano la quadra di un’infrastruttura intelligente e flessibile, aperta ai cloud, e – Pozzoni è chiarissimo – “pronta a sfruttare tutte le possibilità date a patto di riuscire a mantenere un’unica visione a 360 gradi sulle risorse”.
E’ il punto cardine della strategia di NetApp, soprattutto quando offre le potenzialità del cloud on-premise, con gli stessi modelli di consumo, fatturazione e gestione possibili prima solo con le scelte di public cloud.
Tra gli obiettivi, i Cio Data Thrivers in primis vogliono migliorare la customer experience (43% vs 24% nei Data Survivors), ma il 60% di essi vuole incrementare l’efficienza operativa e incrementare la produttività, con due Cio su dieci che si pongono l’obiettivo di riuscire ad offrire servizi nuovi sfruttando i dati già a disposizione.
Pozzoni: “E’ evidente come oggi questo scenario richieda un approccio completamente diverso con i clienti, quando si parla di storage. Anche per orientarsi rispetto all’offerta degli hyperscaler come Google, Aws, Azure (con cui il vendor ha stretto delle partnership, ndr). Le aziende ora vedono NetApp come advisor e consulente nello scenario hybrid cloud per studiare la migliore strategia sul dato”.
Chi si muove in cloud, svela la ricerca, lo fa in modo molto diverso, proprio a seconda della capacità di valorizzare le informazioni: i Data Thrivers esplorano le offerte tecnologiche innovative ma soprattutto pensano a un deployment infrastrutturale sulla scorta di un modello multicloud ibrido e hanno mandato di investire anche nel public cloud. Lo fa il 36% dei Cio Data Thrivers, ma solo il 3 % dei Cio Data Survivors. Il 54% di essi investe in Paas, 4 su 10 in SaaS e il 35% in Iaas.
Un’unica esperienza su qualsiasi cloud
In casa NetApp, sfruttare la Data Fabric significa eliminare la fisicità del dato stesso, la sua gravità, per essere in grado sia in un ambiente pubblico – addirittura “multi-pubblico”, come in un ambiente iperconvergente e di private cloud – di garantire la mobilità delle informazioni (con le caratteristiche di sicurezza, accessibilità e gestione).
Alla domanda su quale sia il futuro del dato, come e dove vada trattato, risponde allora Roberto Patano, senior manager solution engineering: “Abbiamo dovuto cambiare completamente l’approccio al mercato. C’è ancora uno zoccolo duro di applicazioni enteprise “classiche” che poggiano stabilmente sulle risorse tradizionali, ma le nuove tecnologie e le possibilità applicative necessitano effettivamente di un’infrastruttura diversa”.
Negli ultimi anni NetApp ha visto una prima movimentazione dello storage verso l’esterno, poi le aziende hanno deciso di sfruttare le opportunità Saas, cui sono seguite le scelte di shifting dal private al public cloud, ma si vede poi come tante di esse abbiano deciso di riportarsi i vantaggi del cloud on-premise (strutturando il DC come hanno fatto gli hyperscaler). Oggi tante aziende mature sanno sfruttare già le possibilità offerte dal PaaS, e riescono ad unire quanto sviluppato in casa, con quanto offre l’hyperscaler, chiedendo al vendor una trasparenza cristallina nella gestione delle risorse.
E proprio qui si innestano le potenzialità dell’evoluzione dell’offerta di NetApp. La prima richiesta dei Cio è infatti la visibilità (e questo è un dato che registriamo da diversi vendor in diretta concorrenza tra loro). Indipendentemente dalla scelta cloud, NetApp vuole offrire un’unica esperienza nel gestire l’informazione.
I vantaggi del cloud nel proprio DC
Gli annunci più recenti di NetApp indirizzano oggi tre bisogni: quello di portare in azienda l’esperienza positiva – prima possibile solo in public cloud – offrendo la possibilità di sviluppare in modo trasparente ovunque; di gestire i dati ovunque essi siano; quello di disporre di una data fabric su misura da gestire, usare e pagare ovunque essa sia con lo stesso modello vantaggioso del cloud.
Ontap 9.6 con Fabric Pool abilita la possibilità di spostare dati freddi in una soluzione di storage ad oggetti, che può essere on-premise come in cloud (Azure, Aws e ora anche Google), mentre con Flex Cache è possibile eseguire una copia dei dati più utilizzati, che solitamente venivano replicati nelle sedi remote, ora anche in cloud. Al contrario, chi ha sviluppato tutto in cloud può disporre di una cache locale, quindi sfruttare la nuvola come estensione del data center.
NetApp ha quindi ripensato anche alla gestione dell’interfaccia Ontap per avere in un’unica schermata disponibili tutte le informazioni sullo stato dell’arte del proprio storage, così come informazioni predittive. L’offerta NetApp poi oggi si può indirizzare anche alle piccole aziende grazie all’introduzione della serie AFF-C190 (comunque all flash) mentre nella fascia midrange arriva una soluzione per un aspetto almeno di avanguardia e cioè la disponibilità di Nvme in modalità end-to-end, con il modello AFF-A320.
Per portare l’esperienza cloud all’interno del proprio data center, arriva poi l’evoluzione di due nuove servizi: NetApp Kubernetes Service on NetApp Hci e Cloud Volumes on NetApp Hci.
L’evoluzione prevede che non solo si possano usare questi servizi facendo il deployment Kubernetes in cloud, ma ora se dal portale cloud.netapp.com ci si affida ai servizi citati si potrà scegliere – tra i target – il cloud degli hyperscaler, come anche la soluzione onpremise disponibile già in casa.
NetApp ha esteso inoltre in due step nel tempo Cloud Volumes Service e Cloud Volumes Ontap anche su Google (erano già disponibili per Aws e Azure con il nome Azure NetApp Files).
Spieghiamo in sintesi le differenze tra Cloud Volumes Service e Cloud Volumes Ontap.
Questa seconda proposta permette la personalizzazione che l’utente può scegliere di fare sulle risorse storage dell’hyperscaler – in pratica le risorse storage dell’hyperscaler sono personalizzate con sopra Ontap – Cloud Volumes Service invece permette di acquistare in modalità pay as you go specifiche richieste e garantite. Non ci si preoccupa dell’infrastruttura, viene fornito il volume NFS richiesto e si paga per l’utilizzo.
NetApp è l’unico provider che può offrire la propria tecnologia in public cloud, con gli hyperscaler che scelgono di adottare tecnologia NetApp per specifiche tipologie di servizio.
Per mantenere il controllo su ogni tipologia di risorsa e agire su di esse, NetApp propone Fabric Orchestrator (arriva dopo l’estate), una sorta di touchpoint di controllo che permette di creare relazioni tra risorse storage sulle diverse public cloud e fare discovery, governance e movimentazione.
NetApp ha sviluppato quindi Cloud Insights come strumento di monitoraggio anche su risorse non NetApp (per server, storage, network) utilizzabile come realtime dashboard per l’analisi di impatto. Ed è offerto gratuitamente sulle soluzioni NetApp. In ultimo, Active IQ si propone come strumento per ricevere consigli di ottimizzazione infrastrutturale tramite predizioni generate dall’Ai.
NetApp, che sottolinea come oggi sia possibile e vantaggioso portarsi l’esperienza cloud in casa, abilita la possibilità di farlo con un approccio flessibile.
Chiude Patano: “Per rispondere anche alle richieste del nostro mercato, proponiamo l’utilizzo di una risorsa Hci, come una di storage tradizionale pagandola mensilmente con un contratto minimo di un anno indipendentemente dalla configurazione che si decide di creare”.
© RIPRODUZIONE RISERVATA