“Occorre fare un passo indietro per capire cosa ci riserva il 2020”, così Marco Pozzoni, country sales director di Netapp, introduce la lettura dei trend che secondo l’azienda contribuiranno alla crescita del mercato IT e allo sviluppo delle aziende all’inizio del nuovo decennio. Sì, perché l’anno che si è appena concluso porta in eredità a quello appena iniziato “più che una coda i veri e propri sviluppi” delle previsioni sul 2019 che possono essere sintetizzate in cinque punti: lo sviluppo dei sistemi di intelligenza artificiale in cloud e on premise; la possibilità di fotografare in realtime quanto accade negli ambienti di produzione grazie a Internet of things con la relativa esplosione di dati all’edge; la possibilità di indirizzare task e applicazioni su cloud diversi (multicloud); la containerizzazione e la cosiddetta “automagically“.

Marco Pozzoni
Marco Pozzoni, country sales director di Netapp Italia

Spiega Pozzoni: “Con questo termine si fa riferimento alle soluzioni automatizzate, ‘Hci like’, sistemi di iperconvergenza in cui l’utente, che chiede semplificazione nella possibilità di definire un ambiente di private cloud, può effettivamente fruire di quelle che sono le tecnologie necessarie per indirizzare le prestazioni nella modalità commerciale più consona. Quindi anche con modelli di vendita a consumo, pur rimanendo in un ambito on-premise.
Tutti ambiti, in verità, ancora in pieno sviluppo, e non senza incognite da risolvere, ma comunque valutati dagli analisti come trend decisivi e ben marcati.

Per quanto riguarda il multicloud, per esempio, nel caso specifico Netapp ha attivato partnership strategiche con Aws, Microsoft (Azure), Google e Alibaba. I quattro provider che guidano il mercato del cloud pubblico. Partnership che prevedono la presenza di soluzioni Netapp all’interno del loro marketplace come soluzioni Netapp hardware all’interno dei data center ad erogare direttamente servizi ai clienti che magari sono già clienti del vendor (per esempio per Sap Hana). Quando si parla di cloud “realmente nativo” poi è necessario parlare di containerizzazione indirizzato da Netapp con Nks (Netapp Kubernetes Services), l’orchestratore dei cluster Kubernetes.

Il 2019 (agosto) ha portato a Netapp la presenza nel quadrante in alto a destra di Gartner per i sistemi di hybrid e flash storage a guidare il mercato premiando una strategia multicloud che a tratti può essere sembrata carsica, quasi sottotraccia, in alcuni momenti addirittura di rincorsa, ma che ha portato il vendor ad avere oggi partnership attive con tutti e quattro gli hyperscaler. Idc invece colloca Netapp tra i tre vendor più importanti (vicina a Hitachi e a Scality) nell’ambito dello storage ad oggetti (per StorageGrid), ma anche in quello dei file system scaleout (per Ontap).

Il posizionamento di Netapp nello storage ad oggetti
Il posizionamento di Netapp nello storage ad oggetti

Infine, Pozzoni sottolinea con soddisfazione il posizionamento assegnato da Canalys sul canale dietro a Kaspersky e Nutanix, ma sempre in alto a destra: “Il 90% del business è indirizzato dall’ecosistema partner, con un classico modello a due tier (distributori e partner), i partner seguiti parte in modalità diretta, parte indiretta tramite i distributori. Ecco, noi abbiamo dato ai partner la possibilità di essere più profittevoli, lavorando molto sui programmi (rebate, crowfunding di risorse e accounting, marketing a 360 gradi ma focalizzato sull’enterprise), a partire da una proposta tecnologica ritenuta evidentemente valida”.

Netapp, le “attese sorprese” 2020

Atish Gude, Cto Netapp
Atish Gude, Cso Netapp

Strategia e previsioni di Netapp per il 2020 sono dettate da Atish Gude, Cso dell’azienda, con sullo sfondo lo scenario di mercato. Gartner dice che il 69% delle aziende utilizza almeno una proposta di cloud pubblico e una di cloud privato, con il 58% delle aziende che hanno definito una strategia multicloud ibrida (definita, non necessariamente realizzata). 

Roberto Patano, 
senior manager systems engineering di NetApp, declina le previsioni nel contesto italiano: “La pietra miliare su cui poggia lo sviluppo IT infrastrutturale, e non, è il cloud ibrido, anche se è sbagliato fare finta di non riconoscere alcune difficoltà. I clienti chiedono sì il risparmio ma anche soluzioni semplici sia dal punto di vista commerciale che tecnologico. Il primo ambito lo indirizziamo appunto con la proposta Keystone (offerta on-premise a consumo), sul secondo senza dubbio è necessario lavorare, a partire proprio dalle proposte di containerizzazione delle app. Su queste basi si innestano anche le prediction di Gude”.

5G ed edge

La prima riguarda il 5G e l’edge. “Ci vorranno ancora un paio d’anni per vedere il 5G davvero ‘all’opera’ ma – prosegue Patanogli effetti saranno importanti anche per il mondo data driven. Quando davvero saranno miliardi gli apparati connessi – l’infrastruttura ora non è in grado di sostenere questo ecosistema – si svilupperanno tanti piccoli ma potenti data center all’edge ad ospitare le soluzioni di AI, lì sarà fatta elaborazione e quindi assisteremo ad una diversa distribuzione delle potenze di calcolo, storage e networking messe in gioco”.

Roberto Patano, senior manager systems engineering di NetApp
Roberto Patano, senior manager systems engineering di NetApp

Non mancano già gli esempi. Negli Usa e nel Sud Est asiatico piccole centrali fotovoltaiche si stanno evolvendo e si diffondono a creare una sorta di grid che poi va gestito. Per questo sarà invece pertinente ai data center centralizzati la gestione con l’AI di tutte le operations della rete diffusa, per una sorta di ecosistema IoT sempre più legato alle applicazioni di AI.

Sarà quindi più facile applicare i modelli di AI all’edge, lì esercitare anche i sistemi di machine learning, sfruttando magari il data center centralizzato per le inferenze sui sistemi e archiviazione storica. E il 5G chiaramente avvantaggerà questo sviluppo. Se si vuole riconoscere una differenza rispetto a quanto immaginato solo fino a un paio di anni fa, questa differenza è quindi da individuare in un data center che si “ingrossa” all’edge, non necessariamente on-premise, ma anche presso un provider di prossimità.  

Le reti di blockchain

Anche la seconda previsione si lega ai flussi dell’informazione e riguarda blockchain. Patano: “Assistiamo a un ritorno dei più importanti progetti iniziali ora in fase di rilancio, in questo caso facciamo riferimento alla possibilità di coordinare più blockchain in modo da sfruttare la diffusione di una rete sicura e meglio utilizzabile delle informazioni, ben oltre l’idea veicolata dal mondo bitcoin. Si tratta quindi effettivamente di arrivare a poter sfruttare le informazioni di un ‘libro mastro condiviso'”.

In Cina e in Lettonia si fa già, si sfrutta cioè l’hyperledger fabric come canale per movimentare informazioni particolari, per esempio quelle sanitarie dei pazienti, ma anche per tutta la parte di tracciabilità dei prodotti. Fioriscono use case interessanti e in continua evoluzione.

Per la sua natura modulare poi l’hyperledger fabric è nativamente personalizzabile e modellabile per la soluzione di problemi, permettendo un utilizzo di tipo plug and play virtuoso all’interno delle applicazioni enterprise. Così per esempio, in ambito retail, è possibile sfruttare una blockchain per gestire le promozioni specifiche su un singolo canale, selezionando le informazioni da rendere disponibili mantenendone il controllo.

La virtualizzazione dell’infrastruttura

Rispetto alle soluzioni Hci di prima generazione, il trend che si va affermando con decisione riguarda la crescita delle architetture software basate sui microservizi e delle soluzioni di virtualizzazione software based. In parole più semplici, l’hardware rappresenta di per sé una commodity, ma lo è in funzione delle prestazioni che è chiamato ad offrire.

Da qui lo sviluppo delle strategie di containerizzazione applicativa, e gli investimenti relativi delle aziende, ma anche la crescita del mercato delle software composable architecture. Sono le soluzioni in grado di scegliere/prendere/assegnare le risorse hardware (di computing, storage e networking) in modo intelligente a seconda dei task da indirizzare.

Si comprende, appunto, come in primo piano non sia tanto l’hardware di per sé quanto la prestazione/performance che esso è in grado di erogare. Ed è evidente come questo trend contribuisca ad eliminare alcuni dei vantaggi delle architetture componibili basate su hardware proprietario che non usciranno dal mercato ma diventeranno di nicchia e serviranno ad indirizzare verticalità di mercato specifiche.

Si va verso scelte quindi di combinazione di architetture Hci che Patano definisce “disaggregate”, assieme ad un utilizzo spinto di virtualizzazione e containerizzazione. Una disaggregazione che nel suo comparto Netapp rende possibile per esempio con Nvme over Fabric (nuovo protocollo su tecnologie già consolidate).
In uno sguardo di insieme è possibile riconoscere infine che la maturazione della proposta multicloud è effettivamente solo agli inizi, oggi è possibile scegliere in modo relativamente semplice dove spostare i dati, scegliere le risorse cloud pertinenti, ma è ancora tutta da immaginare la possibilità di spostare in agilità le applicazioni da una proposta cloud ad un’altra.

© RIPRODUZIONE RISERVATA