Il mercato dello storage è cambiato. Lo storage, inteso come supporto fisico, resta importante ma non è più al centro, e ha lasciato spazio al dato. Le aziende lo sanno, ma sono anche consapevoli che il dato comunque ha ancora bisogno di “vivere” su una risorsa.

In questo scenario NetApp negli ultimi due anni si è evoluta, rimanendo fedele al proprio Dna (lo storage) ha compreso prima di tutto la necessità di trasformarsi in un’azienda di “data management” e ha saputo esaltare i vantaggi della tecnologia flash, valorizzandone le potenzialità soprattutto per gli utilizzi nell’ambito AI, in un trend di mercato favorevole e che vede una crescita significativa della domanda.

Non solo, NetApp ha puntato su una proposizione iperconvergente rivolta agli utenti che hanno bisogno di realizzare a casa propria una proposta facile da implementare, ma scalabile, e infine ha arricchito la propria offerta per il cloud, nell’attuale scenario multicloud. Questi anche i tre temi che proporremo in tre momenti diversi sempre, a partire da un confronto con Roberto Patano.

Flash e AI, un matrimonio felice

La proposizione di storage flash si pone in relazione diretta con l’utilizzo di applicazioni specifiche legate all’intelligenza artificiale.

Secondo Gartner, l’AI sarà una delle cinque priorità di investimento più importanti per oltre il 30% dei Cio entro il 2021, mentre Idc afferma che quasi il 75% degli sviluppatori si dedicherà alla definizione di funzionalità AI nelle proprie app.

Anche se le aziende pianificano di utilizzare l’AI per creare opportunità di business nuove e innovative alimentate da dati diversificati, distribuiti e dinamici, spesso scoprono che i loro dati più preziosi sono intrappolati in silos, ostacolati dalla complessità e troppo costosi da sfruttare per applicazioni AI che prevedono un uso intensivo delle risorse.

Roberto Patano, senior manager systems engineering di NetApp
Roberto Patano, senior manager solution engineering di NetApp Italia

Ci spiega Patano, senior manager solution engineering di NetApp Italia: “E’ così. Se si vuole affiancare le aziende effettivamente anche nel caso dello studio di progetti complessi nelle aree dell’intelligenza artificiale, del deep learning e del machine learning, è evidentemente necessario un cambio di passo, in termini di throughput[capacità di un canale di trasmettere i dati in uno specifico periodo di tempo], per essere in grado di alimentare le Gpu, ma anche in termini di latenza, per non vanificare la possibilità di sviluppare soluzioni di deep e machine learning direttamente nel cloud”.

La possibilità che si apre infatti è quella di tenere i dati on-premise e alimentare “quasi in real-time” i servizi AI, anche in cloud. Il connubio flash e AI è funzionale quindi a patto che si sia effettivamente in grado di alimentare le Gpu in modo efficiente, altrimenti il costo si alza significativamente.

Da qui la partnership tra NetApp e Nvidia, attiva anche in Italia, che prevede l’approccio congiunto ai clienti con la proposta dell’architettura validata NetApp Ontap AI per rispondere proprio al bisogno di dare priorità alla visibilità, al controllo e ad una efficace movimentazione dei dati “from edge to core to cloud”.

Prosegue Patano: “Senza entrare troppo nei dettagli tecnici [verranno approfonditi in un contributo dedicato] la proposta comprende la soluzione Dgx di Nvidia e due proposte all-flash di Netapp; soprattutto vuole lasciare la possibilità ai clienti di scalare in modo orizzontale, con un’alta affidabilità, e latenza inferiore ai 200ms, garantendo anche una facile implementazione ed adozione, con alta velocità di training”. 

Nella partnership tra Nvidia e NetApp, si sono incontrate quindi visioni strategiche molto simili. Anche perché il connubio flash/capacità di calcolo adeguate alle applicazioni AI (Gpu) è richiesto sia nelle soluzioni on-premise, sia dagli hyperscaler e la certificazione della proposta facilita anche la proposta a tutti gli attori di mercato.
“Da un lato quindi grandi capacità di elaborazione, ma dall’altro – specifica Patano con una metafora – un’evoluzione importante della proposta flash, in uno scenario in cui, la ‘larghezza del tubo entro cui si muovono i dati’ conta eccome”.

Dal punto di vista tecnico lo scenario è cambiato con l’introduzione delle proposte end-to-end basate su protocollo Nvme (come per esempio AFF A800). Le applicazioni abilitate dalle risorse storage di NetApp sono le più varie: analisi delle immagini, videosorveglianza, riconoscimento delle scene fattuali. Nvidia stessa ha adottato un sistema di riconoscimento delle persone basato sulla lettura dei tratti del volto e della fisionomia, con riscontro immediato.

Agli ambiti di predictive maintenance, quindi l’analisi dei dati storici sulle apparecchiature per le quali è necessario implementare algoritmi predittivi, corrispondono casi d’uso già oggi reali, così come in ambito finanziario/telco è possibile utilizzare queste risorse per determinare comportamenti anomali (fraud detection) e come risorse di calcolo per l’elaborazione intelligente di milioni di record in frazioni di tempo minime.

Il vantaggio competitivo per le aziende non si genera solo da una offerta all-flash ma anche grazie alle qualità delle memorie persistenti. Parliamo in questo caso della proposta Max Data che consente di incrementare  le performance applicative senza dover riscrivere il codice dell’applicazione. La soluzione è la prima del settore a sfruttare la memoria persistente (Intel Optane Dc) nei server per offrire una latenza estremamente bassa simile a quella delle memorie Dram e prestazioni vicine alla tecnologia flash.

Dall’edge al cloud, la valorizzazione del dato e l’AI

Legittimo pensare quindi anche a implementazioni possibili solo di fronte a progetti di business imponenti? Non proprio. Le aziende sono sempre sensibili a costi e Patano tratteggia quindi questo scenario: “Il cloud da questo punto di vista ha cambiato il paradigma, e una proposta all-flash su applicazioni di AI ha beneficiato del nuovo scenario attuale. Il problema oggi non è quindi tanto il calcolo del Roi per risorse di questo tipo, piuttosto sarà da ragionare sulle competenze. Bisogna chiedersi: Sono valide quelle di cui dispongo?”.

I progetti all-flash/AI non sono paragonabili a quelli di implementazione di una chatbot, per questo il ragionamento sulle competenze disponibili e necessarie sarà il primo passaggio su cui confrontarsi. NetApp poggia la proposta con Nvidia facendo leva sui tanti partner specializzati verticalmente che possono dare un aiuto fondamentale.

Non perdere tutti gli approfondimenti della Data Fabric Room 

© RIPRODUZIONE RISERVATA