Cloud e disponibilità di risorse As a Service hanno cambiato le regole del gioco. Iniziative di business che per diventare concrete avrebbero richiesto settimane o mesi oggi possono essere realizzate in giorni, quando addirittura non in ore. Uber, Spotify, Airbnb sono esempi di come un’ottima idea possa crescere su infrastrutture minime e scalare.
Sono gli esempi utilizzati da Roberto Patano in un recente contributo che potremmo così sintetizzare: “Siamo entrati nell’economia dell’aspettativa, con un cambiamento economico dove l’immediatezza diventa la più grande moneta di scambio per accumulare clienti e crescere”.

Immediatezza, agilità e prestazioni sono diventate quindi fattori determinanti ma sono obiettivi figli della semplicità architetturale. Qui risiede il fondamento anche dei nuovi data center in discontinuità con il passato. 

Una memoria su disco che contiene dati e funzioni non considerati fondamentali funziona perfettamente per le aziende in cui i dati e le funzionalità davvero possono essere eseguiti per lunghi periodi di tempo senza accesso, per un business che cerca di competere nell’economia dell’aspettativa, questo tipo di dati e funzionalità semplicemente non esiste.

Anche i pochi secondi trascorsi per il recupero di dati che sono conservati nella memoria a lungo termine possono sembrare un’eternità mentre si guarda lo schermo che ‘carica’. E possono essere sufficienti per fare usare allo stesso utente un’applicazione concorrente ma con tempi di esecuzione più rapidi. È per questo motivo che una soluzione storage basata su tecnologia flash ha sempre più un ruolo chiave nell’aiutare le aziende a differenziare la propria offerta.

Storage flash, i vantaggi

Lo storage flash è una tecnologia di archiviazione basata su memoria programmabile elettronicamente ad alta velocità. Si tratta di memoria non volatile che quindi non richiede alimentazione per mantenere l’integrità dei dati memorizzati.

Utilizza tecnologie basate su circuiti integrati, non sono previste parti in movimento, e per questo quando la tecnologia flash è sfruttata per l’archiviazione aziendale i termini unità flash o flash array vengono spesso utilizzati in modo interscambiabile e in promiscuità con Ssd (Solid State Drive), il cui confronto immediato con le tecnologie disco Hdd (Hard Disk Drive) è immediato, perché queste ultime sono basate su dischi che ruotano, motori, testine e sfruttano il magnetismo per la memorizzazione dei dati. Facile comprendere quindi come performance e rischi di natura meccanica ed elettromagnetica possano giocare un ruolo critico.

Originariamente utilizzato con le medesime interfacce sfruttate per i dischi Hdd (Sata e Sas), l’utilizzo delle memorie Ssd nei data center oggi ha segnato un cambiamento radicale, basta pensare alle memorie 3D Tlc Nand, e soprattutto ai recenti sviluppi in ambito Non-volatile memory Express (NVMe) e NVMe over Fabrics, così come in ambito Storage-class memory (Scm).

Due tecnologie che combinate insieme offrono ulteriori vantaggi e che vedono NetApp in prima linea. NetApp ha commercializzato la prima unità Ssd da 15 TB ad alta capacità su tecnologia 3D Nand  e guida ora lo sviluppo dello storage flash basato su NVMe, NVMe-oF e Scm.

Dall’edge al core al cloud

Le applicazioni basate sull’intelligenza artificiale oggi richiedono l’adozione di un’infrastruttura robusta in grado di abilitare scenari efficienti di gestione del dato sia in cloud sia on-premise, e a partire proprio dalla periferia, dai bordi, dall’edge (scenario IoT): richieste prestazionali (anche di trasferimento del dato), dimensione di crescita dei volumi, backup, sono solo alcuni dei problemi base posti dai nuovi scenari.

Per questo NetApp parla di un’architettura per l’AI dall’edge al core al cloud. E pone particolare enfasi sul cambio architetturale richiesto per incontrare gli analytics che oggi devono essere applicabili direttamente sui flussi di dati. Oggi ha senso parlare di piattaforme di analisi real-time, ma soprattutto si sposta l’enfasi dalle risorse, al dato. Le informazioni tornano al centro.

La pipeline - Dall'Edge al Core al Cloud
La pipeline – Dall’Edge al Core al Cloud

Lo scenario AI e l’approccio dall’edge al core al cloud hanno fatto crescere in modo significativo le esigenze delle aziende, e la raccolta dei dati dall’edge ha portato all’evoluzione della Data Fabric di Netapp. In un passaggio, Joel Reich, EVP Storage Systems & Software presso NetApp, lo spiega bene: “Con i nuovi servizi e le soluzioni dati attuali, integrati tramite NetApp Data Fabric, le organizzazioni possono accelerare le pipeline di dati attraverso l’intera azienda per formare modelli di apprendimento approfondito e alimentare le applicazioni AI con la semplicità, la libertà di scelta e la scalabilità necessarie per ottenere un impatto concreto”.

Il primo tassello, quasi a cappello della gestione storage resta NetApp Ontap, ora arrivato alla versione 9.5: offre versatilità a garanzia di performance elevate e latenza costantemente bassa, accelerando i carichi di lavoro critici, proprio con funzionalità NVMe end-to-end; unifica la gestione dei dati in tutti gli ambienti di storage (tecnologia flash, disco e cloud); automatizza il tiering di set di dati con scalabilità di petabyte per gli archivi di oggetti nel cloud oppure on-premise.

Ontap 9.5 inoltre riduce i costi di implementazione di soluzioni per la business continuity multisito e accelera le performance in lettura, memorizzando i set di dati nella cache all’interno di un cluster e in siti remoti con un incremento dei risparmi offerti dall’efficienza dello storage fino al 15% per le applicazioni di database relazionali.

Ma soprattutto incrementa le performance mediante il tiering automatico dei dati tra sistemi AFF e NetApp Max Data sui server (avevamo accennato alla proposta nella visione di scenario con Roberto Patano). Max Data (Memory Accelerated Data) consente ai clienti di incrementare le performance applicative senza dover riscrivere il codice dell’applicazione. La proposta va oltre il concetto di caching sfruttando le potenzialità intrinseche delle memorie persistenti (Intel Optane).

Le performance migliorano a livello di applicazione, consentendo un’elaborazione più veloce dei dati per le applicazioni AI e analisi dei dati real-time. Max Data inoltre accelera il recovery dei dati delle applicazioni con servizi di data protection, e rende possibili carichi di lavoro sui server più intensivi con maggiori possibilità di sfruttare le risorse disponibili.  

L’AI alza l’asticella, NetApp Ontap AI

Nonostante le aziende stiano adottando nuove piattaforme, strumenti e pratiche per l’AI, non sempre riescono a mantenere il controllo sui propri data store in modo che dati completi, correnti e accessibili siano disponibili per i progetti di AI. Lo abbiamo sottolineato. E’ necessario dare priorità alla visibilità e al controllo dei dati, “from edge to core to cloud”.

NetApp Ontap AI
NetApp Ontap AI

La partnership tra NetApp e Nvidia è nata proprio per offrire nel modo più semplice prestazioni e controllo sui data store, con le soluzioni cloud-connected di NetApp e la nuova architettura Nvidia Dgx a formare un singolo ambiente dati per l’AI. 

Da questa idea è nata l’architettura NetApp Ontap AI, che integra i supercomputer Nvidia Dgx e lo storage all-flash NetApp AFF A800. A tutti gli effetti si tratta di una proposta che incardina tutti i tasselli che abbiamo ordinato in questo contributo: vantaggi delle soluzioni flash, pipeline virtuosa (edge/core/cloud), intelligenza artificiale.

Con una risorsa all-flash, e sfruttando la Data Fabric Netapp, Ontap AI dà alle aziende la possibilità di creare una data pipeline ininterrotta, che copre dall’edge al core al cloud.

La pipeline integra fonti di dati eterogenee, dinamiche e distribuite, con funzionalità complete di controllo e protezione. Vengono eliminati i colli di bottiglia nelle prestazioni e offerto un accesso ai dati sicuro, non disgregante, da molteplici fonti e in diversi formati. La combinazione Nvidia Dgx con gli array all-flash di NetApp associa soluzioni Gpu potenti con il sistema flash e software flash più connesso al cloud.

Aggiungiamo un’ulteriore prospettiva. Trident, progetto open source di provisioning e orchestrazione per Kubernetes, è in grado di spostare in modo trasparente le immagini del container Nvidia Gpu Cloud sullo storage flash enterprise di NetApp. La formazione dell’immagine resa più fluida e rapida, riduce i costi di elaborazione complessivi. Basta pensare che un solo server Nvidia Dgx fornisce oltre 1 Pflops di potenza di calcolo per AI, equivalenti ad un intero centro dati costituito da server tradizionali basati su Cpu.   

Il sistema completo Nvidia Dgx con lo storage A800, in una configurazione 1:4 di rapporto storage-to-compute ha toccato un througput di 23mila “training images” per secondo e un throughput inferenziale di 60mila Tips. Attendibile quindi il dato di 2 GBPps di throughput continui, sotto al ms di latenza, con le Gpu operative oltre il 95% del loro utilizzo.  

NetApp Ontap AI - L'architettura
NetApp Ontap AI – L’architettura

In termini prestazionali un singolo sistema NetApp AFF A800 supporta il througput di 25 GBps in lettura sequenziali e un milione di Iop per piccole letture casuali, con meno di 500 microsecondi di latenza nei carichi di lavoro Nas.

Ontap AI ha inoltre tra i suoi punti di forza la scalabilità. E’ possibile aggiungere risorse di calcolo, archiviazione e rete (alla base Cisco Nexus 3232C) a configurazioni cluster in modalità “live” senza interrompere le operazioni in corso. Si può arrivare fino a rapporti 1:5 storage/computing. L’architettura rack di NetApp permette quindi di iniziare anche con un sistema AFF A220 per poi crescere.

Ontap AI sfrutta appieno ed esalta le possibilità offerte da NetApp Data Fabric per unificare la gestione dei dati attraverso tutta la pipeline con un’unica proposta di piattaforma e soprattutto con gli stessi strumenti utilizzati per il controllo e la protezione dei dati on flight, in uso e a riposo.

Gli altri vantaggi si legano infine alla semplicità nel deployment dei progetti AI, eliminando complessità di design e incertezze. E’ la prima caratteristica essenziale dichiarata in apertura per le infrastrutture che davvero possono concretizzare i progetti di trasformazione digitale legati ad analytics, deep learning e AI.

Non perdere tutti gli approfondimenti della Data Fabric Room  

© RIPRODUZIONE RISERVATA