La maggior parte delle aziende consolidate sta subendo l’erosione di quote di mercato a opera di startup più agili e con nuovi modelli di business che le stanno costringendo a reinventarsi per continuare a rimanere competitive, mentre altre stanno sperimentando un’ulteriore pressione perpetrata dai concorrenti tradizionali che hanno già abbracciato la trasformazione digitale implementando processi più semplici e immediati. Rispetto alle tendenze passate guidate dall’IT, oggi più che mai la trasformazione digitale è dettata dal business che impone una trasformazione dell’IT stesso per offrire nuovi servizi in linea con gli obiettivi aziendali.
Partendo dall’assunto che i dipartimenti IT aziendali oggi sono chiamati a fare sempre di più con meno risorse, in termini tecnologici e di staff IT dedicato, questo porta a uno scenario senza soluzione di sorta per il quale i responsabili dei data centre devono tenere conto del tempo necessario per installare, implementare, integrare, gestire e monitorare costantemente un sistema non omogeneo e, allo stesso tempo, scontrarsi con problematiche apparentemente incommensurabili legate alla crescita globale del business.
Tutto ciò impone alle organizzazioni di adottare un modello più agile e flessibile nella capacità di adattare l’infrastruttura IT alle esigenze di business che le aziende pongono come sfide ai dipartimenti IT.
I modelli tradizionali non sono più in grado di garantire la velocità, l’agilità e le prestazioni richieste in tempi rapidi e continuano a porre una serie di questioni sul modello di gestione dell’infrastruttura da adottare. Anche se le infrastrutture IT sono evolute verso la virtualizzazione, ancora troppo spesso continuano a presentare isole di sistemi legacy non virtualizzati, aggiungendo ulteriore complessità alla gestione di tutta l’infrastruttura.
Pertanto, non sorprende che l’ultimo decennio abbia visto 3 ondate evolutive che hanno coinvolto l’infrastruttura informatica. Il tempo della realizzazione di sistemi di data center “su misura” e delle problematiche legate alla complessa integrazione di harware, software e dati sta tramontando rapidamente. La convergenza è ormai una realtà – sotto forma di infrastrutture IT convergenti e iperconvergenti, in grado di offrire innumerevoli vantaggi per i sistemi di data center.
In virtù di questo, il primo obiettivo consiste nell’ottimizzare il consolidamento delle risorse, eliminando o portando al minimo i silos presenti nei data centre attuali, riducendo i costi e aumentando le efficienze.
La nascita delle infrastrutture convergenti ha e continua a dare delle risposte ad una prima grande necessità che consta nella semplificazione sia del modello di acquisizione delle tecnologie, con garanzie di supporto ai workload applicativi virtualizzati critici, sia del modello di gestione e di operation dell’infrastruttura, in quanto riducono le problematiche di compatibilità tra i diversi componenti di server, storage, networking, ecc., che vengono di fatto garantiti e certificati compatibili dai vendor di riferimento.
Questo modello consente anche di agevolare le esigenze di crescita, abilitando un modello di upgrade on demand dove, all’occorrenza, è possibile aggiungere all’infrastruttura componenti già certificate e sicuramente compatibili.
Più recentemente, in parallelo a questo approccio, si va ad aggiungere e affermando l’iperconvergenza, che meglio risponde oggi anche alle esigenze delle aziende di riposizionare le applicazioni più critiche su infrastrutture moderne.
L’iperconvergenza va a condensare su un modello più semplice le diverse componenti dell’infrastruttura con un approccio basato su appliance e su un modello di crescita di tipo scale-out, che aggiunge nodi con specializzazioni – di tipo compute, storage, ecc. – e quindi consente di far crescere l’infrastruttura in modo molto più mirato, in funzione delle specifiche necessità.
In un’ottica di semplificazione delle tecnologie on-premise sfruttando le infrastrutture convergenti, ma in grado di estendersi anche a quelle iperconvergenti nel loro concetto più moderno ed esteso, Cisco e Netapp oltre a collaborare a favore delle infrastrutture convergenti hanno sviluppato una soluzione propria che Dimension Data è in grado di supportare e offrire ai propri clienti.
FlexPod SolidFire, infatti, è un’infrastruttura convergente basata sulle tecnologie server e di data centre networking di Cisco e sulla componente storage di Netapp, vero elemento innovativo che garantisce prestazioni elevate e consolidate, agilità, scalabilità e SLA definiti e garantiti per i singoli workload.
Un’altra delle caratteristiche che si sta affermando come cruciale per le aziende è la capacità di indirizzare soluzioni predisposte per funzionare su un modello ibrido in grado di affiancare a un’infrastruttura interna del cliente anche risorse fruibili attraverso il cloud, per realizzare realmente una infrastruttura di Hybrid IT.
La scelta di un’infrastruttura convergente o iperconvergente è fortemente indirizzata dalle necessità specifiche dei clienti. Per poter meglio identificare quale sia la migliore soluzione per il processo di IT transformation, Dimension Data è in grado di guidare il cliente nell’identificazione del percorso ottimale di trasformazione verso l’hybrid IT, nella selezione delle tempistiche più appropriate e delle applicazioni e della tipologia dei dati che possano beneficiare dell’esternalizzazione in cloud anziché sull’infrastruttura interna di tipo convergente o iperconvergente. Per raggiungere questo obiettivo, Dimension Data dispone di uno specifico Hybrid IT Assessment che permette ai consulenti dell’azienda di condividere con i clienti lo stato in essere dell’infrastruttura, di valutarla sulla base dei requisiti e delle richieste che l’azienda sta ponendo all’IT come sfida evolutiva e di affiancarli nella creazione della roadmap di trasformazione.
Ulteriori informazioni sono disponibili sul sito dedicato
http://cloud-marketing.dimensiondata.com/FlexpodSF-Italy
© RIPRODUZIONE RISERVATA