Come punto di riferimento per tutte le aziende, dalle micro alle grandi imprese, la colocation è in forte crescita e rappresenta una fetta consistente del mercato globale dei data center, stimati intorno ai 7,2 milioni nel mondo

Si tratta di infrastrutture che offrono in concessione alle imprese spazi fisici in locazione in cui inserire il server che l’utente stesso possiede. Un mercato nel quale lo sviluppo di progetti cloud, IoT, edge computing e l’uso di tecnologie emergenti portano a una sempre maggiore esternalizzazione dei data server e dei relativi servizi, rendendo il ruolo della colocation sempre più strategico.

Italia nella top 10

Secondo i calcoli sviluppati da Datacentermap.com, i data center di colocation a livello globale sono 4.709, distribuiti in 126 Paesi diversi. Di questi, 77 sono in Italia, presenti in 30 aree differenti sul territorio. Una numerosità che posiziona il nostro Paese al sesto  posto in Europa e nella top 10 mondiale.

Un mercato sul quale l’Italia investe quindi in modo consistente. La distribuzione dei data center non è però omogenea lunga tutta la penisola ma si concentra prevalentemente nel nord e centro Italia. In particolare, 24 data center sono collocati nell’area di Milano e la sola Lombardia ne ospita oltre il 36% del totale. Nella zona di Roma ne sorgono invece 8. Restano indietro il sud e le isole, fatta eccezione per la Sicilia, che ospita 5 data center tra Palermo e Catania.

I driver della crescita

Lo sviluppo dei data center e della colocation registrano a livello globale un’accelerazione più spinta negli ultimi due anni e le previsioni parlano di ulteriori crescite future. Un incremento esponenziale, chiaro segnale che la gestione dello storage è un’esigenza sempre più reale e sentita da aziende di ogni settore. Lo sottolinea Kingston Technology identificando i principali fattori che spingono questa tendenza.

Primo tra tutti la sempre maggiore richiesta di dati. Social media, servizi di streaming e cloud storage richiedono connessioni immediate e caratterizzano l’epoca dell’on-demand digitale. Una tendenza ulteriormente enfatizzata dal lockdown globale che mette in evidenza la necessità di realizzare un numero sempre più crescente di data center. Il 5G sarà la risposta a questa crescente richiesta di dati e delle strutture che devono custodirli; secondo una ricerca dell’Università del Sussex, in grado di portare un incremento di velocità compreso tra le 100 e le 800 volte rispetto alle reti esistenti. Il 5G è dunque potenzialmente in grado di realizzare quell’infrastruttura capace di far viaggiare le enormi quantità di dati che daranno vita a un mondo più connesso e più smart, in cui gli endpoint IoT connessi sono destinati ad aumentare a dismisura.

Un contesto nel quale l’edge computing porta l’elaborazione, l’archiviazione e l’analisi dei dati più vicini al luogo dove sono elaborati. In questo modo è possibile abbattere drasticamente i tempi di risposta, risolvere i problemi di latenza e ridurre l’esigenza di ampiezza di banda. Per comprendere l’importanza di questo progresso si pensi ai veicoli a guida autonoma dove portare la latenza da qualche centinaio di millisecondi a un solo millisecondo si rivela essenziale se la velocità di elaborazione deve tendere a essere istantanea. Ma oltre ai veicoli senza conducente, a trainare la domanda di edge computing anche lo smart parking, la gestione automatizzata del traffico, i controlli sulla salute o sulle emissioni atmosferiche, solo per fare alcuni esempi.

Stefania Prando, business development manager di Kingston Technology
Stefania Prando, business development manager di Kingston Technology

“In questo scenario è essenziale non solo che i data center siano numerosi, ma che siano anche in grado di garantire le migliori performance – commenta Stefania Prando, business development manager di Kingston Technology –. Le organizzazioni richiedono prestazioni prevedibili, per poter offrire prodotti e soluzioni con accordi sul livello del servizio con gradi di affidabilità che possono raggiungere il 99,999%Per tutti i data center è fondamentale riuscire a mantenere una qualità costante ed elevata delle prestazioni, facendo al contempo fronte alla mole in continuo aumento di dati e informazioni da processare, elaborare e conservare – prosegue -. Per questo, Kingston studia Ssd e memorie per server in grado di soddisfare direttamente tutte le esigenze di archiviazione, gestione e accesso istantaneo a grandi volumi di dati in database tradizionali e infrastrutture big data”.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: