I data center sono le infrastrutture fondamentali per lo sviluppo e il funzionamento di qualsiasi servizio digitale, workload di intelligenza artificiale compresi. Il loro funzionamento richiede grandi quantità di energia per alimentare raffreddare i diversi componenti con i conseguenti impatti ambientali in termini di emissioni di gas serra e di consumo di risorse naturali. Si prevede che la domanda di energia aumenterà ulteriormente nei prossimi anni, a causa della crescita esponenziale dei dati generati e trattati dai servizi digitali tanto più in relazione all’utilizzo dell’AI. E’ fondamentale pertanto trovare soluzioni innovative per rendere i data center più efficienti, sostenibili, senza compromettere le loro prestazioni e la qualità dei servizi offerti.
Schneider Electric si pone come punto di riferimento su questi temi, grazie alle tecnologie che può rendere disponibili, ma anche alle competenze che mette a disposizione dei suoi clienti. E’ in grado quindi di realizzare data center (DC) secondo specifiche e performance richieste ma anche capaci di indirizzare le crescenti esigenze di efficienza e sostenibilità, con uno sguardo in particolare al tema AI e ai relativi impatti sui due problemi chiave nei DC quello energivoro, appunto, e quello del raffreddamento.

Ne parliamo con Antonio Racioppoli, Data Center Solution Architect & Business Development, Cloud & Service Providers che mette in evidenza, prima di tutto i trend emergenti e critici nell’evoluzione dei data center. “Sì, l’intelligenza artificiale è senza dubbio un trend di particolare interesse perché ha un impatto diretto sul modo in cui gestiamo i dati, quello in cui lavoriamo e sulla produttività in generale – si pensi anche solo alla possibilità di prendere decisioni assistite. L’AI ha ovviamente anche un impatto importante su come vengono progettate e gestite le infrastrutture fisiche per i data center, ed è disruptive anche rispetto al tema della sostenibilità – altro trend fondamentale nell’evoluzione dei DC – che da una parte è sotto la lente di chi è chiamato a regolamentare il problema, dall’altro è evidente abbia importanti ricadute sul business, in relazione alla percezione dei brand sul mercato ed alla domanda stessa degli utilizzatori finali dei servizi”

Data center pronti per i workload AI

Si tratta di preparare i data center per i carichi di lavoro con l’AI. Una sfida non indifferente per quanto riguarda sia il “power”, sia il “cooling” considerato l’utilizzo sempre più intensivo di Gpu e Tpu (Tensor Processing Units).
“In primis – spiega Racioppoli –  saranno da rivedere completamente le logiche di progettazione, di realizzazione infrastrutturale, un tema che non riguarda solo gli hyperscaler ma anche le aziende locali, del territorio, che decideranno di implementare al loro interno workload dedicati all’intelligenza artificiale”.
Questo anche perché “sono due le tipologie di workload quando parliamo di AI: i workload di training, che creano e definiscono i modelli (1) ed i workload di inferenza, che generano le risposte cercate, che ci aiutano a prendere la decisione in tempo reale (2)“. 

Antonio_Racioppoli
Antonio Racioppoli Data Center Solution Architect & Business Development, Cloud & Service Providers, Schneider Electric

workload di training necessariamente “devono risiedere su infrastrutture DC centralizzate e hanno bisogno di maggiore capacità computazionale, Cpu e Gpu capaci di supportare carichi di picco elevatissimi, utilizzabili in cluster che hanno una densità molto spinta”. In questi casi si potrebbero avere cluster composti da pochi armadi, ma con esigenze di alimentazione e dissipazione pari a quelle di un medio-grande Data Center di tipo “tradizionale”. Questo tipo di carichi generalmente non presenta esigenze particolarmente spinte dal punto di vista della resilienza.

workload di inferenza, invece, hanno tipicamente bisogno di bassa latenza perché “richiedono risposte veloci all’utente finale, oppure sono utilizzati nell’ambito di applicazioni di automazione; per questi motivi è importante che le risorse computazionali siano il più vicino possibile agli utilizzatori”. Qualità nelle risposte dell’AI e velocità nel fornire le stesse risposte sono aspetti da bilanciare in funzione dell’applicazione specifica. Si noti inoltre che i workload di inferenza richiedono capacità computazionali inferiori rispetto a quelli di training.

Da questo punto di vista l’AI porta con sé il bisogno di un approccio “ibrido” con data center centrali e data center periferici deputati a compiti differenti e modulati in relazione alle esigenze applicative. Precisione nelle risposte dell’AI e velocità nel darla gli aspetti da bilanciare.
“Evidente quindi che questo avrà un impatto anche sugli ecosistemi locali, perché necessariamente gli algoritmi di inferenza dovranno risiedere su infrastrutture locali – puntualizza Racioppoli -. “A tendere, nel 2028, si potrebbe arrivare ad un trade-off con il 50% del processing effettuato a livello di data center centrali (oggi è il 95%) ed il rimanente 50% effettuato a livello di data center “edge” (oggi è il 5%), locale, vicino agli utilizzatori finali”.
Sono tutti aspetti che impattano anche la progettazione di Schneider Electric chiamata ad indirizzare per i clienti le esigenze di prestazioni, gli incrementi di densità finanche il dimensionamento stesso dei DC, mantenendo un saldo controllo sui parametri energetici e sulle emissioni. 

Data center e consumi dei workload AI
Data center e consumi dei workload AI (fonte: The AI Disruption: Challenges and Guidance for Data Center Design, Schneider Electric, 2023)

Racioppoli: “Parliamo di un’evoluzione che pone delle sfide tecnologiche importanti e al riguardo Schneider si posiziona per poter rispondere a tutte le esigenze che questa evoluzione presenta sia dal punto di vista, della distribuzione elettrica, sia dal punto di vista dei sistemi di raffreddamento”. Si tratta di ‘ripensare il white space’ ma anche le piattaforme software. E Schneider guida a 360 gradi l’evoluzione del mercato anche in questa fase (in cui si stanno definendo le linee guide di riferimento) così che tutti i componenti possano essere industrializzati e possano rispondere al time to market che il mercato richiede.

Modellare il data center sostenibile ed a “prova di futuro” per l’AI

Il data center sostenibile pensato per l’AI, può essere modellato su diversi tipi di architettura. “Sulla base dello scenario messo a fuoco, è possibile prevedere la creazione di campus dedicati all’AI, oppure è possibile adottare un approccio ibrido”, basato su sale ‘tradizionali’ con all’interno cage o gruppi di armadi dedicati all’AI.

Come accennato in precedenza, i workload di training impattano in modo sensibile i criteri di progettazione per via dell’elevata dissipazione degli armadi informatici. “Si tratta di pensare a dimensionamenti con un valore di peak to average pari a 1. In altre parole, per i carichi di training non si possono applicare valutazioni di tipo tradizionale, che tengono conto ad esempio di coefficienti di contemporaneità: il valore medio di assorbimento corrisponde proprio al valore di picco”.

Dal punto di vista tecnologico bisogna disporre di un sistema di alimentazione elettrica in grado di portare alta densità agli armadi, rivedendo il dimensionamento dei tradizionali blocchi di distribuzione e gestendo amperaggi molto maggiori rispetto al passato. Questo “porta tutta una serie di sfide rispetto, per esempio, a che tipo di Pdu (Power Distribution Unit) inserire all’interno degli armadi rack ed ai possibili rischi di arc flash che, in base alla definizione della National Fire Protection Association, sono quelle pericolose condizioni associate al rilascio di energia causato da un arco elettrico. “Armadi con assorbimento molto più elevato rispetto al passato (arrivano anche a 100 kilowatt) è evidente che portano problemi nuovi su questi temi, che vanno gestiti, così come quelli legati ai temi di raffreddamento; i sistemi ad aria tradizionali non riescono a smaltire carichi così elevati e bisogna di conseguenza switchare verso tecnologie di liquid cooling, di tipo direct-to-chip oppure di tipo immersivo”, e Schneider si sta riposizionando proprio per indirizzare entrambi questi tipi di esigenze.

L’architettura dei sistemi di raffreddamento dipende dal fatto che si addotti un approccio ibrido oppure un’infrastruttura dedicata: “nel primo caso saranno da far coesistere sistemi tradizionali con sistemi di raffreddamento a liquido, invece nel secondo caso si utilizzeranno sistemi di raffreddamento 100% a liquido”
Se si guarda alle tecnologie immersive, bisogna far attenzione a utilizzare dielettrici a basso impatto ambientale.
Un buon sistema di raffreddamento di tipo direct-to-chip a liquido deve tenere conto di tutte le possibili problematiche inerenti eventuali perdite, e Schneider dispone di tecnologie ad hoc anche per questi scenari.

Dovranno evolvere anche gli armadi informatici per dimensioni, numero di rack, capacità di gestione di carichi statici maggiori, etc. 
Infine, un tema importante sarà anche quello delle piattaforme software che aiutino a progettare correttamente i sistemi di distribuzione elettrica e di raffreddamento (riducendo i rischi derivanti dalla presenza di un’elevatissima potenza concentrata in spazi ridotti) e a gestire il ciclo di vita di tutti gli asset.

Schneider Electric, un approccio a 360 gradi

L’approccio differenziante di Schneider Electric per il DC sostenibile nell’era dell’AI si lega alla capacità di indirizzare a livello di design, tecnologie e piattaforme software i temi toccati. “L’azienda si mette in gioco con un approccio a 360 gradi. Tutti quelli che possono essere gli impatti sull’infrastruttura fisica vengono affrontati grazie alla disponibilità di un portafoglio prodotti che copre ogni specifica esigenza. A differenziarci rispetto ai competitor è quindi proprio  l’approccio olistico che comprende hardware, software, servizi“. 

E grazie all’approccio olistico e ad una serie di partnership tecnologiche con i principali player informatici Schneider Electric riesce ad essere innovativa nella copertura delle esigenze. 
I clienti che desiderano intraprendere il ‘journey’ per l’evoluzione del DC possono contare sull’approccio consulenziale dell’azienda. In modo specifico è qui importante fare ancora riferimento al documento The AI Disruption: Challenges and Guidance for Data Center Design che bene misura la capacità dell’azienda di intercettare tutte le problematiche individuando però anche le risposte del caso. Conclude Racioppoli: “Stiamo lavorando per definire ogni soluzione a prova di futuro e siamo già pronti ad accompagnare le aziende in questo percorso sfidante che deve coniugare i vantaggi dell’AI con le responsabilità ambientali”.

Per saperne di più scarica il whitepaper: The AI Disruption: Challenges and Guidance for Data Center Design 

Non perdere tutti gli approfondimenti di Voice of Schneider Electric

© RIPRODUZIONE RISERVATA

Condividi l'articolo: