La trasformazione dei data center è in accelerazione. L’avvento di architetture ad alte prestazioni, il calcolo Hpc, e i workload che prevedono l’utilizzo massiccio dell’AI e del machine learning, hanno portato all’evoluzione sia della parte di calcolo sia dell’infrastruttura di alimentazione e di raffreddamento. Vertiv, con la sua proposizione per assicurare l’alimentazione elettrica necessaria, affidabile, e le soluzioni di raffreddamento delle infrastrutture, si trova al centro di questa trasformazione. Parte proprio da qui il confronto con Andrea Faeti, Sales Director Enterprise Accounts di Vertiv Italia che racconta l’impegno dell’azienda nel “rimodellare il modo di progettare e gestire i data center” alla luce della crescita esponenziale di consumi, potenza e densità hardware. Sulla base di un assunto: “Il data center è centrale ormai nelle economie di tutte le aziende, tutto ruota intorno ai data center” – sottolineando come la sua importanza si rifletta “in nuove esigenze di affidabilità ed efficienza energetica”.

In questa prospettiva, emergono quindi due grandi bisogni: garantire continuità e qualità dell’alimentazione (1), e gestire il calore in modo sicuro e sostenibile (2). L’incremento della densità di potenza – sempre più server e Gpu in rack sempre più compatti – richiede quindi un vero e proprio salto evolutivo nel design delle infrastrutture. Ambiti in cui Vertiv è impegnata proprio per indirizzare evoluzioni e criticità. Entriamo nei dettagli.

Come l’AI cambia le regole del gioco

“Per anni, i data center hanno ospitato server di calcolo e archiviazione all-purpose, alimentati e raffreddati ad aria, in sale ampie, con carichi medi relativamente distribuiti – spiega FaetiOggi, l’arrivo delle tecnologie di intelligenza artificiale e GenAI – in particolare quelle basate su Gpu e architetture per l’High Performance Computing – innalza sensibilmente la potenza per unità di elaborazione”. Le nuove Gpu, installate con una  concentrazione più elevata rispetto al passato, generano carichi di lavoro intensi ma anche oscillanti (in termini di carico elettrico e calore da dissipare). Questo determina l’esigenza di: gestire sbalzi di potenza molto rapidi (1)“i sistemi AI si trasformano in carichi elevati in modo istantaneo” -; sopportare densità di calcolo crescenti (e quindi poi incrementi di sviluppo di calore, 2) – “che possono superare decine o perfino centinaia di kW di alimentazione per rack” -; adottare soluzioni di raffreddamento alternative all’aria (3), “come il liquid cooling (direct-to-chip o l’immersion cooling) o soluzioni ibride (rear door, sistemi aria-acqua), al fine di dissipare efficacemente il calore” -.

E’ uno scenario quindi, come sottolinea Faeti, che “riconfigura completamente l’infrastruttura interna del data center. Se un tempo l’area di calcolo era più grande dell’area dedicata al raffreddamento o ai sistemi di alimentazione, ora accade spesso il contrario: gli apparati esterni per la gestione termica e per la distribuzione elettrica assumono dimensioni e importanza perfino superiori a quelle della sala dati vera e propria”. Siamo quindi di fronte a un cambio di paradigma che richiede un nuovo modo di vedere l’infrastruttura: “non basta più ‘portare corrente e raffreddare ad aria’, ma occorre un sistema integrato di gestione energetica e termica”.

Il ruolo cruciale dell’alimentazione elettrica

Insieme ai sistemi di raffreddamento, il pilastro su cui si reggono i data center di nuova generazione è “l’alimentazione elettrica continua, affidabile e di qualità”. Se un rack Hpc arriva a richiedere centinaia di kW, diventa essenziale disporre di soluzioni Ups e di distribuzione elettrica ad alta densità e alta affidabilità. Vertiv porta energia dalla cabina di media tensione fino ai singoli server, assicurando: ridondanza e resilienza dell’alimentazione, certificabili secondo gli standard di settore (1)ottimizzazione degli spazi (2), con sistemi Ups e di distribuzione sempre più compatti, in modo da non sprecare preziosi metri quadrati all’interno ed all’esterno del data center; gestione dei picchi di carico (3), per l’AI che genera picchi di consumi di potenza anche molto rapidi.

L’infrastruttura in questo modo è pronta a sostenere tali transizioni istantanee, con sistemi Ups adeguati ai volumi di carico. “A questo – dettaglia Faetisi unisce l’evoluzione delle Pdu (Power Distribution Unit) nei rack, anch’esse chiamate a gestire correnti più elevate. Proprio perché l’intelligenza artificiale vive di calcoli intensi e intermittenti, queste assicurano una catena di alimentazione affidabile, in grado di compensare variazioni veloci senza perdite di energia o rischi di interruzione”.

Come evolvono le tecnologie di raffreddamento

La sfida termica è – secondo Faetiquella più evidente e percepita come in piena evoluzione anche dai gestori di data center”. Se un rack consuma centinaia di kW, produce anche un calore enorme ma in un volume ancora più ridotto di spazio. Nello scenario classico, l’aria passa attraverso i processori e viene raffreddata da grandi condizionatori. “Tuttavia, per le unità ad alta densità, questa soluzione diventa poco efficiente, o del tutto insostenibile”. Si aprono quindi diverse possibilità, che Vertiv indirizza in modo specifico e ottimale, a seconda dei casi: è possibile scegliere l’opzione del raffreddamento ibrido aria-acqua (1), in due principali variabili. Con le rear door, lo scambiatore è posizionato direttamente sulla porta posteriore del rack; l’aria calda in uscita passa attraverso uno scambiatore a liquido, raffreddandosi immediatamente senza dispersioni nella sala. Con i sistemi direct-to-chip: l’acqua (o un refrigerante specifico) arriva direttamente sui chip principali (Cpu/Gpu), smaltendo fino al 90-95% del calore generato. Una frazione residuale (5-20% a seconda delle tecnologie) continua a essere gestita ad aria, ma in volumi ridotti. La possibilità di ricorrere allimmersion cooling (2), per certi aspetti “è la soluzione estrema, in questo senso: l’intero server è immerso in un fluido dielettrico (non conduttore, Ndr). Questo consente di trasferire il 100% del calore tramite liquido, con temperature più elevate che possono essere utili anche a fini di recupero termico”. Infine, i sistemi Xdu (e Cdu) prevedono – dopo aver raccolto il calore dal liquido – l’utilizzo di uno scambiatore che porti quest’ultimo all’esterno.

Andrea Faeti Vertiv
Andrea Faeti,Sales Director Enterprise Accounts di Vertiv Italia

E Vertiv, con le sue Liebert Xdu fornisce unità in grado di garantire la purezza del liquido refrigerante e di gestire la giusta temperatura di ingresso e uscita, tenendola a livelli più alti permessi dal costruttore dei chip (40-50°C o più) per minimizzare costi energetici e, allo stesso tempo, annullando i rischi di condensa”. Questo passaggio a temperature “tiepide” fa la differenza rispetto ai sistemi “legacy” che, funzionando a basse temperature, richiedono l’utilizzo intensivo del ciclo frigorifero negli apparati, con problemi di condensa e necessità di isolamento delle tubazioni. “Oggi, piuttosto si mira a temperature più elevate nel raffreddamento ad aria e addirittura a lavorare con acqua calda, fino ai 50 gradi nel raffreddamento a liquido – per agevolare la dissipazione passiva e aprire a scenari di recupero del calore per teleriscaldamento o processi industriali dove l’obiettivo non è più solo raffreddare la sala dati, ma usare l’alta temperatura come vera e propria risorsa: si guadagna così in costi di raffreddamento inferiori e nei relativi possibili riutilizzi energetici” – evidenzia Andrea Faeti.

Modernizzare il data center

Sono tantissimi i data center già attivi da anni e se implementare subito le soluzioni più moderne disponibili nei nuovi è ‘immediato’, i data center meno recenti non possono essere “ricostruiti” da zero. “In questi casi, esistono metodologie per integrare soluzioni a liquido senza dover rivoluzionare completamente l’infrastruttura e Vertiv anche in questo ambito fornisce il suo contributo”. Per esempio con l’utilizzo di Xdu “liquid to air”: si installano unità di conversione aria-liquido che “sfruttano il surplus di capacità di raffreddamento ad aria esistente, generando un circuito secondario a liquido, necessario per raffreddare i nuovi rack Hpc”. In tal modo, non si eseguono interventi strutturali, che risulterebbero di eccessivo impatto. O ancora è possibile, come soluzione ibrida “affiancare alcuni rack raffreddati a liquido accanto a rack tradizionali, con linee di alimentazione e raffreddamento dedicate solo dove realmente servono”. Diverso, come si accennava, il discorso per chi progetta un data center greenfield (da zero) mentre chi deve ragionare in termini di ammodernamento graduale, può anche valutare con appositi pilot su alcuni rack Hpc e poi estendere la scelta.

Fondamentale il rilievo di Faeti in proposito: “Questa gradualità è cruciale, specie se le aziende vogliono esplorare l’AI senza dover avviare un progetto di ricostruzione integrale del sito. L’importante è valutare la compatibilità tra server e infrastruttura, poiché la co-progettazione tra la parte IT e l’ambiente di raffreddamento/alimentazione risulta ormai decisiva”. A differenza del passato, non si può più quindi pensare a un data center “generico” che ospita qualsiasi server: i nuovi sistemi AI sono sensibili a parametri specifici, come la temperatura d’ingresso del fluido ma tali sistemi devono convivere con altri apparati, come sistemi di storage e di networking da gestire ancora ad aria.

Sostenibilità, priorità per le aziende

I temi di efficienza – di alimentazione e raffreddamento – sono strettamente correlati agli obiettivi di sostenibilità cui le aziende guardano con attenzione anche in relazione al tema delle certificazioni. Faeti: “Se in passato ci si concentrava soprattutto sulla continuità del servizio e, in seconda battuta, sulla ridondanza, oggi la sostenibilità (in termini di efficienza energetica e riduzione della CO₂) è al centro di ogni progetto”. Per questo il PUE (Power Usage Effectiveness) rimane un indicatore di riferimento. Misura quanto “vale” il consumo dell’infrastruttura rispetto a quello IT vero e proprio “e progettare data center con Pue bassi è un must”. Oggi si ragiona anche in termini di Efficienza IT, “per cui sempre più produttori di server e Gpu ottimizzano i propri componenti per migliorare le prestazioni di elaborazione per watt” e sul Recupero del calore, con la relativa “attenzione nella possibilità di riutilizzare l’energia termica in processi o reti di teleriscaldamento come sistema per incrementare la sostenibilità complessiva”. Nonostante la complessità, esistono linee guida e standard settoriali (ad esempio LeedIso, e le diverse normative nazionali o internazionali) che certificano la bontà progettuale e operativa di un data center. Un ambito in cui Vertiv da tempo collabora con i maggiori player del mercato per offrire soluzioni “chiavi in mano” che riducano non solo il Tco ma anche l’impatto ambientale. “La sostenibilità non è solo un requisito formale, ma diventa la base su cui le aziende impostano ogni scelta di design e di investimento nelle infrastrutture critiche” – sottolinea Faeti.

I trend e l’impegno di Vertiv

In previsione di un ulteriore rafforzamento dell’utilizzo dell’AI, è facile intuire quindi come nei prossimi mesi si assisterà alla nascita di nuovi DC sempre più “specializzati” per caratteristiche e specifiche nel supportare i workload per l’AI. Quindi siti con densità elevatissime, focalizzati su training di modelli AI di grandi dimensioni, dove liquid cooling e soluzioni Hpc dominano. “Ma in specifici contesti (ad esempio, aziende manifatturiere che vogliono inferenze real-time sui dati di produzione) sarà frequente anche l’installazione di piccole soluzioni Hpc in loco, evitando di ricorrere unicamente ai grandi cloud provider” – spiega Faeti -. Ed infine, se fino a qualche anno fa l’immersion cooling era vista come tecnologia di nicchia, l’immersione dei server in fluidi dielettrici si affermerà sempre di più per sistemi Hpc ad alta concentrazione, grazie alla grande efficienza termica e all’opportunità di ridurre al minimo l’ingombro e la complessità delle ventilazioni forzate. “Allo stesso tempo, la filiera dovrà sperimentare ulteriori soluzioni di alimentazione, come l’integrazione di fonti rinnovabili on-site, lo stoccaggio energetico (batterie di nuova generazione) e il microgrid, sempre per garantire continuità e abbassare l’impronta ecologica”.

Da anni Vertiv investe in R&D per migliorare sia i sistemi Ups sia i sistemi di raffreddamento. Il calcolo Hpc legato all’AI, in accelerazione esponenziale dalla fine del 2022, quando i grandi modelli di AI generativa hanno scalato la potenza di calcolo richiesta, ha trovato Vertiv in uno stato molto avanzato di sviluppo negli ambiti critici già analizzati – Xdu, gestione dei raffreddamenti a liquido, così come nei modelli perfezionati per il raffreddamento ibrido.  Secondo Faeti“la ricerca continuerà a spingersi verso densità di potenza più elevate e verso un’integrazione ancor più stretta con i produttori di server, poiché la sinergia tra server e infrastruttura determinerà il successo del data center”. Sarà invece sempre meno percorribile l’adozione di un approccio “standard”.

In tale scenario, l’esperienza di Vertiv nel fornire soluzioni complete di alimentazione e gestione termica diviene strategica per tutti i player che vogliano tenersi al passo, che siano grandi cloud provider, aziende enterprise o realtà edge che puntano su servizi AI localizzati. Chiude Faeti: “La centralità del data center nell’era dell’AI è fuori discussione; ‘vince’ chi riesce a innovare più velocemente e in modo sostenibile. E le tecnologie di alimentazione e raffreddamento devono integrarsi in architetture sempre più scalabili, pronte a rispondere”. La complessità, tuttavia, non deve far paura. L’approccio modulare e la consulenza proposti da Vertiv, con la sua esperienza nei sistemi mission-critical, offrono ai gestori dei data center la possibilità di compiere un passaggio sicuro e graduale verso la nuova era, dominata dall’AI e dall’efficienza energetica. Il percorso richiede investimenti e pianificazione, ma assicura ricadute tecnologiche ed economiche vantaggiose di grande portata.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: