Nel mondo dei data center, una delle sfide più grandi – e anche una delle maggiori opportunità– è rappresentata dal calore. Quando i componenti dei server sono in funzione, tutta l’energia elettrica che consumano viene convertita in calore, che deve poi essere dissipato. Tradizionalmente, le organizzazioni si sono affidate al raffreddamento ad aria, utilizzando ventole per gestire questo calore. Infatti, secondo alcune fonti, l’80% dei data center utilizza ancora principalmente il raffreddamento ad aria per dissipare il calore dai componenti dei server.

Tuttavia, il raffreddamento ad aria si rivela inefficiente e ad alto consumo energetico. Secondo un  recente studio di McKinsey, il raffreddamento ad aria può rappresentare fino al 40% del consumo energetico totale di un data center. Non sorprende quindi che il 40% degli operatori di data center (fonte: Spectra, Mitshubishi Heavy Industries) stia attivamente esplorando metodi di raffreddamento alternativi, alla ricerca di soluzioni ecologiche ed economicamente vantaggiose per garantire operazioni sostenibili.

Da un punto di vista strategico, questo approccio è sensato. Come sa bene chiunque abbia mai fatto volare un aquilone, l’aria può essere difficile da dirigere e controllare. Al contrario, i liquidi offrono un controllo molto più efficace, come dimostra l’esperienza di chi ha, sempre per utilizzare un esempio semplice ma esaustivo, usato una pistola ad acqua. In questo senso, le tecniche di raffreddamento a liquido stanno evolvendo rapidamente, soprattutto in risposta a server sempre più energivori che generano temperature elevate.

Data Center Power Consumption
Data Center Power Consumption (fonte: McKinsey, 2023, Usa)

Che cos’è il raffreddamento diretto al chip (Dtc)?

Il raffreddamento direct-to-chip (Dtc) rappresenta la metodologia più diffusa di raffreddamento a liquido, adottata da decenni sia nei data center che nel settore del gaming. Una piastra metallica, posta sopra i processori (Cpu o Gpu), è separata da questi da un materiale conduttore, tipicamente un’interfaccia termica (Tim). La piastra utilizza liquido in tubi per allontanare il calore dal chip, mentre un meccanismo di dissipazione lo disperde. Questa tecnologia offre un’efficace gestione termica per componenti ad alte prestazioni.

Nei contesti industriali, come i data center, si prediligono soluzioni più avanzate rispetto ai semplici sistemi a ventola singola. Gli scambiatori di calore a secco, dotati di meccanismi di raffreddamento evaporativo, rappresentano lo stato dell’arte in questo campo. Questi dispositivi, installati esternamente al data center, sono caratterizzati da scambiatori di calore alettati simili a radiatori, attraverso i quali circola il liquido riscaldato. Ventole esterne aspirano aria fresca facendola circolare tra le alette, raffreddando così il liquido. Il fluido raffreddato viene quindi reimmesso nel sistema, creando un ciclo continuo ed efficiente di gestione termica.

Nei mesi più caldi o in località con temperature elevate, il raffreddamento evaporativo viene impiegato in sinergia con gli scambiatori di calore a secco. L’aria calda viene fatta passare attraverso pannelli umidificati, provocando l’evaporazione dell’acqua e il conseguente raffreddamento dell’aria. Quest’aria raffreddata viene quindi utilizzata per abbassare la temperatura del liquido proveniente dal data center attraverso gli scambiatori di calore a secco. 

Questi metodi di dissipazione termica sono applicabili alla maggior parte dei sistemi di raffreddamento a liquido. Il raffreddamento direct-to-chip (Dtc) offre una maggiore precisione rispetto al raffreddamento ad aria, principalmente grazie alla facilità di direzionare il liquido in tubi verso componenti specifici. Mentre con il raffreddamento ad aria si può orientare il flusso mediante la disposizione delle ventole, il Dtc consente una precisione notevolmente superiore. Inoltre, grazie alle proprietà fisiche dei liquidi, che tipicamente possiedono una conducibilità termica più elevata rispetto ai gas, il Dtc risulta più efficiente. Tuttavia, anche con il Dtc, un certo grado di raffreddamento ad aria rimane spesso necessario. Questo è dovuto alle sfide nell’adattare molteplici design di piastre fredde per accomodare tutte le apparecchiature IT che generano calore.

Sebbene Gpu e Cpu producano la maggior parte del calore nei server, anche Ram e hard disk si surriscaldano, rendendo spesso necessario un raffreddamento ad aria complementare. Il rapporto tra raffreddamento ad aria e ad acqua si attesta generalmente intorno al 30% vs. 70%.

Raffreddamento a immersione monofase e bifase, le differenze

Il raffreddamento a immersione prevede l’immersione completa del server in un fluido, offrendo vantaggi significativi: raffreddamento simultaneo di tutti i componenti, gestione di carichi termici superiori e protezione dalla polvere, aumentando la durata del prodotto. Tuttavia, questa tecnologia presenta maggiore complessità rispetto al Dtc, con processi di manutenzione più impegnativi. Si distinguono due tipologie: monofase e bifase. Nel raffreddamento monofase, il liquido mantiene il suo stato durante l’intero ciclo, mentre nel bifase subisce appunto un cambiamento di fase.

Nel raffreddamento a immersione monofase, un fluido freddo entra alla base dell’unità di immersione per raffreddare il server, mentre il fluido riscaldato esce dalla parte superiore. Come nel Dtc, uno scambiatore di calore a secco raffredda questo fluido dopo il passaggio attraverso uno scambiatore di calore a piastre. Un circuito separato con refrigerante viene quindi utilizzato per dissipare il calore, garantendo un ciclo di raffreddamento efficiente e continuo. Nel sistema di raffreddamento bifase, i server sono immersi in un fluido con basso punto di ebollizione. Il calore dei componenti fa bollire il liquido, che viene diretto a un’unità di condensazione dove il vapore si raffredda e ritorna liquido, rientrando nel sistema. Nonostante l’efficienza, questa tecnologia presenta indubbie sfide: i refrigeranti sono generalmente più costosi e la manutenzione è più complessa, in parte a causa della gestione del vapore, e più difficoltosa rispetto al liquido nei sistemi monofase.

Riutilizzare il calore di scarto, una sfida

Il riutilizzo del calore di scarto rappresenta una sfida significativa per i data center, specialmente quelli più datati. Molti sono situati in aree industriali, lontani da zone dove il calore potrebbe essere facilmente riutilizzato. Il trasporto del calore tramite acqua richiede infrastrutture e comporta perdite energetiche. Alcuni data center affrontano limitazioni nel riutilizzo del calore: in alcuni casi, per esempio, l’acqua riscaldata raggiunge solo 45 gradi, rendendo il calore meno utile per applicazioni pratiche.
Tuttavia, l’innovazione continua ed è possibile utilizzare il calore di scarto anche per riscaldare gli uffici (come accade in un data center tedesco). In generale il settore Ict deve continuare a promuovere queste innovazioni, considerando il riutilizzo del calore fin dalla progettazione di nuovi siti. Negli ultimi vent’anni, la tecnologia di raffreddamento a liquido ha fatto progressi significativi, gestendo carichi di potenza e calore sempre più elevati. Sebbene la tecnologia a immersione sia ancora agli inizi, promette di gestire con efficacia componenti che operano a temperature molto elevate. Tuttavia, non esiste una soluzione universale, e probabilmente continueremo a vedere un mix di Dtc, raffreddamento a immersione e raffreddamento ad aria nei data center per gli anni a venire.

_

* Dottorando in meccanica dei fluidi e trasferimento di calore presso l’Université de Reims Champagne-Ardenne, Mohamad Hnayno è ingegnere e ricercatore, attualmente parte del team R&D di OvhCloud

© RIPRODUZIONE RISERVATA

Condividi l'articolo: