In diversi contesti ed in più occasioni abbiamo evidenziato le potenzialità ed i benefici dell’High Performance Computing per lo sviluppo dei progetti di ricerca, e l’interesse sul tema anche da parte di accademie e università. Tra gli atenei impegnati in questo ambito c’è anche l’Università degli Studi di Torino che, all’interno del progetto Hpc4AI, ha dato vita nel 2018 al laboratorio Hpc4AI@UniTO.

L’iniziativa Hpc4AI è volta alla realizzazione di una federazione di infrastrutture di calcolo per alimentare i progetti di ricerca. Si tratta di un progetto finanziato grazie a 4,5 milioni di euro del bando competitivo Grandi Infrastrutture dell’Unione Europea Por-Fesr 2014-2020 (primo classificato) e del cofinanziamento dei due atenei torinesi (Università e Politecnico di Torino). In particolare, il laboratorio “open access” Hpc4AI@UniTO è ospitato dal dipartimento di informatica ed è attivo sui temi legati alla progettazione dei metodi e degli strumenti per il cloud e high performance computing (Hpc), con uno specifico interesse per le applicazioni legate all’intelligenza artificiale (AI).

Il contesto

La risorsa laboratorio è strutturata (da qui la definizione di lab “open access”) in modo che i ricercatori di varie discipline possano sperimentare la progettazione e l’uso di sistemi di calcolo e servizi cloud ad alte prestazioni e dei sistemi prototipali; allo stesso tempo gli studenti possono studiare e toccare con mano la complessità dei sistemi di grande scala per imparare a dominarla. Ma il laboratorio è aperto anche alle imprese del territorio che possono co-progettare nuove applicazioni insieme agli esperti di dominio di UniTO. La struttura offre servizi di calcolo e di progettazione che ne garantiscono la sostenibilità economica e nel primo anno di attività Hpc4AI@UniTO ha partecipato a progetti di ricerca finanziati per un costo totale di oltre 150 milioni di euro.

La sfida

Un lab strutturato come Hpc4AI@UniTO vive, oltre che di risorse infrastrutturali, anche del potenziale intrinseco nell’accrescere le competenze e le capacità progettuali in chi partecipa in ogni diversa forma alla realizzazione di sistemi hardware e software in ambito Ict sfruttando proprio le disponibilità del lab. Si tratta di competenze importanti per l’innovazione delle diverse filiere produttive la cui capacità di innovare dipende da esse, e dalla possibilità di testare le tecnologie per mettere a terra poi progetti concreti. La concretezza del progetto in questo caso si lega all’esigenza per i ricercatori di UniTO di progettare insieme ai partner tecnologici – tra cui Vertiv – sia un’infrastruttura tecnologica data center sia i relativi sistemi per il suo corretto funzionamento.

La progettazione stessa costituisce un esercizio di ricerca concreto basato su parametri sfidanti per prestazioni, continuità operativa, affidabilità, efficienza energetica. I ricercatori, quindi, si sono posti l’obiettivo di progettare un data center modulare al punto da poter essere collocato negli spazi preesistenti nel mezzo del Dipartimento di Informatica, all’interno del Centro Piero della Francesca di Torino e realizzato come un oggetto di design che possa essere fonte di ispirazione per studenti e ricercatori.

Il metodo

Per la creazione del data center, il personale tecnico dell’Università si è confrontato con gli esperti di Vertiv e con lo studio di ingegneria incaricato della progettazione, in particolare per perseguire gli obiettivi di modularità e di risparmio dal punto di vista economico come da quello energetico.

Marco Aldinucci
Prof. Marco Aldinucci, Dip. Informatica Università di Torino

Spiega il professor Marco Aldinucci, Dip. Informatica Università di Torino: “Il nuovo data center doveva essere progettato secondo i più innovativi sistemi, sia per il raffreddamento che per l’alimentazione in continuità e rispondere ai parametri più stringenti in fatto di consumo energetico e impatto ambientale. I criteri sui quali ci siamo concentrati sono stati: predisporre un sistema Tier III con un basso impatto strutturale interno al data center; garantire la riduzione dei consumi energetici per l’infrastruttura di raffreddamento e alimentazione in continuità; predisporre un’infrastruttura smart e ampliabile; assicurare un valore pPue per il raffreddamento del data center inferiore a 1,1 ]…[”.

Vertiv ha collaborato alla realizzazione del DC nell’ultimo piano dello stabile, posto immediatamente sotto il lastrico solare, una collocazione virtuosa per implementare un sistema di raffreddamento Vertiv a tutt’aria innovativo anche per quanto riguarda l’efficienza energetica e per usufruire della vicinanza della cabina elettrica per implementare la parte di alimentazione in continuità, allo stesso tempo sfidante per quanto riguarda il tema della silenziosità e dell’efficienza.

Stefano Mozzato, Country Manager Vertiv Italia
Stefano Mozzato, country manager Vertiv Italia

Ma, spiega Stefano Mozzato, country manager di Vertiv Italia: “Uno degli elementi distintivi che è stato riconosciuto nella soluzione proposta è l’estrema silenziosità nei locali adiacenti: le pareti vetrate trasparenti mantengono un livello di impatto sonoro molto basso e, allo stesso tempo, delimitano il Ced pur permettendo a docenti e studenti di vederlo. Anche sul tetto si registra un impatto sonoro molto basso: essendo l’edificio situato a Torino in un centro molto affollato, l’Università ha ritenuto fondamentale scegliere una soluzione innovativa come Vertiv Liebert Efc per non impattare sull’inquinamento acustico. Quindi Ced con awareness di impatto ambientale contenuto, ma senza ridurre le necessità di progetto: Hpc4AI e silenziosità sono rette parallele che abbiamo fatto incontrare.”

Le soluzioni

In termini di specifiche tecniche il DC tier III (con replicazione N+1) è pensato in grado di supportare fino a 250kW di apparecchiature Ict organizzate in 16 armadi da almeno 20kVA con anche un server ad alta densità (1,5 kW per unità). Per assecondare l’idea dell’“oggetto di design” si è voluto realizzare il DC all’interno di una teca di vetro blindata e insonorizzata, che fosse visibile a studenti e ricercatori di passaggio all’interno del dipartimento di Informatica senza per questo sacrificare i livelli di efficienza energetica allo stato dell’arte richiesti per i data center di questa categoria (in particolare, per il raffrescamento, pPue<1,06).

Proprio le soluzioni di raffrescamento, originali, come abbiamo già accennato, meritano un approfondimento. Il DC adotta un impianto esterno a tutt’aria ad alta efficienza, innovativo nel suo insieme in quanto comprende free cooling indiretto, integrazione di raffreddamento evaporativo e sistema ad espansione diretta. L’acqua viene trattata per il reintegro del sistema di raffreddamento evaporativo implementato dall’installatore. Sono presenti reti di scarico per i nuovi impianti e un impianto di condizionamento per il locale Ups realizzato con unità perimetrale ad espansione diretta e condensatore esterno in copertura.

Università di Torino Data Center
Università di Torino – Il data center modulare realizzato all’interno del Dipartimento di Informatica 

L’installatore Euroimpianti si è occupato invece della parte di infrastruttura elettrica. Quindi ha disposto il cablaggio strutturato per utenze tecnologiche; l’impianto di illuminazione normale e di sicurezza; ha predisposto di prese forza motrice e le prese di rete (RJ45); i sistemi di protezione contro i contatti indiretti; quello di rilevazione e segnalazione incendio per locali tecnici e l’impianto di estinzione del fuoco. Oltre a questo, l’azienda si è occupata anche  dell’impianto di controllo accessi con diverse tecnologie token (smartcard, qrcode, pin). Euroimpianti infine ha curato anche l’illuminazione dell'”oggetto” data center tramite la fornitura e la posa di apparecchi illuminanti per diffondere luce normale e sicura. 

Infine, per quanto riguarda la sicurezza antincendio è stata scelta la tecnologia Novec che consente la salvaguardia del materiale IT. Il DC comprende al suo interno un impianto automatico a gas inerte che in caso di incendio si riversa nella sala IT, per abbattere la  concentrazione di ossigeno ed estinguere le fiamme. Il sistema sfrutta inoltre ventilatori e serrande, azionabili manualmente una volta estinto l’incendio per permettere il lavaggio del locale. Infine, dove sono presenti apparecchiature elettroniche è stato installato numero minimo di 2 estintori a CO2.

Obiettivi e vantaggi

Il professor Marco Aldinucci mette a fuoco anche gli obiettivi raggiunti: “La soluzione di Vertiv ci ha consentito di ottenere una sostanziale riduzione della complessità relativa all’impianto di raffreddamento e innumerevoli vantaggi quali: assenza di tubazioni e acqua all’interno del locale data center con conseguente aumento della sicurezza; riduzione del rumore; riduzione dei tempi di implementazione; aumento dello spazio per i rack (quindi molto più spazio per l’installazione dei server dedicati a Hpc, AI e Bda) all’interno dello stesso perimetro del data center; maggiore sicurezza dell’infrastruttura IT.”

Il DC realizzato beneficia di una climatizzazione efficace e efficiente dal punto di vista energetico grazie alla combinazione di tre modalità di raffreddamento (free cooling indiretto, raffreddamento evaporativo e sistema ad espansione diretta).

L’infrastruttura è però realizzata in modo da consentire anche uno scambio in tempo zero tra l’alimentazione da rete e il gruppo elettrogeno che garantisce la continuità di funzionamento del data center, con l’alimentazione a tutto il carico elettrico del data center per 12 ore che protegge l’infrastruttura di calcolo da sostanziali interruzioni dell’alimentazione elettrica da rete. Un gruppo Ups calibrato sulle effettive esigenze e ridondanza N+1 con in parallelo un secondo Ups equivalente e monitoraggio remoto preventivo, con assistenza in loco garantita entro le 4 ore in caso di necessità, completano le caratteristiche del DC realizzato. 

© RIPRODUZIONE RISERVATA

Condividi l'articolo: