Il supercalcolo non è certo una novità di questi ultimi anni, è vero piuttosto che nei precedenti due decenni la maggior parte delle soluzioni dei vendor in questo ambito ha condiviso design simili, composti da cluster di server a scalabilità orizzontale e dalle Cpu di riferimento per il comparto, di fatto con interconnessioni standard di settore. L’approccio, come spiega Hpe in una specifica analisi dedicata, ha funzionato bene per le sfide da sostenere in quegli anni, in campo scientifico ed ingegneristico, per esempio per le applicazioni di studio dei fenomeni meteo e climatici, la fluidodinamica computazionale, la progettazione, la sicurezza.

E’ evidente però come lo scenario sia in marcata evoluzione. I carichi di lavoro aumentano, richiesti anche da applicazioni severamente impegnate dalla crescita dei dati da analizzare. Gli stessi tradizionali carichi di lavoro generati dalle applicazioni di modellazione e simulazione oggi utilizzano AI, e advanced analytics. Le stesse tecnologie IoT possono arrivare ad impegnare in modo significativo le risorse disponibili. In un contesto che, anche per quanto riguarda le risorse di elaborazione, propone oggi scelte diverse e interessanti (si pensi oltre alle piattaforme x86, anche alle architetture Arm, alle moderne Gpu e ai gate array programmabili, Fpga) non è per nulla facile prevedere quali architetture di elaborazione potranno offrire più valore.

E’ comunque possibile individuare alcune linee guida. In primis, chi sfrutta i sistemi Hpc avrà bisogno che essi supportino un’ampia varietà di piattaforme di elaborazione. E soprattutto sarà presto necessario aggiornare il parco disponibile alle nuove architetture. Per questo Hpe, tra i primi attori sul mercato nel comparto, ma con alcuni tasselli tecnologici mancanti, si è mossa prima con l’acquisizione di Sgi nel 2016 e nell’autunno dello scorso anno ha acquisito Crayazienda fondata addirittura nel 1972 specializzata nella produzione di supercomputer. Ora quest’ultima acquisizione porta i primi frutti.

Hpe ha già ripensato, quasi dalle fondamenta, alle nuove architetture ed è pronta per il calcolo exascale (si riferisce a sistemi in grado di calcolare almeno 10¹⁸ operazioni in virgola mobile al secondo) proposto inseguendo in modo particolare la flessibilità proposizionale. E questo perché se è vero che ovviamente non tutte le realtà hanno bisogno di un sistema exascale, è ancora più vero che le tecnologie exascale possono rivelarsi invece utili a tutte le organizzazioni e in futuro questo sarà ancora più evidente. 

Hpe Cray, il supercalcolo a disposizione delle aziende

Ecco che in questo scenario l’architettura di supercomputing della nuova linea Hpe Cray (raffreddata ad aria), ed in particolare di Hpe Cray EX (raffreddato a liquido), rappresentano la risposta del vendor a queste esigenze, sulla base di un design sostanzialmente rinnovato. Quindi elaborazione, software, interconnessione e sistemi di archiviazione sono stati ripensati per soddisfare i requisiti “futuri”.

Hpe Cray EX - La vista esplosa del cabinet
Hpe Cray EX – La vista esplosa del cabinet

Al centro nel nuovo modello sono i dati e i carichi di lavoro convergenti e diversificati, per esempio in relazione alle elaborazioni che sfruttano l’intelligenza artificiale, che devono essere eseguiti in contemporaneità. Le novità introdotte a livello hardware e software sono volte ad eliminare i colli di bottiglia, anche in fase di spostamento dei dati e nelle procedure di input/output. Non solo, la nuova architettura punta ad eliminare la distinzione tra il modello basato sui cluster e i recenti supercomputer, con le tecnologie di gestione delle interconnessioni tra i diversi fattori di forma decisamente maturate, rispetto al passato, tra cui Hpe Slingshot. Consente l’esecuzione diretta di carichi di lavoro convergenti e simili a quelli portati in cloud ma in un ambiente di supercalcolo ed in pratica apre ad una nuova classe di utenti la possibilità di di passare dal tradizionale computing basato su cloud alle prestazioni, alle capacità ed alla scalabilità del supercalcolo

Di recente Peter Ungaroa capo del business group Hpe High Performance Computing (Hpc) and Mission Critical Solutions (Mcs) ha presentato la nuova proposta sottolineando in particolare come “non si tratta di singoli supercomputer che sfruttano tecnologie specifiche o uniche, solo per limitati ambiti di utilizzo” ma, proprio in linea con il trend identificato le possibilità di calcolo exascale indirizzate con le nuove soluzioni riguarderanno “sempre di più non solo le istituzioni di ricerca ma anche le organizzazioni commerciali. La crescita esponenziale dei dati e la trasformazione digitale in atto infatti impatta tutte le aziende”

Peter Ungaro HPE
Peter Ungaro HPE

Tra le tecnologie Cray su cui si lavora c’è Shasta – la piattaforma di supercomputing sviluppata dal 2018 – è già in fase di sviluppo sui primi tre sistemi exascale statunitensi. Mano a mano che le nuove funzionalità verranno prodotte e introdotte “appariranno prima nella linea di supercomputer Hpe Cray e quindi saranno supportate in modo più ampio in vari prodotti e offerte Hpe”. Il completamento dell’integrazione tra le diverse tecnologie si rivelerà funzionale per fornire a ricercatori e ingegneri gli strumenti più adeguati “per modellazione, simulazione, analisi e intelligenza artificiale disponibili per trasformare il modo in cui viviamo e lavoriamo”.

In estrema sintesi i principali vantaggi offerti dai sistemi Hpe Cray Ex sono riconducibili all’architettura raffreddata a liquido in un fattore di forma flessibile, pronto a supportare i diversi form factor per quanto riguarda le tecnologie di calcolo (Cpu e Gpu). Il raffeddamento a liquido si rivela funzionale a supportare gli elementi di elaborazione e i cabinet collegati alla rete ad alta velocità con Hpe Slingshot per i carichi di lavoro specifici dell’Hpc e dell’AI, a livello di nodo e di sistema.

Hpe Cray Ex è in grado di scalare fino a centinaia di cabinet e centinaia di migliaia di nodi e proprio la flessibilità architetturale permetterà di supportare eventuali evoluzioni e update/upgrade in futuro. Inoltre l’utilizzo minimo di cavi, l’assenza di parti meccaniche in movimento (come per esempio le ventole), e ovviamente il raffreddamento a liquido, contribuiscono all’affidabilità complessiva della piattaforma.

© RIPRODUZIONE RISERVATA