Secondo lo studio Idc Data Age 2025: The Digitization of the World From Edge to Core la crescita dei dati a livello globale raggiungerà i 175 Zettabyte, circa quattro volte di più rispetto al volume attuale. Comporterà una serie di sforzi importanti per le strutture di elaborazione e storage che devono adattarsi a dataset molto più ampi e processi di analisi che richiedono calcoli intensivi.
Per questo i ricercatori nelle università si stanno orientando a considerare il passaggio verso i sistemi exascale, in grado di compiere un quintilione (10 elevato alla diciottesima) di calcoli al secondo. Significa disporre di supercomputer cinque volte più veloci rispetto al migliore supercomputer disponibile oggi, funzionali per esempio per studiare in tempi rapidi le pandemie, ma anche velocizzare il testing sui medicinali.
Università di Cambridge
Non mancano esempi interessanti sia all’estero sia in Italia. Per quanto riguarda le esperienze all’estero l’Università di Cambridge, che ospita uno dei principali supercomputer del Regno Unito, con l’aiuto di Dell Technologies ed Intel l’ateneo è impegnato a lanciare l’iniziativa Open Exascale Lab.
Il laboratorio di Cambridge permette agli esperti di tecnologie avanzate di lavorare insieme sui sistemi Hpc di prossima generazione, in un ambiente basato sui server, sul networking e sullo storage di Dell Emc e sulle recenti tecnologie Intel.
Per quanto riguarda lo storage, in particolare, la collaborazione tra l’ambiente accademico e i vendor ha dato vita (l’implementazione iniziale è del 2019 sul supercomputer dell’ateneo Cumulus) a un sistema storage open source dedicato all’Hpc in grado di ridurre i colli di bottiglia per quanto riguarda le prestazioni, un problema tipico da sempre del “dialogo” tra risorse di calcolo e dati e Dell Emc Ready Solutions for Hpc – Data Accelerator (Dac), sfrutta le prestazioni dei drive Nvme per rendere disponibili i risultati in meno tempo.
Paul Calleja, director of research computing dell’Università di Cambridge, così spiega: “Stiamo realizzando un sistema con alti livelli di calcolo e I/O pensato in modo particolare per chi si occupa di analytics o machine learning ed elabora grandi quantità di dati, il Data Accelerator può essere adoperato per rendere disponibile l’accesso a capacità di ricerca data-centric a nuove comunità emergenti”.
Università di Pisa
Forse ancora più interessante in questo ambito il progetto dell’Università di Pisa. L’ateneo è un centro di eccellenza Dell Technologies per quanto riguarda Hpc e AI e vuole rendere più accessibili i vantaggi dell’High Performance Computing e dell’intelligenza artificiale, è tra le prime realtà ad utilizzare il sistema Dell Emc PowerStore ideato per sfruttare insieme automazione, tecnologie di nuova generazione e nuove architetture software per permettere di lavorare in agilità la mole crescente di dati, semplificando l’infrastruttura necessaria per farlo e comunque riuscendo a supportare diversi workload, attraverso un’architettura scale-up e scale-out.
L’interesse su questo progetto è alimentato dalla modalità di utilizzo delle tecnologie di virtualizzazione Vmware che consente di sfruttare le risorse in modo più conveniente, con deployment e gestione infrastrutturale semplificati.
In verità l’università dispone delle soluzioni di virtualizzazione sia Vmware, sia Microsoft, ma è il primo ambiente a crescere sulla base della proposta iperconvergente Vmware vSan e soprattutto per i vantaggi offerti da Vmware Horizon (per quanto riguarda il virtual desktop), che permette già sui computer di laboratorio di sfruttare attraverso le macchine virtuali le risorse di calcolo Hpc. Per un balancing complessivo nella distribuzione dei carichi di lavoro afferibile per metà proprio a risorse virtualizzate e per meta a server bare metal.
Chiaramente quando serve l’accesso alla soluzione di computing e a software particolari l’utilizzo di una VM è più vantaggioso. A livello infrastrutturale invece i cluster operativi in università si basano su Vmware vSphere e i server Dell Emc PowerEdge. Anche per la parte di rete l’ateneo sfrutta le soluzioni Dell Technologies. L’interesse per quanto riguarda le scelte di virtualizzazione si lega alla possibilità di sfruttare i vantaggi dell’iperconvergenza su più DC per una maggiore agilità nella gestione dei carichi di lavoro.
E’ proprio la flessibilità, non solo per quanto riguarda la virtualizzazione, quindi il vantaggio più importante come evidenzia il Cto dell’Università di Pisa, Maurizio Davini: “PowerStore combina i vantaggi dell’hardware e del software di storage all’avanguardia ed è questa flessibilità nel definire le risorse per i nostri utenti e per le nostre applicazioni che fa la differenza e ci permette di soddisfare più rapidamente le mutevoli esigenze che dobbiamo affrontare”.
Università di Cardiff
L’ultimo esempio che riportiamo riguarda il Servizio Sanitario Nazionale del Regno Unito (Nhs) e l’Università di Cardiff. In un recente contributo abbiamo raccontato i vantaggi dati in medicina dalle ricerche basate sul sequenziamento del genoma.
Il dottor Thomas Connor, responsabile della bioinformatica presso la Public Health Wales Pathogen Genomics Unit, così commenta: “Il sequenziamento del genoma aiuta anche a capire Covid-19 e la sua diffusione”, e in questo ambito si muovono i progetti dell’università.
I team di bioscienze Nhs e i ricercatori dell’università hanno scelto di sequenziare il genoma con le soluzioni Hpc di Dell Technologies. Circa 30mila sono i genomi Sars-Cov-2 sequenziati, mentre è in atto la mappatura sulla diffusione di Covid-19. Analizzando i campioni di pazienti con casi confermati di Covid-19, “gli scienziati possono monitorare i cambiamenti in atto nel virus su scala nazionale per capire come si diffonde e intercettare l’insorgere di nuovi ceppi”.
© RIPRODUZIONE RISERVATA