HomeScenariI Supercomputer. Cosa sono, come funzionano e a cosa servono, anche nell'industria

I Supercomputer. Cosa sono, come funzionano e a cosa servono, anche nell’industria

Dalla ricerca di nuovi farmaci alla gestione del rischio finanziario, dall’emergenza climatica ai digital twin industriali: la potenza di calcolo ha un ruolo sempre più rilevante per affrontare la complessità del mondo odierno. Aspettando la grande rivoluzione quantistica

Leggi le riviste ⇢

Ti potrebbero interessare ⇢

Silvia Marigonda

I cosiddetti supercomputer sono sistemi di elaborazione progettati per ottenere capacità di calcolo molto elevate, allo scopo di eseguire operazioni matematiche ad altissime prestazioni. Spesso sono denominati anche Hpc, ovvero High Performance Computer.

Il computer tradizionale è stato concepito per essere utilizzato da un utente per svolgere soprattutto operazioni di carattere generico. Il supercomputer nasce come sistema destinato a rimanere confinato all’interno di un datacenter e ad avere compiti ben specifici. I supercomputer tradizionalmente supportano la computazione di simulazioni complesse legate alla ricerca in vari settori. Si va dalla medicina alla fisica, alla biologia, alla chimica, all’aerospazio. Non mancano anche gli ambiti militare, climatico o cybersecurity.

Le applicazioni vanno, ad esempio, dalla medicina personalizzata alla progettazione di farmaci e di nuovi materiali fino allo studio dell’evoluzione climatica e alle previsioni meteorologiche. In quest'ultimo caso con la possibilità di pre-allertare in caso di eventi estremi quali tempeste o tsunami, predicendone intensità e portata.

I Digital Twin sono ad esempio utilizzati per simulare le dinamiche del pianeta Terra attraverso una struttura multicomponente, che prevede un gemello digitale per l’oceano, uno per gli aspetti di geofisica, uno per l’impatto antropico, uno per l’atmosfera, in combinazione fra loro, e multiscala. Lo stesso modello multicomponente, a tendere, potrà anche essere impiegato per fare previsioni circa l’impatto epidemiologico di specifiche patologie in specifiche aree. Potrà intercettare, ad esempio, focolai di diabete prima della fase acuta. Ne consegue la possibilità di sviluppare misure di medicina personalizzata e di prevenzione.

I supercomputer sono, infine, anche indispensabili per applicazioni di intelligenza artificiale, in particolare in ambito deep learning e per il peso computazione richiesto dalla blockchain.

Le tipologie di supercomputer: alcuni cenni tecnologici

Esistono varie tipologie di supercomputer, in base alla tecnologia impiegata. Il modello computazionale a calcolo vettoriale, ad esempio, consente di svolgere la stessa operazione, aritmetica o logica, su molti dati simultaneamente. I sistemi dotati di tali caratteristiche sono, ad esempio, le schede video per il rendering dei videogiochi e delle applicazioni in computer grafica 3D.

Nel modello computazione a calcolo parallelo, invece, il calcolo dei carichi di lavoro avviene in parallelo su più processori. Questa logica consente di strutturare i sistemi Hpc con un approccio modulare, affiancando un numero incredibilmente elevato di unità di calcolo. Molti problemi analizzati dai supercomputer possono essere di fatto parallelizzati in modo tale da sfruttare il meno possibile la memoria di sistema, ma utilizzando invece la più veloce memoria di cache dei processori stessi o dei chipset integrati. Il calcolo parallelo consente di avere unità di calcolo indipendenti, ma capaci di dialogare con tutte le altre connesse allo stesso sistema Hpc. Tale logica permette di costruire delle strutture computazionali enormi, totalmente scalabili e valutabili ormai nell’ordine di milioni di core.

Nel modello computazione a cluster, abbiamo una serie di personal computer tra loro connessi tramite soluzioni a bassa latenza. Questo modello ha il proprio punto di forza nel fatto di non essere nativamente un supercomputer, bensì, propriamente, una rete di semplici computer, le cui tecnologie di massa possono abbattere sensibilmente i costi complessivi e la cui gestione risulta sicuramente più flessibile rispetto a quella dei datacenter tradizionali.

Nel modello computazione a grid viene messa in rete la potenza di calcolo di vari sistemi di elaborazione, costituiti da vari Hpc, che non si trovano per forza in una condizione di prossimità fisica. La tipologia di grid più nota, detta “quasi-supercomputer”, sfrutta un’applicazione in grado di distribuire il calcolo su più sistemi, che comunicano i dati al server centrale in maniera del tutto indipendente tra loro. Tale modello costituisce da tempo la base di funzionamento dei progetti collaborativi @home, utilizzati per la ricerca in ambito scientifico.

L'hardware e il software dei supercomputer

I supercomputer oggi adottano in larga misura sistemi operativi open source, con una netta prevalenza di distribuzioni Linux (98%). Le interfacce grafiche di gestione sono le stesse dei server Linux standard, in questo caso implementate sui sistemi Hpc (come Red Hat, CentOS e così via). Le applicazioni vengono scritte prevalentemente utilizzando il linguaggio di programmazione Fortran. Questo linguaggio è capace di sfruttare al meglio le architetture parallele dei supercomputer e risulta più semplice rispetto al C++, soprattutto per quanto riguarda la qualità del codice elaborato dai compilatori.

A livello software, il calcolo distribuito è, ad esempio, garantito da soluzioni open source come Beowulf e openMosix, che possono creare dei supercomputer virtuali astraendo le risorse dei computer tradizionali che compongono un determinato cluster.

A livello hardware, un’architettura standard prevede che ogni rack sia composto almeno da una serie di processori dotati di proprietà di calcolo vettoriale, di un sistema di memoria Numa (Non-Uniform Memory Access), di unità disco Hdd e/o Ssd configurati in Raid, di sistemi di raffreddamento a liquido, e di interfacce in grado di garantire una connessione ottimale con i dataset e le informazioni fornite dai carichi di lavoro.

I vari rack vengono installati nei cabinet all’interno dei datacenter che li alimentano in ambienti controllati. Si tratta di sistemi che consumano molta energia e che generano un’enorme quantità di calore, che deve essere opportunamente dissipata.

I supercomputer e la partita geopolitica

Nel giro di pochi anni, la topten dei supercomputer più potenti ha visto il passaggio da un sostanziale duopolio di Cina e Stati Uniti (che nel 2018 occupavano 8 delle 10 posizioni) a una classifica più eterogenea (nel 2020 Cina e Stati Uniti occupavano 6 delle 10 posizioni) all’interno della quale compaiono ora eccellenze europee come quelle italiane (il caso di Eni) e tedesche (del Forschungszentrum Juelich).

In Europa, le attività del polo EuroHpc sono fondamentali per allocare le risorse necessarie a predisporre, ad esempio, l’installazione di otto supercomputer in vari datacenter collocati esclusivamente in Europa. Tra questi figura il Cineca di Bologna, dove verrà avviato l’Hpc Leonardo.

Gli altri centri europei previsti sono Sofia (Bulgaria), Ostrava (Repubblica Ceca), Kajaani (Finlandia), Bissen (Lussemburgo), Minho (Portogallo), Maribor (Slovenia), Barcellona (Spagna). Nell’aprile 2021 è stato presentato a Maribor Vega, il primo supercomputer realizzato dall’EuroHpc.

Da un lato, a livello comunitario, vengono definite le iniziative per l’autosufficienza tecnologica, che godono del finanziamento diretto da parte della Commissione Europea. Dall’altro, i singoli Paesi membri possono di fatto aggiungere obiettivi specifici per il loro interesse nazionale, a patto che contribuiscano a cofinanziare le iniziative principali. La crisi pandemica ha evidenziato infatti come sia non solo necessario partecipare a consorzi, ma anche avere infrastrutture, competenze e applicazioni proprie, in modo da mitigare gli impatti di possibili crisi, come quella che attualmente coinvolge a livello globale i semiconduttori.

La partita si gioca anche a livello geopolitico. Nell’aprile 2021, ad esempio, la nuova amministrazione Biden, sulla scia della precedente amministrazione Trump, ha posto in black list altri sette sviluppatori di supercomputer cinesi. A questi non potranno più essere venduti materiali finalizzati alla costruzione di supercomputer (come i microchip). La motivazione alla base della scelta è che le sette aziende stanno collaborando con le forze armate cinesi per un ammodernamento dell’esercito, incluso l’utilizzo di supercomputer. Le capacità di supercomputing sono infatti vitali per lo sviluppo di quasi tutte le armi moderne e dei sistemi di sicurezza nazionale, come le armi nucleari o quelle ipersoniche.

Lo scenario in Italia

In Italia, il piano strategico è invece quello di creare una federazione, a livello nazionale, tra le macchine di supercalcolo, in modo da poterle utilizzare insieme in caso di emergenze, come possono essere la pandemia, nell’ottica di cercare una potenziale cura, o anche in presenza di cyberattacchi a infrastrutture critiche.

In questo modo, ci sarà la possibilità di disporre di tutta la potenza di calcolo esistente sul territorio nazionale attraverso una architettura federata, resa possibile dal Cloud Computing, che comprenda, ad esempio, le macchine di Cineca, di Eni e di Leonardo, e che sia in grado di eseguire le applicazioni necessarie per rispondere alle crisi sistemiche.

La “data valley” nazionale e il supercomputer Leonardo

In Italia, Bologna è stata scelta dal progetto EuroHpc, perché l’Emilia Romagna ospita già la cosiddetta “data valley”, con concentrata oltre il 70% della potenza di calcolo nazionale. La data valley emiliano-romagnola è il risultato di una visione a lungo termine capace di ridisegnare un intero territorio e il suo ecosistema.

Il progetto, partito già a metà degli anni 2000 con la Conferenza Regione-Università, ha visto la collaborazione di Regione, imprese e centri di ricerca, il Cineca e l’Istituto nazionale di fisica nucleare. Ha l’obiettivo di rendere l’infrastruttura nazionale per il supercalcolo della Regione un abilitatore trasversale per lo sviluppo di tutto il sistema produttivo e formativo dell’area. Un'area che soprattutto negli ultimi anni ha registrato una crescita tecnologica molto importante. Nel 2018, infatti, è stato approvato il progetto che ha portato il posizionamento del Datacenter del Centro meteo europeo nel Tecnopolo di Bologna. L’anno seguente, la Commissione Europea ha scelto proprio il Tecnopolo per l’installazione del supercomputer Leonardo.

Si stima ora che l’operazione “supercomputer Leonardo”, e i 120 milioni di fondi europei a essa destinati, genereranno un impatto diretto, indiretto e indotto di circa 515 milioni di euro. Con l’accensione del supercomputer Leonardo, in Emilia Romagna si concentrerà inoltre il 20,9% della potenza di calcolo europea e l’Italia diventerà di fatto la quarta nazione al mondo per capacità computazionale.

Il cuore pulsante di Leonardo sarà composto da ben 14mila processori accelerati Gpu di Nvidia, tecnologia BullSequana XH2000 di Atos (per la connessione dei 1.536 nodi cpu con processori Intel Xeon Sapphire). Il supercomputer occuperà una superficie di circa 1.500 m2 e avrà una Ram di oltre 3 petaByte, con un consumo di 9.000 kW di energia elettrica.

Leonardo sarà in grado di eseguire 250 milioni di miliardi di operazioni al secondo (prestazioni Hpl aggregate pari a 250 Pflop) e sarà dotato di una capacità di archiviazione di oltre 100 petaByte; ciò gli permetterà di essere circa dieci volte più prestazionale del già menzionato

La potenza dei supercomputer: le opportunità per le piccole e medie imprese

L’enorme crescita dei dati, insieme all’impiego dell’intelligenza artificiale e all’analisi ad alte prestazioni, sta determinando un aumento della necessità di Hpc in aziende di tutte le dimensioni, anche medio-piccole. Queste, fra l’altro, proprio per le loro dimensioni, spesso non possono contare su un grande budget o sulla disponibilità di personale specializzato.

In Italia, le aziende, anche piccole, possono ricorrere alla collaborazione di Cineca, attivo all’interno del progetto europeo EuroCC, che intende proprio favorire l’adozione di attività legate a supercalcolo soprattutto nelle piccole e medie imprese. Oltre alle risorse di calcolo, viene fornito anche il know-how di supporto, costituito da esperti di dominio. Il supercalcolo è infatti una tecnologia trasversale e per ciascun settore e ciascuna azienda esistono uno specifico percorso e una modalità appropriati che dipendono dall’ambito e dagli obiettivi che ci si prefigge.

Sempre in ambito italiano, già dal 2020, con Hpe (Hewlett Packard Enterprise) anche le piccole imprese possono accedere al supercalcolo, in modalità pay-per-use. Così, possono ad esempio effettuare modellazioni 3D o simulazioni attraverso digital twin, evitando o molto limitando la prototipazione fisica. In particolare, l’azienda può acquistare un pacchetto preconfezionato costituito da hardware di calcolo specializzato, software containerizzato su Cloud ibrido, e poi storage, networking e tutti i necessari servizi. Compresa la gestione complessiva, dal punto di vista hardware e della sicurezza. Il tutto può essere erogato presso il datacenter del cliente oppure in un sito in co-location.

Stando alle stime di Hewlett Packard Enterprise, questo tipo di approccio abbatte del 40% l’investimento medio iniziale che si avrebbe per un sistema di supercalcolo “fatto in casa”. Abbrevia fino al 75% i tempi di implementazione (la consegna avviene infatti a 14 giorni dall’ordine), di fatto ampliando la platea di imprese che possono accedere a questo tipo di strumenti.

Tipologia di azienda e caso d'uso Vantaggi rilevati con utilizzo di supercomputer
Pmi operante nel settore del serraggio e della sigillatura di grandi impianti industriali del comparto energy.
L’obiettivo era ottimizzare la progettazione della flangia di serraggio
Riduzione del 33% tempo di progettazione
Riduzione costi di manodopera di fermo macchina
Risparmio di circa 180mila euro, per il cliente finale, per singolo serraggio
Pmi operante nel settore della tecnologia degli acciai speciali
L’obiettivo era ottenere un’ottimizzazione nell’ambito della gestione delle scorie di lavorazione
Sviluppo di un nuovo sistema di monitoraggio
Miglioramento della qualità complessiva dell’acciaio
Riduzione della rifusione
Riduzione della perdita di acciaio di 6mila tonnellate all’anno
Risparmio fra 420mila e 600mila euro all’anno
Pmi operante nell’ambito della progettazione urbana Tempi di simulazione di modelli ridotti da giorni/settimane a ore/giorni
Riduzione del 50% dei costi, grazie alla formula pay-per-use, rispetto ai costi di una infrastruttura interna

Tra le questioni aperte, l’impatto energetico e il mondo quantico

Di fondamentale importanza, nell’ambito dei supercomputer, è anche il tema della sostenibilità ambientale, dato l’elevatissimo impatto energetico che queste macchine hanno e l’entità delle loro emissioni dei CO2. Per rendere più razionale il dispendio energetico dei supercomputer, in generale si rivela utile cercare di ridurre la concentrazione del calcolo. Si decentralizza anche per quanto possibile l’impegno computazionale verso le periferie della rete, in particolar modo per quanto concerne i processi di pre-elaborazione. Ciò è possibile, ad esempio, adottando soluzioni di Edge Computing, in particolare associati a dispositivi IoT in grado di raccogliere e pre-processare i dati prima di inviarli ai supercomputer.

Un altro cenno merita poi l’ambito quantum computing e la sua relazione con il supercomputing. La computazione quantistica, come ormai da più parti di evidenzia, segnerà una vera e propria rivoluzione per l’umanità. I dispositivi in grado di eseguire gli algoritmi necessari però non sono ancora davvero disponibili e le prestazioni dei supercomputer oggi superano ancora notevolmente quelle offerte dagli attuali prototipi quantistici.

Nello specifico, un algoritmo chiamato qFlex è stato sviluppato qualche anno fa da Nasa e Google come benchmark per comparare le prestazioni dei computer quantistici con quelle dei supercomputer. Nel 2018 si è valutato che Summit, allora supercomputer più potente al mondo, poteva essere emulato da un computer quantistico a 121 qbit. Ciò va oltre la capacità di qualsiasi computer quantistico attuale. Le prestazioni dei supercomputer quindi sono senz’altro oggi superiori a quelle dei computer quantistici.

Il fattore limitante, per i supercomputer, è in realtà non tanto l’hardware, ma l’energia richiesta per il funzionamento, che ormai sta diventando proibitiva. Laddove Summit, ad esempio, richiede 14 MW, Google Bristlecone, da 72 qbit, richiede appena 14 kW, principalmente per il raffreddamento dei componenti superconduttivi. Non si prevede un grosso incremento anche con l’aumentare del numero di qbit. Per l’immediato futuro, sarà comunque importante implementare soluzioni ibride quantistiche-supercomputazionali, che agevolino la diffusione della computazione quantistica. Accadrà, ad esempio, inizialmente, negli ambiti farmaceutico, di analisi del rischio e ottimizzazione del portafoglio investimenti o per la rilevazione delle frodi.

L’obiettivo primario sarà quello di limitare il più possibile la latenza degli algoritmi ibridi e di investigare le potenzialità della sinergia fra computer quantistici e supercomputer. Negli algoritmi ibridi, parte della computazione avviene nella Quantum Processing Unit (Qpu) del computer Nisq (Noisy Intermediate-Scale Quantum, l’attuale tecnologia computazionale quantistica). Parte avviene invece su supercomputer. Alcuni esempi di algoritmi ibridi già esistenti sono il Variational Quantum Eigensolver (Vqe) per simulare stati fondamentali di molecole, e il Quantum Approximate Optimization Algorithm (Qaoa), per risolvere problemi di ottimizzazione.

I Supercomputer. Cosa sono, come funzionano e a cosa servono, anche nell’industria - Ultima modifica: 2022-02-16T17:19:18+01:00 da Silvia Marigonda