Che cos'è l'high perfromance computing (HPC)?
L'HPC elabora enormi quantità di dati e risolve i più complessi problemi di calcolo odierni in tempo reale o quasi reale.
Primo piano di circuiti
Cos'è l'HPC?

L'HPC è una tecnologia che utilizza cluster di potenti processori, che lavorano in parallelo, per elaborare enormi dataset multidimensionali (big data) e risolvere problemi complessi a velocità estremamente elevate. I sistemi HPC in genere funzionano a velocità oltre un milione di volte superiori rispetto ai sistemi desktop, laptop o server più veloci.

Per decenni il paradigma del sistema HPC è stato il supercomputer, un computer appositamente costruito che incorpora milioni di processori o core di processore. I supercomputer sono ancora con noi; in questo momento, il supercomputer più veloce è il Frontier  (link esterno a  ibm.com), installato negli Stati Uniti, con una velocità di elaborazione pari a 1.102 exaflop o quintilioni di operazioni in virgola mobile al secondo (flop). Ma oggi, sempre più organizzazioni eseguono soluzioni HPC su cluster di server di computer ad alta velocità, ospitati in locale o nel cloud.

I carichi di lavoro HPC scoprono nuovi insight che migliorano le conoscenze umane e creano un vantaggio competitivo significativo. Ad esempio, l'HPC è usato per sequenziare il DNA, automatizzare il trading di azioni ed eseguire algoritmi e simulazioni di AI — come quelli che consentono le automobili a guida autonoma — che analizzano in tempo reale terabyte di dati in streaming provenienti da sensori IoT, radar e sistemi GPS per prendere decisioni in una frazione di secondo.

Come funziona l'HPC?

Un sistema di elaborazione standard risolve i problemi principalmente utilizzando l'elaborazione seriale - il carico di lavoro viene suddiviso in una sequenza di attività, quindi il sistema esegue le attività una dopo l'altra sullo stesso processore.

Al contrario, l'HPC sfrutta

  • Calcolo parallelo di massa. Il calcolo parallelo esegue più attività contemporaneamente su più server o processori di computer. Il calcolo parallelo di massa è un calcolo parallelo che utilizza da decine di migliaia a milioni di processori o core di processore.

  • Cluster di computer (chiamati anche cluster HPC). Un cluster HPC è costituito da più server di computer ad alta velocità collegati in rete, con uno scheduler centralizzato che gestisce il carico di lavoro del calcolo parallelo. I computer, chiamati nodi, utilizzano CPU multi-core ad alte prestazioni o, più probabilmente al giorno d'oggi, GPU (graphics processing units, unità di elaborazione grafica), adatte per calcoli matematici rigorosi, modelli di machine learning e attività con un'elevata quantità di grafica. Un singolo cluster HPC può contenere 100.000 o più nodi.

  • Componenti ad alte prestazioni: tutte le altre risorse di elaborazione in un cluster HPC - rete, memoria, storage e file system - sono componenti ad alta velocità, elevata velocità di trasmissione e bassa latenza in grado di stare al passo con i nodi e ottimizzare la potenza di calcolo e le prestazioni del cluster.
HPC e cloud computing

Non più di dieci anni fa, l'elevato costo dell'HPC - che implicava il possesso o il noleggio di un supercomputer o la creazione e l'hosting di un cluster HPC in un data center on-premise - era insostenibile per la maggior parte delle organizzazioni.

Oggi, l'HPC nel cloud - a volte chiamato HPC as a service o HPCaaS - offre alle aziende un modo significativamente più veloce, scalabile e conveniente per sfruttare l'HPC. In genere, un'offerta HPCaaS include l'accesso ai cluster HPC e all'infrastruttura ospitata nel data center di un provider di servizi cloud, oltre a funzionalità dell'ecosistema (come AI e analisi dei dati) e competenze HPC.

Oggi l'HPC nel cloud è guidato da tre tendenze convergenti:

  • Domanda in aumento. Le organizzazioni di tutti i settori stanno diventando sempre più dipendenti dagli insight in tempo reale e dal vantaggio competitivo che deriva dalla risoluzione dei problemi complessi che solo le app HPC possono risolvere. Ad esempio, il rilevamento delle frodi con carte di credito - qualcosa su cui praticamente tutti noi facciamo affidamento e che la maggior parte di noi ha sperimentato prima o poi - si affida sempre più all'HPC per identificare le frodi più velocemente e ridurre i fastidiosi falsi positivi, anche se l'attività di frode si espande e le tattiche dei truffatori cambiano continuamente.

  • Prevalenza di reti RDMA a bassa latenza e maggiore velocità di trasmissione. L'RDMA (remote direct memory access) consente ad un computer in rete di accedere alla memoria di un altro computer in rete senza coinvolgere il sistema operativo del computer o interrompere l'elaborazione di entrambi i computer. Questo aiuta a ridurre al minimo la latenza e ad aumenta al massimo la velocità di trasmissione. I nuovi fabric RDMA ad alte prestazioni - inclusi Infiniband, Virtual Interface Architecture e RoCE (RDMA over converged ethernet) - stanno essenzialmente rendendo possibile l'HPC basato su cloud.

  • Disponibilità diffusa di HPCaaS nel cloud pubblico e nel cloud privato. Oggi tutti i principali provider di servizi cloud pubblici offrono servizi HPC. E mentre alcune organizzazioni continuano a eseguire carichi di lavoro HPC altamente regolamentati o sensibili in locale, molte stanno adottando o migrando a soluzioni HPC su cloud privato offerte da fornitori di hardware e soluzioni. 
Casi d'utilizzo dell'HPC

Le applicazioni HPC sono diventate sinonimo di app di AI in generale e di app di machine learning e deep learning in particolare; oggi la maggior parte dei sistemi HPC viene creata pensando a questi carichi di lavoro. Queste applicazioni HPC stanno guidando una continua innovazione in:

Sanità, genomica e scienze della vita. Il primo tentativo di sequenziare un genoma umano ha richiesto ; Ci volle il primo tentativo di sequenza di un genoma umano13 anni; oggi, i sistemi HPC possono svolgere il lavoro in meno di un giorno. Altre applicazioni HPC nell'assistenza sanitaria e nelle scienze della vita includono la scoperta e la progettazione di farmaci, la diagnosi rapida dei tumori e la modellazione molecolare.

Servizi finanziari. Oltre al trading automatizzato e al rilevamento delle frodi (sopra menzionato), l'HPC alimenta le applicazioni nella simulazione Monte Carlo e altri metodi di analisi del rischio.

Governo e difesa. Due casi d'uso dell'HPC in crescita in quest'area sono le previsioni meteo e la modellazione climatica, che implicano entrambi l'elaborazione di grandi quantità di dati meteorologici storici e milioni di cambiamenti giornalieri nei punti dati relativi al clima. Altre applicazioni del governo e della difesa includono la ricerca energetica e il lavoro di intelligence.

Energia. In alcuni casi, sovrapponendosi al governo e alla difesa, le applicazioni HPC legate all'energia includono l'elaborazione dei dati sismici, la simulazione e la modellazione dei giacimenti, l'analisi geospaziale, la simulazione del vento e la mappatura del terreno.

Soluzioni correlate
Calcolo ad alte prestazioni su IBM Cloud

Indipendentemente dal fatto che il tuo carico di lavoro richieda un ambiente cloud ibrido o solo cloud, IBM Cloud ha la soluzione di calcolo ad alte prestazioni che soddisfa le tue esigenze.

Scopri HPC su Cloud IBM
Infrastruttura AI

Per rispondere alle sfide di oggi e prepararsi per il futuro, hai bisogno delle soluzioni AI di IBM che si integrano con la strategia di dati e infrastruttura dell'azienda.

Scopri le soluzioni di infrastruttura AI
Gestione dei workload HPC

Il portfolio IBM Spectrum® LSF Suites ridefinisce la virtualizzazione del cluster e la gestione del carico di lavoro fornendo una soluzione integrata per gli ambienti HPC mission-critical.

Scopri Spectrum LSF Suites
Sistemi di calcolo quantistico

IBM è attualmente l'unica azienda che offre l'intero stack tecnologico quantistico con l'hardware più avanzato, i sistemi integrati e i servizi cloud.

Esplora i sistemi di calcolo quantistico
Risorse Storia del supercalcolo in IBM

IBM ha una ricca storia di supercomputing ed è ampiamente considerata come un pioniere nel campo, con successi importanti come il programma Apollo, Deep Blue, Watson e altro.

Le ultime nell'HPC

Ricevi gli ultimi approfondimenti sull'HPC, le notizie e i post del blog tecnico.

Roadmap per la creazione di un ecosistema software quantistico aperto

L'informatica quantistica è sul punto di innescare un cambiamento di mentalità. Il software basato su questa tecnologia nascente, radicata nelle leggi fisiche della natura, potrebbe presto rivoluzionare l'informatica per sempre.