L'HPC è una tecnologia che utilizza cluster di potenti processori che funzionano in parallelo per elaborare enormi set di dati multidimensionali e risolvere problemi complessi a velocità estremamente elevate.
L'HPC risolve alcuni dei problemi informatici più complessi di oggi in tempo reale. I sistemi HPC funzionano in genere a velocità oltre un milione di volte superiori rispetto ai più veloci sistemi desktop, laptop o server di base.
I supercomputer, computer appositamente progettati che incorporano milioni di processori o core di processore, sono fondamentali nell'elaborazione ad alte prestazioni da decenni. A differenza dei mainframe, i supercomputer sono molto più veloci e possono eseguire miliardi di operazioni in virgola mobile in un secondo.
I supercomputer sono ancora tra noi; il supercomputer più veloce è Frontier, con sede negli Stati Uniti, con una velocità di elaborazione di 1,206 exaflop o quintilioni di operazioni in virgola mobile al secondo (flop).1 Oggi, tuttavia, sempre più organizzazioni eseguono servizi HPC su cluster di server ad alta velocità, ospitati on-premise o nel cloud.
I workload HPC rivelano nuovi insight che migliorano la conoscenza umana e creano importanti vantaggi competitivi. Ad esempio, l'HPC sequenzia il DNA e automatizza il trading azionario. Esegue algoritmi e simulazioni di intelligenza artificiale (AI), come quelli che consentono l'automatizzazione della guida autonoma, che analizzano terabyte di data streaming da sensori IoT, radar e sistemi GPS in tempo reale per prendere decisioni in una frazione di secondo.
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e altro con la newsletter Think. Leggi l'Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Un sistema di elaborazione standard risolve i problemi principalmente utilizzando il calcolo seriale. Suddivide il workload in una sequenza di attività, quindi le esegue una dopo l'altra sullo stesso processore.
Il parallel computing esegue numerose attività contemporaneamente su più server o processori. L'HPC utilizza un parallel computing di massa, che utilizza da decine di migliaia a milioni di processori o core di processore.
Un HPC cluster è costituito da più server ad alta velocità collegati in rete, con uno scheduler centralizzato che gestisce il workload di parallel computing. I computer, chiamati nodi, utilizzano CPU multi-core ad alte prestazioni o, più probabile attualmente, GPU, che sono adatte per calcoli matematici rigorosi, modelli di machine learning (ML) e attività ad alta intensità grafica. Un singolo HPC cluster può includere 100.000 o più nodi.
Linux è il sistema operativo più utilizzato per l'esecuzione di HPC cluster. Altri sistemi operativi includono Windows, Ubuntu e Unix.
I workload di HPC si basano su una Message Passing Interface (MPI), una libreria e un protocollo standard per la programmazione parallela di computer che consente agli utenti di comunicare tra i nodi in un cluster o attraverso una rete.
Il calcolo ad alte prestazioni (HPC) si basa su bit e processori convenzionali utilizzati nell'informatica classica. Al contrario, il quantum computing utilizza la meccanica quantistica specializzata basata sulla tecnologia per risolvere problemi complessi. Gli algoritmi quantistici creano spazi computazionali multidimensionali che sono un modo molto più efficiente di risolvere problemi complessi, come simulare il comportamento delle molecole, che i computer o i supercomputer classici non possono risolvere abbastanza velocemente. Non si prevede che il quantum computing sostituirà l'HPC nel prossimo futuro. Piuttosto, le due tecnologie possono essere combinate per ottenere efficienza e prestazioni ottimali.
Fino a dieci anni fa, l'elevato costo dell'HPC, che comportava il possesso o il leasing di un supercomputer o la creazione e l'hosting di un HPC cluster in un data center on-premise, lo rendeva fuori portata per la maggior parte delle organizzazioni.
Oggi l'HPC nel cloud, talvolta chiamato HPC-as-a-Service o HPCaaS, offre alle aziende un modo molto più veloce, più scalabile e più conveniente di utilizzare al meglio l'HPC. L'HPCaaS include in genere l'accesso ai cluster e all'infrastruttura HPC ospitati nel data center di un provider di cloud service, oltre a funzionalità di rete (come AI e analytics dei dati) e competenze HPC.
Oggi, le tendenze convergenti che guidano l'HPC nel cloud sono tre.
Le organizzazioni di tutti i settori dipendono sempre più dagli insight e dal vantaggio competitivo derivante dall'utilizzo delle applicazioni HPC per risolvere problemi complessi. Ad esempio, il rilevamento delle frodi con le carte di credito, su cui tutti noi facciamo affidamento e che la maggior parte di noi ha sperimentato almeno una volta nella vita, si affida sempre più all'HPC per identificare più rapidamente le frodi e ridurre i fastidiosi falsi positivi, anche se l'attività di frode si espande e le tattiche dei truffatori cambiano costantemente.
Dal lancio di tecnologie come ChatGPT, le organizzazioni hanno rapidamente accolto la promessa dell'AI generativa (gen AI) per accelerare l'innovazione e promuovere la crescita. Questo sviluppo ha stimolato una domanda ancora maggiore di elaborazione ad alte prestazioni. L'HPC offre l'elevata potenza di calcolo e scalabilità per supportare workload basati sull'AI su larga scala. In un report di Intersect 360 Research, il mercato mondiale totale delle infrastrutture informatiche scalabile per HPC e AI è stato di 85,7 miliardi di USD nel 2023, in crescita del 62,4% su base annua, principalmente a causa di una quasi triplicazione della spesa delle aziende iperscalabili per la loro infrastruttura di AI.2
L'accesso diretto alla memoria remota (RDMA) consente a un computer in rete di accedere alla memoria di un altro computer in rete senza coinvolgere il sistema operativo del computer o interrompere l'elaborazione di uno dei due computer. Questo aiuta a ridurre al minimo la latenza e massimizzare la produttività, riducendo i colli di bottiglia nella larghezza di banda della memoria. I fabric RDMA emergenti ad alte prestazioni, tra cui InfiniBand, l'architettura dell'interfaccia virtuale e RDMA su ethernet convergente, rendono possibile l'HPC basato sul cloud.
Oggi, ogni principale fornitore di cloud service pubblici, inclusi Amazon Web Services (AWS), Microsoft Azure, Google Cloud e IBM Cloud, offre servizi HPC. Mentre alcune organizzazioni continuano a eseguire workload di HPC altamente regolamentati o sensibili on-premise, molte stanno adottando o migrando verso servizi HPC su cloud privato offerti da fornitori di hardware e soluzioni.
L'HPC nel cloud consente alle organizzazioni di applicare molti asset per risolvere problemi complessi e offre i seguenti benefici:
Le applicazioni HPC sono diventate sinonimo di AI, in particolare app di machine learning (ML) e deep learning. Oggi, la maggior parte dei sistemi HPC è progettata tenendo conto di questi workload.
Dall'analisi dei dati alla ricerca all'avanguardia, l'HPC sta guidando l'innovazione continua nei casi d'uso nei seguenti settori:
Il primo tentativo di sequenziare un genoma umano ha richiesto 13 anni. Oggi, i sistemi HPC possono svolgere lo stesso lavoro in meno di un giorno. Altre applicazioni dell'HPC nell'assistenza sanitaria e nelle scienze della vita includono la gestione delle cartelle cliniche, la scoperta e la progettazione di farmaci, la diagnosi rapida del cancro e la modellazione molecolare. La visualizzazione HPC aiuta gli scienziati a raccogliere insight dalle simulazioni e ad analizzare rapidamente i dati.
Gli HPC cluster forniscono l'alta velocità necessaria per lo streaming di eventi dal vivo, il rendering di grafica 3D ed effetti speciali, oltre a ridurre tempi e costi di produzione. Può anche aiutare le aziende del settore dei media ad acquisire insight basati sui dati per migliorare la creazione e la distribuzione dei contenuti.
Oltre al trading automatizzato e al rilevamento delle frodi, l'HPC alimenta le applicazioni della simulazione Monte Carlo e di altri metodi di analisi del rischio.
Due casi d'uso in crescita dell'HPC in questo settore sono le previsioni meteorologiche e la modellazione climatica, che comportano l'elaborazione di grandi quantità di dati meteorologici storici e milioni di cambiamenti giornalieri nei punti dati relativi al clima. Altre applicazioni governative e di difesa includono la ricerca energetica e il lavoro di intelligence.
In alcuni casi che si sovrappongono al governo e alla difesa, le applicazioni dell'HPC legate all'energia includono il trattamento dei dati sismici, la simulazione e la modellazione dei bacini idrici, geospatial analytics, la simulazione dei venti e la mappatura del terreno.
Il settore automobilistico utilizza l'HPC per simulare e ottimizzare la progettazione di prodotti e processi. Ad esempio, l'HPC può eseguire applicazioni di fluidodinamica computazionale (CFD), che analizzano e risolvono le sfide relative ai flussi dei fluidi. Ciò include la simulazione dell'aerodinamica per ridurre la resistenza e l'attrito dell'aria e la simulazione della batteria per ottimizzare le prestazioni e la sicurezza della batteria.
L'HPC può analizzare grandi quantità di dati per identificare modelli che aiutino a prevenire attacchi informatici o altre minacce alla sicurezza.
IBM Spectrum LSF Suites è una piattaforma di gestione dei workload e un programma per la pianificazione dei lavori per il calcolo ad alte prestazioni (HPC) distribuito.
Le soluzioni HPC hybrid cloud di IBM aiutano ad affrontare attività ad alta intensità di calcolo su larga scala e a velocizzare il tempo di generazione di insight.
Trova la soluzione di infrastruttura cloud adatta alle esigenze della tua azienda e scala le risorse on-demand.