Il supercomputing è una forma di calcolo ad alte prestazioni che determina o calcola utilizzando un potente computer (supercomputer) riducendo il tempo complessivo per la risoluzione.
La tecnologia del supercomputing comprende i supercomputer, i computer più veloci al mondo. I supercomputer sono composti da interconnessioni, sistemi di I/O, memoria e core di processori.
A differenza dei computer tradizionali, i supercomputer utilizzano più di una unità di elaborazione centrale (CPU). Queste CPU sono raggruppate in nodi di calcolo, che comprendono un processore o un gruppo di processori – Symmetric Multiprocessing (SMP) – e un blocco di memoria. Su larga scala, un supercomputer può contenere decine di migliaia di nodi. Grazie alle funzionalità di comunicazione tramite interconnessione, questi nodi possono collaborare per risolvere un problema specifico. I nodi utilizzano anche le interconnessioni per comunicare con i sistemi di I/O, come il data storage e le reti.
È importante sottolineare che, a causa del consumo energetico dei moderni supercomputer, i data center necessitano di sistemi di raffreddamento e strutture adatte a contenere tutto ciò.
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e oltre con la newsletter Think. Leggi l' Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Poiché i supercomputer sono spesso usati per eseguire programmi di intelligenza artificiale, il supercomputing è diventato sinonimo di AI. Questo utilizzo regolare è dovuto al fatto che i programmi di AI richiedono l'elaborazione ad alte prestazioni offerta dai supercomputer. In altre parole, i supercomputer sono in grado di gestire i tipi di workload generalmente necessari per le applicazioni di AI.
Ad esempio, IBM ha costruito i supercomputer Summit e Sierra pensando ai workload di big data e AI. Stanno aiutando a modellare le supernove, a sperimentare nuovi materiali e a esplorare il cancro, la genetica e l'ambiente, utilizzando tecnologie disponibili per tutte le aziende.
Il supercomputing viene misurato in operazioni in virgola mobile al secondo (FLOPS). I petaflop sono una misura della velocità di elaborazione di un computer pari a mille trilioni di flop. E un sistema informatico da 1 petaflop può eseguire un quadrilione (1015) di flop. Da una prospettiva diversa, i supercomputer possono avere una potenza di elaborazione un milione di volte superiore rispetto al laptop più veloce.
Secondo la classifica TOP500, il supercomputer più veloce del mondo è il giapponese Fugaku, con una velocità di 442 petaflop a giugno 2021. I supercomputer IBM, Summit e Sierra, ottengono il secondo e il terzo posto, con rispettivamente 148,8 e 94,6 petaflop. Summit si trova presso l'Oak Ridge National Laboratory, una struttura del Dipartimento dell'Energia degli Stati Uniti nel Tennessee. Sierra si trova presso il Lawrence Livermore National Laboratory in California.
Per mettere in prospettiva le velocità odierne, quando Cray-1 è stato installato al Los Alamos National Laboratory nel 1976, ha raggiunto una velocità di circa 160 megaflop. Un megaflop può eseguire un milione (106) di flop.
Il termine supercomputing è talvolta usato come sinonimo di altri tipi di calcolo. Ma altre volte, i sinonimi possono creare confusione. Per chiarire alcune somiglianze e differenze tra i tipi di calcolo, ecco alcuni confronti comuni.
Mentre il supercomputing si riferisce in genere al processo di calcoli complessi e di grandi dimensioni utilizzato dai supercomputer, il calcolo ad alte prestazioni (HPC) è l'uso di più supercomputer per elaborare calcoli complessi e di grandi dimensioni. Entrambi i termini sono spesso usati in modo intercambiabile.
I supercomputer sono talvolta chiamati computer paralleli perché il supercomputing può utilizzare l'elaborazione parallela. L'elaborazione parallela è quando più CPU lavorano alla risoluzione di un singolo calcolo in un dato momento. Tuttavia, anche gli scenari HPC utilizzano il parallelismo, senza necessariamente utilizzare un supercomputer.
Un'altra eccezione è che i supercomputer possono utilizzare altri sistemi di processori, come processori vettoriali, processori scalari o processori multithread.
Il quantum computing è un modello informatico che sfrutta le leggi della meccanica quantistica per elaborare i dati, eseguendo calcoli basati sulle probabilità. Mira a risolvere problemi complessi che i supercomputer più potenti del mondo non possono risolvere e non riusciranno mai a risolvere.
Il supercomputing si è evoluto nel corso di molti anni da quando la macchina Colossus è stata messa in funzione a Bletchley Park negli anni '40. Colossus è stato il primo computer digitale elettronico funzionale progettato da Tommy Flowers, un ingegnere telefonico di ricerca del General Post Office (GPO).
Il termine supercomputer entrò in uso all'inizio degli anni '60, quando IBM lanciò l'IBM 7030 Stretch e Sperry Rand presentò l'UNIVAC LARC. Questi sono i primi due supercomputer intenzionali, progettati per essere più potenti delle macchine commerciali più veloci disponibili all'epoca. Gli eventi che hanno influenzato il progresso del supercomputing sono iniziati alla fine degli anni '50, quando il governo degli Stati Uniti ha iniziato a finanziare regolarmente lo sviluppo di tecnologie all'edge e ad alte prestazioni per applicazioni militari.
Sebbene i supercomputer siano stati inizialmente prodotti in quantità limitate per il governo, la tecnologia sviluppata si sarebbe fatta strada nei principali settori industriali e commerciali. Ad esempio, due società statunitensi, Control Data Corporation (CDC) e Cray Research, hanno guidato il settore dei supercomputer commerciali dalla metà degli anni '60 alla fine degli anni '70. Il CDC 6600, progettato da Seymour Cray, è considerato il primo supercomputer commerciale di successo. IBM sarebbe poi diventata un leader del settore commerciale dagli anni '90 ad oggi.
IBM Spectrum LSF Suites è una piattaforma di gestione dei workload e un programma per la pianificazione dei lavori per il calcolo ad alte prestazioni (HPC) distribuito.
Le soluzioni HPC hybrid cloud di IBM aiutano ad affrontare attività ad alta intensità di calcolo su larga scala e a velocizzare il tempo di generazione di insight.
Trova la soluzione di infrastruttura cloud adatta alle esigenze della tua azienda e scala le risorse on-demand.