Che cos'è l'accelerated computing

Uomo che usa un tablet in un data center

Che cos'è l'accelerated computing

L'accelerated computing si riferisce all'uso di hardware e software appositamente progettati per velocizzare le attività di calcolo. 

L'accelerated computing dipende da un'ampia gamma di hardware e software (noti anche come acceleratori), tra cui unità di elaborazione grafica (GPU), circuiti integrati specifici per le applicazioni (ASIC) e array di gate programmabili sul campo (FPGA). 

Le soluzioni di accelerated computing sono molto richieste in molti settori perché possono eseguire calcoli in modo più rapido ed efficiente rispetto alle tradizionali unità di elaborazione centrale (CPU). A differenza delle CPU, gli acceleratori si basano sul calcolo parallelo, un metodo di risoluzione computazionale dei problemi in cui le attività vengono suddivise in problemi più piccoli e risolte simultaneamente, anziché in serie. 

Grazie alla sua velocità di trattamento dei dati, l'accelerated computing è diventato fondamentale per il progresso di numerose tecnologie e applicazioni all'avanguardia, tra cui l'intelligenza artificiale (AI), AI generativa, il machine learning (ML) e l'high-performance computing (HPC). Oggi è una componente chiave delle strategie di molte delle aziende tecnologiche di maggior successo al mondo, tra cui Google, Amazon Web Services (AWS) e Microsoft.

Acceleratori e CPU a confronto

Le unità di elaborazione centrale, o CPU, sono costituite da vari circuiti elettronici che eseguono il sistema operativo (OS) e le app di un computer. Per molti anni, la CPU è stata il cervello di un computer, trasformando i dati in input in output di informazioni. Tuttavia, man mano che le applicazioni diventavano più avanzate, avevano bisogno di elaborare i dati in modo più veloce ed efficiente di quanto potessero fare le CPU. Ecco che arrivano gli acceleratori e le tecnologie di accelerated computing con le loro funzionalità di elaborazione parallela, bassa latenza e alta produttività. Dagli anni '80, quando sono diventati famosi per la prima volta, molti dei maggiori progressi tecnologici dell'informatica sono dipesi dagli acceleratori.

Design 3D di palline che rotolano su una pista

Le ultime notizie e insight sull'AI


Scopri notizie e insight selezionati da esperti in materia di AI, cloud e molto altro nella newsletter settimanale Think. 

Perché l'accelerated computing è importante?

Dai nuovi videogiochi più entusiasmanti e dalle esperienze di realtà virtuale immersiva (VR) a ChatGPT, alla formazione di modelli AI e all'analisi dei big data, gli acceleratori sono una parte essenziale del nostro mondo iperconnesso in rapida evoluzione. Molte aziende moderne si affidano agli acceleratori per alimentare le loro applicazioni e architetture infrastrutturali più preziose, tra cui il cloud computing, i data center, l'edge computing e i modelli linguistici di grandi dimensioni (LLM). Ad esempio, i leader aziendali e gli sviluppatori che desiderano esplorare l'AI generativa stanno investendo in acceleratori per ottimizzare i data center ed elaborare più informazioni più velocemente1.

Gli acceleratori vengono utilizzati in un'ampia gamma di applicazioni per velocizzare il trattamento dei dati, soprattutto con l'espansione della copertura 5G, aumentando le opportunità di Internet of Things (IoT) ed edge computing. Le applicazioni IoT dipendono dagli acceleratori per elaborare i dati provenienti da dispositivi intelligenti come frigoriferi, sensori di flusso di traffico e altro ancora. L'edge computing può fornire informazioni più approfondite, tempi di risposta più rapidi e migliori esperienze per i clienti, ma solo con le velocità di elaborazione offerte dagli acceleratori.  

Quando si parla di AI, molte delle sue applicazioni più avanzate, come elaborazione del linguaggio naturale (NLP), computer vision e il riconoscimento vocale, si basano sulla potenza dell'accelerated computing per funzionare. Ad esempio, le reti neurali che supportano molte applicazioni di intelligenza artificiale all'avanguardia necessitano di acceleratori di AI per classificare e raggruppare i dati ad alta velocità.

Infine, poiché sempre più aziende cercano modi per trasformare digitalmente e accelerare l'innovazione, le soluzioni di accelerated computing offrono un costo totale di proprietà relativamente basso. La capacità degli acceleratori di elaborare grandi quantità di dati in modo rapido e preciso significa che possono essere utilizzati in molte applicazioni diverse con il potenziale di creare valore aziendale, tra cui chatbot AI, analisi di dati finanziari, cloud computing e altro ancora.

Calcolo ad alte prestazioni (HPC)

Processori Intel Xeon scalabili di 4a generazione su IBM Cloud

Scopri l'impegno di Intel e IBM per la prossima generazione di microarchitetture per il settore del cloud.

Come funziona l'accelerated computing?

L'accelerated computing utilizza una combinazione di hardware, software e tecnologie di rete per aiutare le aziende moderne a potenziare le loro applicazioni più avanzate. I componenti hardware critici per gli acceleratori includono GPU, ASIC e FPGA. Il software e le application programming interface (API) sono altrettanto importanti, con CUDA e OpenCL che svolgono un ruolo importante. 

Infine, le soluzioni di rete, come PCI express (PCIe) e NV link, aiutano le unità di elaborazione a comunicare con i dispositivi di memoria e di storage in cui sono conservati i dati. Ecco un approfondimento su come gli acceleratori hardware, gli acceleratori software e le soluzioni di rete lavorano insieme per rendere possibile l'accelerated computing.

Acceleratori hardware

I moderni acceleratori hardware possono elaborare i dati in modo significativamente più veloce rispetto alle CPU tradizionali, grazie alle loro funzionalità di elaborazione parallela. Senza di loro, molte delle applicazioni più importanti dell'accelerated computing non sarebbero possibili.

GPU

Le GPU, o unità di elaborazione grafica, sono acceleratori hardware progettati per velocizzare la grafica del computer e l'elaborazione delle immagini su vari dispositivi, tra cui schede video, schede di sistema, dispositivi mobili e personal computer (PC). Gli acceleratori GPU riducono significativamente il tempo necessario a un computer per eseguire più programmi. L'accelerated computing da GPU viene utilizzata in un'ampia gamma di applicazioni di accelerated computing, tra cui AI e blockchain.

ASIC

Gli ASIC o circuiti integrati specifici per le applicazioni, sono acceleratori hardware costruiti con uno scopo o una funzione specifici in mente, come il deep learning, nel caso dell'acceleratore ASIC WSE-3, considerato uno degli acceleratori di intelligenza artificiale più veloci al mondo2. A differenza di altri acceleratori hardware, gli ASIC non possono essere riprogrammati. Tuttavia, poiché sono costruiti con uno scopo unico, in genere superano gli acceleratori costruiti per compiti di calcolo più generici. Un altro esempio di acceleratore ASIC è la Tensor Processing Unit (TPU) di Google, sviluppata per le reti neurali di ML sul software TensorFlow di Google.

FPGA

Gli FPGA, o field programmable gate array, sono acceleratori di AI altamente personalizzabili che dipendono da conoscenze specialistiche per essere riprogrammati per uno scopo specifico. A differenza di altri acceleratori hardware, gli FPGA hanno un design unico che si adatta a una funzione specifica, spesso avendo a che fare con il trattamento dei dati in tempo reale. Gli FPGA sono riprogrammabili a livello hardware, consentendo un livello di personalizzazione molto più elevato. Sono spesso utilizzati nel settore aerospaziale, nelle applicazioni IoT e nelle soluzioni di rete wireless. 

API e software

Le API e il software svolgono un ruolo critico nel far funzionare gli acceleratori, nell'interfacciamento tra l'hardware e le reti necessarie per eseguire applicazioni di accelerated computing. 

API

Le API o application programming interface, sono insiemi di regole che consentono alle applicazioni di comunicare e scambiare dati. Le API sono critico per l'accelerated computing, poiché aiutano a integrare dati, servizi e funzionalità tra le applicazioni. Semplificano e accelerano lo sviluppo di applicazioni e software consentendo agli sviluppatori di integrare dati, servizi e funzionalità da altre applicazioni e consentendone la condivisione in un'intera organizzazione. Le API aiutano a ottimizzare il flusso di dati tra acceleratori hardware e software e consentono agli sviluppatori di accedere alle librerie software critiche per lo sviluppo di app e software.

CUDA

Compute Unified Device Architecture (CUDA), costruito da NVIDIA nel 2007, è un software che offre agli sviluppatori l'accesso diretto alle capacità di calcolo parallelo delle GPU NVIDIA. Il CUDA consente ai programmatori di utilizzare la tecnologia GPU per una gamma di funzioni molto più ampia di quanto fosse possibile in precedenza. Da allora, basandosi su ciò che CUDA ha reso possibile, gli acceleratori hardware delle GPU hanno acquisito ancora più funzionalità, forse soprattutto il ray tracing, la generazione di immagini al computer tracciando la direzione della luce da una telecamera e tensor core che abilitano il DL.

OpenCL

OpenCL è una piattaforma open source progettata per il calcolo parallelo e supporta molti tipi di acceleratori hardware, tra cui GPU e FPGA. La sua alta compatibilità lo rende uno strumento ideale per gli sviluppatori che devono utilizzare diversi tipi di componenti nei loro workload di accelerated computing. Esempi di casi d'uso di OpenCL includono videogiochi, modellazione 3D e produzione multimediale.

Tecnologia di rete

Le tecnologie di rete sono fondamentali per l'accelerated computing, consentendo una comunicazione rapida ed efficace tra le diverse unità di elaborazione e dispositivi di memoria e storage in cui i dati vengono memorizzati. Ecco alcuni dei diversi tipi di rete su cui si basa l'accelerated computing.

Ethernet

L'ethernet è un tipo di tecnologia ampiamente utilizzata per fornire un trasferimento rapido e flessibile di dati tra server in un data center (o solo tra computer che si trovano nello stesso spazio fisico). Sebbene sia diffuso e conveniente, non è veloce come alcuni degli altri tipi di rete, come NVLink o InfiniBand.

PCI Express (PCIe)

PCIe è un bus di espansione per computer ad alta velocità che collega due dispositivi con una sorgente di memoria esterna. Gli acceleratori utilizzano PCIe per collegare GPU o altri tipi di acceleratori hardware a un sistema di elaborazione centrale.

NVLink

NVLink è la tecnologia proprietaria di NVIDIA e può fornire una larghezza di banda molto più elevata rispetto a PCIe. È stata progettata per consentire una condivisione dati altamente efficiente tra GPU e altri dispositivi.

InfiniBand

InfiniBand è una specifica di comunicazione che definisce l'architettura switched fabric su server, storage o altri dispositivi interconnessi in un data center. Realizzata dall'InfiniBand Trade Association, la tecnologia si distingue per le sue alte prestazioni e la bassa latenza, rendendola ideale per workload ad alte prestazioni.

Computer Express Link (CXL)

CXL è uno standard di interconnessione aperto che aiuta a raggiungere una bassa latenza e ad aumentare la larghezza di banda tra CPU e acceleratori combinando diverse interfacce in un'unica connessione PCIe. 

Casi d'uso dell'accelerated computing

Con la diffusione della tecnologia AI e l'espansione delle reti 5G che consentono velocità di trasferimento dati fulminee, il numero di casi d'uso dell'accelerated computing cresce ogni giorno. Ecco alcuni dei più comuni. 

Intelligenza artificiale (IA)

L'intelligenza artificiale (AI) e le sue numerose applicazioni aziendali, non sarebbero possibili senza acceleratori come GPU e ASIC. Questi dispositivi di accelerated computing consentono ai computer di eseguire calcoli altamente complessi in modo più rapido ed efficiente rispetto alle CPU tradizionali. Acceleratori come il supercomputer AI cloud-native di IBM® Vela alimentano molte delle principali applicazioni AI che dipendono dalla capacità di addestrare modelli AI su set di dati sempre più grandi.

Machine learning (ML) e deep learning (DL)

Sia il machine learning (ML) che il deep learning (DL), un campo dell'AI che si occupa dell'uso di dati e algoritmi per imitare il modo in cui gli umani apprendono e decidono, dipendono dalle funzionalità di trattamento dei dati degli acceleratori. L'accelerated computing potenzia l'addestramento di modelli di deep learning che imparano a fare inferenze dai dati in modi simili al cervello umano. 

Blockchain

La blockchain, il popolare registro utilizzato per registrare le transazioni e tenere traccia degli asset nelle reti aziendali, si basa in larga misura sull'accelerated computing. Un passaggio fondamentale chiamato Proof of Work (PoW), in cui una transazione viene convalidata e aggiunta a una blockchain, dipende dagli acceleratori. Nelle criptovalute, ad esempio, il PoW significa che chiunque abbia la macchina adatta può effettuare il mining di una criptovaluta, come il Bitcoin.

Internet delle cose (IoT)

Gli acceleratori gestiscono i grandi set di dati generati dalle applicazioni Internet of Things (IoT) in modo molto più efficiente rispetto a una CPU con capacità di elaborazione seriale. L'IoT dipende da dispositivi connessi a Internet che raccolgono costantemente dati per l'elaborazione. Gli acceleratori hardware come le GPU aiutano a elaborare rapidamente i dati per applicazioni IoT come auto a guida autonoma e sistemi che monitorano il traffico e le condizioni meteorologiche.

Edge computing

L'edge computing, un framework di calcolo distribuito che avvicina le applicazioni aziendali alle fonti di dati, si basa fortemente sugli acceleratori per funzionare. L'espansione della connettività 5G ha fatto sì che i set di dati crescessero in modo esponenziale. L'accelerated computing, con le sue funzionalità di elaborazione parallela, aiuta le aziende a utilizzare al meglio tutte le possibilità dell'edge computing, come tempi di analisi più brevi, tempi di risposta migliori e maggiore larghezza di banda.

Soluzioni correlate
Suite IBM Spectrum LSF 

IBM Spectrum LSF Suites è una piattaforma di gestione dei workload e un programma per la pianificazione dei lavori per il calcolo ad alte prestazioni (HPC) distribuito.

Esplora Spectrum LSF Suites
Soluzioni server e storage con High Performance Computing (HPC) | IBM

Le soluzioni HPC hybrid cloud di IBM aiutano ad affrontare attività ad alta intensità di calcolo su larga scala e a velocizzare il tempo di generazione di insight.

Esplora le soluzioni HPC
Soluzioni per l'infrastruttura cloud

Trova la soluzione di infrastruttura cloud adatta alle esigenze della tua azienda e scala le risorse on-demand.

Soluzioni cloud
Fasi successive

Potenzia i tuoi workload di AI e ad alta intensità di calcolo più impegnativi con le soluzioni HPC di IBM. Utilizza la flessibilità dell'hybrid cloud e l'infrastruttura innovativa per accelerare il tuo percorso verso l'innovazione.

Esplora le soluzioni HPC
Note a piè di pagina

1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 23 aprile 2024.

2. Gigantic AI CPU has almost one million cores, Tech Radar, 16 marzo 2024.