Un acceleratore di intelligenza artificiale (AI), noto anche come chip AI, processore di deep learning o unità di elaborazione neurale (NPU), è un acceleratore hardware progettato per velocizzare le reti neurali AI, il deep learning e il machine learning.
Con l'espansione della tecnologia AI, gli acceleratori AI sono fondamentali per elaborare le grandi quantità di dati necessarie per eseguire le applicazioni AI. Attualmente, i casi d'uso degli acceleratori AI comprendono smartphone, PC, robotica, veicoli autonomi, Internet of Things (IoT), edge computing e altro ancora.
Per decenni, i sistemi informatici hanno fatto affidamento sugli acceleratori (o coprocessori) per una serie di compiti specializzati. Esempi tipici di coprocessori includono unità di elaborazione grafica (GPU), schede audio e schede video.
Ma con la crescita delle applicazioni di AI nell'ultimo decennio, le tradizionali unità di elaborazione centrale (CPU) e persino alcune GPU non erano in grado di elaborare le grandi quantità di dati necessarie per eseguire le applicazioni di intelligenza artificiale. È qui che entrano in gioco gli acceleratori AI, con funzionalità di elaborazione parallela specializzate che consentono loro di eseguire miliardi di calcoli contemporaneamente.
Iscriviti alla newsletter Think
Man mano che il settore dell'AI si espande in nuove applicazioni e campi, gli acceleratori AI sono fondamentali per accelerare l'elaborazione dei dati necessari per creare applicazioni di AI su larga scala.
Senza acceleratori AI come GPU, field programmable gate array (FPGA) e circuiti integrati per applicazioni specifiche (ASIC) per accelerare il deep learning, le scoperte nell'AI come ChatGPT richiederebbero molto più tempo e sarebbero più costose. Gli acceleratori AI sono ampiamente utilizzati da alcune delle più grandi aziende al mondo, tra cui Apple, Google, IBM, Intel e Microsoft.
Con velocità e scalabilità eccezionali nel settore della tecnologia AI in rapida evoluzione, gli acceleratori AI sono diventati indispensabili per aiutare le aziende a innovare su larga scala e portare nuove applicazioni di AI sul mercato più rapidamente. Gli acceleratori AI sono superiori alle loro controparti precedenti per tre aspetti fondamentali: velocità, efficienza e design.
Velocità
Gli acceleratori AI sono molto più veloci delle CPU tradizionali grazie alla loro latenza (una misura dei ritardi in un sistema) notevolmente inferiore. La bassa latenza è particolarmente critica nello sviluppo di applicazioni AI nei settori medico e dei veicoli autonomi, dove i ritardi di secondi, o addirittura di millisecondi, sono molto rischiosi.
Efficienza
Gli acceleratori AI possono essere da cento a mille volte più efficienti di altri sistemi di calcolo più standard. Sia i grandi chip acceleratori di AI utilizzati nei data center che quelli più piccoli utilizzati tipicamente nei dispositivi edge assorbono meno energia e dissipano quantità di calore inferiori rispetto alle loro controparti precedenti.
Progetta
Gli acceleratori AI hanno la cosiddetta architettura eterogenea, che consente a più processori di supportare compiti separati, una capacità che aumenta le prestazioni di calcolo ai livelli richiesti dalle applicazioni AI.
Gli acceleratori AI sono fondamentali per le applicazioni della tecnologia AI, tuttavia ci sono sfide che il settore deve affrontare che dovranno essere risolte presto o ostacoleranno l'innovazione.
La maggior parte degli acceleratori AI sono prodotti esclusivamente a Taiwan
Il 60% dei semiconduttori mondiali e il 90% dei chip avanzati (compresi gli acceleratori AI) sono prodotti nell'isola di Taiwan. Inoltre, Nvidia, la più grande azienda di hardware e software per l'AI al mondo, per i suoi acceleratori di AI si affida quasi esclusivamente a un'unica azienda, la Taiwan Semiconductor Manufacturing Corporation (TSMC).
I modelli AI si stanno sviluppando più velocemente rispetto agli acceleratori AI
I modelli AI più potenti di oggi richiedono una potenza di calcolo superiore a quella che molti acceleratori AI sono in grado di gestire, e il ritmo dell'innovazione nella progettazione dei chip non sta tenendo il passo con l'innovazione che si verifica nei modelli AI.
Le aziende stanno esplorando aree come l'in-memory computing e le prestazioni e la fabbricazione migliorate dagli algoritmi AI per aumentare l'efficienza, ma questi progressi non sono rapidi quanto l'aumento dell'esigenza di calcolo delle applicazioni basate sull'AI.
Gli acceleratori AI necessitano di una potenza superiore a quella consentita dalle loro dimensioni
Gli acceleratori AI sono piuttosto piccoli: la maggior parte di questi si misura in millimetri e il più grande al mondo è grande quanto un iPad, il che rende difficile convogliare la quantità di energia necessaria per alimentarli in uno spazio così ridotto. Questo è diventato sempre più difficile perché negli ultimi anni sono aumentate le esigenze di calcolo dei workload di AI. Sarà necessario apportare presto dei miglioramenti alle architetture delle reti di distribuzione dell'energia (PDN) che sono alla base degli acceleratori AI, altrimenti le loro prestazioni cominceranno a risentirne.
Grazie al loro design unico e all'hardware specializzato, gli acceleratori AI migliorano notevolmente le prestazioni di elaborazione dell'AI rispetto ai loro predecessori. Le loro funzioni specifiche consentono di risolvere algoritmi complessi di AI a velocità di gran lunga superiori a quelle dei chip generici.
Gli acceleratori AI sono in genere costituiti da un materiale semiconduttore, come il silicio, e da un transistor collegato a un circuito elettronico. Le correnti elettriche che attraversano il materiale vengono attivate e disattivate, creando un segnale che viene poi letto da un dispositivo digitale. Negli acceleratori avanzati, i segnali vengono attivati e disattivati miliardi di volte al secondo, consentendo ai circuiti di risolvere calcoli complessi utilizzando il codice binario.
Alcuni acceleratori AI sono progettati per uno scopo specifico mentre altri hanno funzionalità più generali. Ad esempio, le NPU sono acceleratori AI costruiti specificamente per il deep learning, mentre le GPU sono acceleratori AI progettati per l'elaborazione di video e immagini.
Incaricati principalmente di risolvere algoritmi avanzati, gli acceleratori AI sono cruciali per varie operazioni legate all'AI, come il machine learning (ML), il deep learning e i problemi delle reti neurali.
Sono in grado di risolvere molti algoritmi contemporaneamente, in modo rapido e accurato, grazie al modo unico in cui distribuiscono le risorse di calcolo, principalmente attraverso l'elaborazione parallela, la loro architettura di memoria unica e una funzione nota come precisione ridotta.
Gli acceleratori AI più avanzati di oggi sono progettati per affrontare problemi complessi e di grandi dimensioni dividendoli in problemi più piccoli e risolvendoli contemporaneamente, aumentando esponenzialmente la velocità.
Elaborazione parallela
Nessun'altra caratteristica migliora le prestazioni degli acceleratori AI come la sua capacità di eseguire molti calcoli contemporaneamente, un'attività nota come elaborazione parallela. A differenza di altri chip, gli acceleratori AI possono completare compiti che prima richiedevano ore e persino giorni in minuti, secondi e persino millisecondi.
Questa capacità li rende indispensabili per le tecnologie AI che si basano sull'elaborazione dei dati in tempo reale, come l'edge computing. A causa dell'enorme numero di algoritmi complessi nei processi di ML e deep learning, gli acceleratori AI sono fondamentali per il progresso della tecnologia e delle sue applicazioni.
Precisione ridotta per l'addestramento dell'AI
Per risparmiare energia, gli acceleratori AI possono utilizzare una funzione nota come aritmetica a precisione ridotta. Le reti neurali sono ancora altamente funzionali e utilizzano numeri in virgola mobile a 16 o addirittura 8 bit, invece dei 32 bit utilizzati dai chip più generici. Ciò significa che possono raggiungere velocità di elaborazione più elevate con un minor dispendio energetico senza compromettere la precisione.
Gerarchia della memoria
Il modo in cui i dati vengono spostati da un luogo all'altro in un acceleratore AI è fondamentale per l'ottimizzazione dei workload di AI. Gli acceleratori AI utilizzano architetture di memoria diverse rispetto ai chip generici, che consentono loro di raggiungere una latenza inferiore e una migliore produttività. Queste caratteristiche di progettazione specializzate, tra cui le cache on-chip e la memoria a banda larga, sono fondamentali per accelerare l'elaborazione di grandi set di dati necessari per i workload di AI ad alte prestazioni.
Gli acceleratori AI sono suddivisi in due architetture in base alla loro funzione: acceleratori AI per data center e acceleratori AI per framework di edge computing. Gli acceleratori AI per data center richiedono un'architettura altamente scalabile e chip di grandi dimensioni, come il Wafer-Scale Engine (WSE), costruito da Cerebras per i sistemi di deep learning, mentre gli acceleratori AI costruiti per gli ecosistemi di edge computing si concentrano maggiormente sull'efficienza energetica e sulla capacità di fornire risultati quasi in tempo reale.
Wafer-scale integration
La Wafer-scale integration, o WSI, è un processo per creare reti di chip AI estremamente grandi in un unico "super" chip per ridurre i costi e accelerare le prestazioni dei modelli di deep learning. La wafer-scale integration più popolare è la rete di chip WSE-3 prodotta da Cerebras e costruita con il processo a 5 nm di TSMC, attualmente l'acceleratore AI più veloce al mondo.
NPU
Le NPU, o unità di elaborazione neurale, sono acceleratori AI per il deep learning e le reti neurali, nonché per i requisiti di elaborazione dei dati specifici di questi workload. Le NPU possono elaborare grandi quantità di dati più velocemente di altri chip. Possono eseguire un'ampia gamma di attività AI associate al machine learning, come il riconoscimento delle immagini e le reti neurali alla base di popolari applicazioni di AI e ML come ChatGPT.
GPU
Le GPU, circuiti elettronici costruiti per migliorare le prestazioni della computer grafica e dell'elaborazione delle immagini, sono utilizzate in una varietà di dispositivi, tra cui schede video, schede madri e telefoni cellulari. Tuttavia, grazie alle loro capacità di elaborazione parallela, vengono sempre più utilizzati anche nell'addestramento dei modelli AI. Un metodo popolare consiste nel collegare molte GPU a un singolo sistema di AI per aumentare la potenza di elaborazione del sistema.
Field programmable gate array (FPGA)
Gli FPGA sono acceleratori AI altamente personalizzabili che richiedono conoscenze avanzate per essere riprogrammati per uno scopo specifico. A differenza di altri acceleratori AI, gli FPGA hanno un design unico che si adatta a una funzione specifica, che spesso ha a che fare con l'elaborazione dei dati in tempo reale. Gli FPGA sono riprogrammabili a livello hardware, consentendo un livello di personalizzazione molto più elevato. Le applicazioni FPGA più comuni includono il settore aerospaziale, l'Internet of Things (IoT) e le reti wireless.
Circuiti integrati per applicazioni specifiche (ASIC)
Gli ASIC sono acceleratori AI progettati pensando a uno scopo o a un workload specifico, come il deep learning nel caso dell'acceleratore ASIC WSE-3 prodotto da Cerebras. A differenza degli FPGA, gli ASIC non possono essere riprogrammati, ma poiché sono costruiti con un unico scopo, in genere sono superiori agli acceleratori più generici. Un esempio di questi è la Tensor Processing Unit (TPU) di Google, sviluppata per il machine learning delle reti neurali utilizzando il software TensorFlow di Google.
Dagli smartphone e dai PC alle tecnologie AI di ultima generazione come la robotica e i satelliti, gli acceleratori AI svolgono un ruolo cruciale nello sviluppo di nuove applicazioni AI. Ecco alcuni esempi di come vengono utilizzati gli acceleratori AI:
Gli acceleratori AI sono in grado di acquisire ed elaborare i dati quasi in tempo reale, il che li rende fondamentali per lo sviluppo di auto a guida autonoma, droni e altri veicoli autonomi. Le loro capacità di elaborazione parallela non hanno eguali e consentono loro di elaborare e interpretare i dati provenienti da telecamere e sensori in modo che i veicoli possano reagire all'ambiente circostante. Ad esempio, quando un'auto a guida autonoma arriva a un semaforo, gli acceleratori AI accelerano l'elaborazione dei dati dei suoi sensori, consentendole di leggere il segnale stradale e le posizioni delle altre auto all'incrocio.
L'edge computing è un processo che avvicina le applicazioni e la potenza di calcolo alle fonti di dati come i dispositivi IoT, consentendo l'elaborazione dei dati con o senza una connessione internet. L'Edge AI consente di eseguire le funzionalità AI e gli acceleratori AI per compiti di ML ai margini della rete, anziché trasferire i dati in un data center per elaborarli. Questo riduce la latenza e l'efficienza energetica in molte applicazioni AI.
I modelli linguistici di grandi dimensioni (LLM) utilizzano gli acceleratori AI per sviluppare la loro capacità unica di comprendere e generare il linguaggio naturale. L'elaborazione parallela degli acceleratori AI aiuta a velocizzare i processi nelle reti neurali, ottimizzando le prestazioni delle applicazioni di AI all'avanguardia come l'AI generativa e i chatbot.
Gli acceleratori AI sono fondamentali per lo sviluppo del settore della robotica grazie alle loro capacità di machine learning e computer vision. Con lo sviluppo di robot potenziati dall'AI per vari compiti, che vanno dagli assistenti personali agli strumenti chirurgici, gli acceleratori AI continueranno a svolgere un ruolo cruciale nello sviluppo della capacità di rilevare e reagire agli ambienti con la stessa velocità e precisione di un essere umano.
Scopri gli insight e ottieni rapidamente risultati affidabili e fruibili senza dover spostare i dati. Applica l'AI e il machine learning ai tuoi dati aziendali più preziosi su IBM Z utilizzando framework e strumenti open source.
Lo studio AI di IBM watsonx.ai fa parte della piattaforma di dati e AI IBM® watsonx che riunisce nuove funzionalità di AI generativa (gen AI), alimentate da foundation model e machine learning (ML) tradizionale in un potente studio che copre l'intero ciclo di vita dell'AI.
IBM AI Infrastructure è sicuro, scalabile, aperto, indennizzato e progettato per supportare la natura altamente dinamica e ad alta intensità di prestazioni dei workload AI, offrendo al contempo operazioni AI sostenibili che riducono i costi, i rischi e il consumo energetico.
Scopri di più sui chip di intelligenza artificiale (AI), microchip per computer appositamente progettati utilizzati nello sviluppo di sistemi AI.
Scopri come l'intelligenza artificiale, o AI, consente ai computer e alle macchine di simulare l'intelligenza e la capacità di risoluzione dei problemi degli esseri umani.
Scopri come il supercomputing, una forma di calcolo ad alte prestazioni, utilizza un potente computer per ridurre il tempo complessivo per la risoluzione.
Scopri come l'AI generativa, chiamata anche gen AI, consente di creare contenuti originali, come testo, immagini, video, audio o codice software, in risposta al prompt o alla richiesta di un utente.
Scopri di più sul software open source, un software sviluppato e gestito attraverso una collaborazione aperta e reso disponibile gratuitamente per chiunque.
Scopri di più sull'elaborazione del linguaggio naturale (NLP), un sottocampo dell'informatica e dell'intelligenza artificiale (AI) che utilizza il machine learning per consentire ai computer di comprendere e comunicare con il linguaggio umano.