Le unità di elaborazione neurale (NPU) e le unità di elaborazione grafica (GPU) completano entrambe l'unità centrale di elaborazione (CPU) principale di un sistema e le differenze fondamentali tra le due si riducono all'architettura del chip e alle funzionalità.
Le GPU contengono migliaia di core per ottenere le attività di calcolo rapide e precise necessarie per il rendering grafico. Le NPU danno priorità al flusso di dati e alla gerarchia della memoria per una migliore elaborazione dei workload di AI in tempo reale.
Entrambi i tipi di microprocessori eccellono nei tipi di elaborazione parallela utilizzati nell'AI, ma le NPU sono progettate appositamente per attività di apprendimento automatico (ML) e intelligenza artificiale.
Le unità di elaborazione neurale (NPU) stanno vivendo un momento di rinnovata popolarità, ma perché questa tecnologia vecchia di quasi dieci anni sta improvvisamente rubando i riflettori? La risposta ha a che fare con i recenti progressi nell'AI generativa che hanno riacceso l'interesse del pubblico per le applicazioni di AI e, per estensione, per i chip acceleratori AI come NPU e GPU.
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e oltre con la newsletter Think. Leggi l' Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
L'architettura NPU è molto diversa da quella della CPU o della GPU. Progettate per eseguire le istruzioni in sequenza, le CPU presentano meno core di elaborazione rispetto alle GPU, che ne hanno molti di più e sono progettate per operazioni che richiedono alti livelli di elaborazione parallela.
Mentre le CPU fanno fatica con le attività di elaborazione parallela e le GPU eccellono a costo di un elevato consumo energetico, l'architettura NPU funziona in modo eccellente imitando il modo in cui il cervello umano elabora i dati. Più che aggiungere semplicemente core aggiuntivi, le NPU raggiungono un elevato parallelismo con un minore consumo di energia grazie a una serie di caratteristiche e tecniche uniche:
Quando si confrontano NPU e GPU, può essere utile valutare le prestazioni tra le caratteristiche principali.
L'integrazione delle NPU nei sistemi integrati offre una serie di vantaggi importanti rispetto ai processori tradizionali in termini di velocità, efficienza e convenienza, fra cui:
Come coprocessore, le NPU sono in uso da diversi anni, in genere integrate con le GPU per fornire supporto per specifiche attività ripetitive. Le NPU continuano ad essere utili nella tecnologia di livello consumatore (come AI Copilot di Microsoft Windows) e in vari dispositivi Internet of Things (IoT), come gli altoparlanti intelligenti che utilizzano le NPU per l'elaborazione del riconoscimento vocale.
Tuttavia, i recenti sviluppi nella tecnologia dell'AI hanno posto maggiore attenzione su questo tipo di processore, poiché modelli di AI più avanzati hanno introdotto strumenti di livello consumer nel dibattito pubblico. È progettato specificamente per attività di AI impegnative come l'elaborazione del linguaggio naturale, poiché l'interesse per l'AI di livello consumatore cresce, così come l'interesse per le NPU.
I principali casi d'uso per le NPU includono:
Prima delle NPU, le GPU sono state a lungo preferite per le attività informatiche che richiedono un'elaborazione parallela ad alte prestazioni. Originariamente progettate per gestire grafica complessa per videogiochi e software di immagini/video, le GPU Continua ad essere utilizzate nei giochi per PC e console, nonché nella realtà virtuale e realtà aumentata, nell' elaborazione ad alte prestazioni (HPC), nel rendering 3D, nei data center e in altre applicazioni.
Vediamo nel dettaglio alcune delle più importanti e moderne applicazioni della tecnologia GPU, tra cui:
Le NPU sono utilizzate al meglio all'interno di sistemi integrati che ottimizzano le operazioni per allocare tipi specifici di risorse a tipi specifici di processori. Progettate per un calcolo preciso e lineare, le CPU vengono allocate preferibilmente su processi generici come la gestione di sistemi e risorse, mentre le GPU sono specializzate per carichi di lavoro intensi che traggono vantaggio dal calcolo parallelo.
Man mano che le applicazioni diventano più diffuse, è meglio distribuire NPU ancora più specializzate come complemento a CPU e GPU per gestire compiti specifici di AI e ML con un'elaborazione parallela a bassa latenza e altamente efficiente dal punto di vista energetico.
Usa framework e strumenti open source per applicare l'AI e il machine learning ai dati aziendali più preziosi sui mainframe IBM zSystems.
IBM fornisce soluzioni per l'infrastruttura AI per accelerare l'impatto su tutta l'azienda con una strategia hybrid by design.
Sblocca il valore dei dati aziendali con IBM Consulting e crea un'organizzazione basata su insight in grado di generare vantaggi aziendali.