Un'unità di elaborazione neurale (NPU) è un microprocessore informatico specializzato progettato per imitare la funzione di elaborazione del cervello umano. Sono ottimizzati per reti neurali di intelligenza artificiale (IA), attività e applicazioni di deep learning e machine learning.
A differenza delle unità di elaborazione centrale (CPU) o delle unità di elaborazione grafica (GPU) generiche, le NPU sono personalizzate per accelerare le attività e i workload di AI, come il calcolo dei livelli di rete neurale composti da matematica scalare, vettoriale e tensoriale.
Conosciute anche come AI chip o AI accelerator, le NPU vengono generalmente utilizzate all'interno di architetture informatiche eterogenee che combinano più processori (ad esempio, CPU e GPU). I data center su larga scala possono utilizzare NPU autonome collegate direttamente alla scheda madre di un sistema. Tuttavia, la maggior parte delle applicazioni di consumo, come smartphone, dispositivi mobili e laptop, combinano l'NPU con altri coprocessori su un singolo microchip a semiconduttore noto come system-on-chip (SoC).
Integrando una NPU dedicata, i produttori sono in grado di offrire ai dispositivi app di AI generativa in grado di elaborare applicazioni e workload di AI e algoritmi di machine learning in tempo reale con un consumo energetico relativamente basso e un throughput elevato.
Newsletter di settore
Resta al passo con le tendenze più importanti e interessanti del settore relative ad AI, automazione, dati e oltre con la newsletter Think. Leggi l' Informativa sulla privacy IBM.
L'abbonamento sarà fornito in lingua inglese. Troverai un link per annullare l'iscrizione in tutte le newsletter. Puoi gestire i tuoi abbonamenti o annullarli qui. Per ulteriori informazioni, consulta l'Informativa sulla privacy IBM.
Le unità di elaborazione neurale (NPU) sono adatte ad attività che richiedono elaborazione parallela a bassa latenza, come l'elaborazione di algoritmi di deep learning, riconoscimento vocale, elaborazione del linguaggio naturale, elaborazione di foto e video e rilevamento di oggetti.
Le caratteristiche principali delle NPU includono quanto segue:
Basate sulle reti neurali del cervello, le unità di elaborazione neurale (NPU) funzionano simulando il comportamento dei neuroni umani e delle sinapsi a livello del circuito. Ciò consente l'elaborazione di set di istruzioni di deep learning in cui un'istruzione completa l'elaborazione di un set di neuroni virtuali.
A differenza dei processori tradizionali, le NPU non sono costruite per calcoli precisi. Le NPU invece sono appositamente progettate per le funzioni di risoluzione dei problemi e possono migliorare nel tempo, imparando da diversi tipi di dati e input. Sfruttando il machine learning, i sistemi di AI che incorporano le NPU possono fornire soluzioni personalizzate più velocemente, senza la necessità di ulteriori programmazioni manuali.
Come caratteristica, le NPU offrono un'elaborazione parallela superiore e sono in grado di accelerare le operazioni AI attraverso core semplificati ad alta capacità che sono liberi dall'eseguire più tipi di attività. Una NPU include moduli specifici per moltiplicazione e addizione, funzioni di attivazione, operazioni sui dati 2D e decompressione. Il modulo specializzato di moltiplicazione e addizione viene utilizzato per eseguire operazioni relative alle applicazioni di reti neurali, come il calcolo della moltiplicazione e dell'addizione di matrici, la convoluzione, il prodotto scalare e altre funzioni.
Mentre i processori tradizionali richiedono migliaia di istruzioni per completare questo tipo di elaborazione dei neuroni, una NPU potrebbe essere in grado di completare un'operazione simile con una sola. Una NPU integrerà anche storage e il calcolo tramite pesi sinaptici, una variabile computazionale fluida assegnata ai nodi che indica la probabilità di un risultato "corretto" o "desiderato" che può adattarsi o "imparare" nel tempo, portando a una migliore efficienza operativa.
Sebbene lo sviluppo delle NPU continui ad evolversi, i test hanno dimostrato che, a parità di consumo energetico, alcune prestazioni delle NPU sono oltre 100 volte migliori di una GPU comparabile.
Le unità di elaborazione neurale (NPU) non sono progettate, né previste, per sostituire le CPU e le GPU tradizionali. Tuttavia, l'architettura di una NPU migliora il design di entrambi i processori per fornire parallelismo e apprendimento automatico senza precedenti e più efficienti. In grado di migliorare le operazioni generali (ma più adatte per determinati tipi di attività generali), se combinate con CPU e GPU, le NPU offrono diversi vantaggi preziosi rispetto ai sistemi tradizionali.
I vantaggi principali sono i seguenti:
Nel mondo dell'informatica classica, l'unità di elaborazione centrale (CPU) è considerata il "cervello" del computer. La CPU elabora la maggior parte delle attività informatiche tradizionali ed è responsabile di un'ampia gamma di potenziali applicazioni. Sebbene ne esistano molti tipi diversi, generalmente tutte le CPU eseguono le operazioni in ordine lineare, rispondendo alle richieste nell'ordine in cui arrivano.
Dagli anni '50 agli anni '90, le CPU hanno subito il peso di praticamente tutte le elaborazioni informatiche, l'esecuzione di istruzioni per eseguire programmi, controllare i sistemi e gestire gli input/output (I/O).
Le applicazioni esigenti hanno spinto generazione dopo generazione di progetti di CPU ai limiti delle possibilità dell'hardware, spesso causando rallentamenti significativi o addirittura guasti del sistema. Ma con l'avvento dei giochi per personal computer e della progettazione assistita (CAD) negli anni '80, il settore aveva bisogno di una soluzione più veloce ed efficiente per il rendering della grafica computerizzata.
L'unità di elaborazione grafica (GPU) è stata inizialmente creata per scaricare le impegnative attività di elaborazione delle immagini dalla CPU principale. Mentre le GPU tendono a utilizzare meno core per eseguire operazioni lineari, le GPU hanno le caratteristiche di centinaia o migliaia di core con la capacità di eseguire l'elaborazione parallela, un processo in cui le attività di grandi dimensioni vengono suddivise in problemi più piccoli che possono essere risolti contemporaneamente da più processori e/o core.
Inizialmente sviluppato per gestire le esigenze di elaborazione di video e immagini, le funzionalità di elaborazione parallela delle GPU hanno reso l'hardware particolarmente adatto ad altre applicazioni informatiche impegnative, come attività relative alla blockchain e AI. Sebbene le GPU non siano l'unico tipo di processore in grado di eseguire l'elaborazione parallela o il calcolo parallelo, sono adatte per il parallelismo. Tuttavia, anche le GPU hanno dei limiti e, in genere, richiedono un consumo di energia estremamente costoso per eseguire operazioni più impegnative. Con le GPU, un aumento delle prestazioni comporta un aumento dei costi energetici.
Le NPU e altri acceleratori AI offrono alternative più efficienti. Incorporando e migliorando il parallelismo avanzato delle GPU, le NPU specificamente progettate per le operazioni di AI forniscono prestazioni elevate con un consumo energetico inferiore (e il vantaggio aggiuntivo di un'impronta ridotta).
Come tecnologia emergente, molti dei principali produttori di computer e hardware, tra cui Microsoft, Intel, Nvidia, Qualcomm e Samsung, offrono unità di elaborazione neurale (NPU) autonome o varianti integrate, come Apple Neural Engine.
L'integrazione delle NPU nell'elettronica di consumo offre una vasta gamma di vantaggi, come un migliore riconoscimento delle immagini e l'ottimizzazione per le fotocamere abilitate all'AI per sfocare meglio lo sfondo durante le videochiamate. Di seguito sono riportate alcune applicazioni aggiuntive per le NPU.
Come tipo di acceleratore AI, le NPU sono progettate appositamente per migliorare le prestazioni dei sistemi di AI e ML, come le reti neurali. Complementando le GPU, il parallelismo potenziato delle NPU offre miglioramenti drammatici per i modelli linguistici di grandi dimensioni che richiedono un'elaborazione adattiva a bassa latenza per interpretare i segnali multimediali, eseguire il riconoscimento vocale e produrre il linguaggio naturale e l'arte utilizzati in strumenti come gli ai chatbot e le applicazioni di immagini e video di AI generativa.
Con eccezionali capacità di elaborazione parallela e auto-apprendimento, le NPU sono adatte per dispositivi IoT in rete, come dispositivi indossabili, assistenti vocali ed elettrodomestici intelligenti.
AI e machine learning sono stati un grande vantaggio per i data center che vogliono ottimizzare le risorse energetiche. Le NPU ad alte prestazioni e ad alta efficienza energetica offrono un enorme valore per i data center offrendo una migliore gestione delle risorse per il cloud computing.
I veicoli autonomi, come i droni o le auto e i camion a guida autonoma, traggono grandi vantaggi dalle capacità di elaborazione in tempo reale delle NPU, che consentono una correzione della rotta più rapida e migliore in base all'input del sensore multimediale. Con un'elaborazione parallela senza pari, le NPU possono aiutare i veicoli autonomi a interpretare ed elaborare input in rapido sviluppo, come segnali stradali, schemi di traffico e persino ostacoli imprevisti.
Sebbene il cloud computing offra soluzioni avanzate di dati e risorse off-site per IoT, dispositivi intelligenti e altri dispositivi di personal computing, l'edge computing e l'edge AI cercano di avvicinare fisicamente i dati e le risorse di calcolo critici agli utenti per ridurre la latenza, attenuare il consumo energetico e rafforzare la privacy. Poiché richiedono meno energia e offrono un'impronta fisica ridotta, le NPU stanno diventando un componente prezioso dell'edge computing e dell'AI sui dispositivi.
Le NPU, esperte nella gestione di attività che richiedono machine learning e computer vision, offrono un supporto fondamentale allo sviluppo del settore della robotica. La robotica basata sull'AI, dagli assistenti domestici agli strumenti chirurgici automatizzati, si affida alle NPU per sviluppare la capacità di rilevare, apprendere e reagire ai loro ambienti.
Usa framework e strumenti open source per applicare l'AI e il machine learning ai dati aziendali più preziosi sui mainframe IBM zSystems.
IBM fornisce soluzioni per l'infrastruttura AI per accelerare l'impatto su tutta l'azienda con una strategia hybrid by design.
Sblocca il valore dei dati aziendali con IBM Consulting e crea un'organizzazione basata su insight in grado di generare vantaggi aziendali.