L’unité de traitement neuronal (NPU) et l’unité de traitement graphique (GPU) complètent toutes deux l’unité centrale de traitement (CPU) d’un système, et les différences fondamentales entre les deux se résument à l’architecture des puces et aux capacités de traitement.
Les GPU contiennent des milliers de cœurs pour réaliser les tâches de calcul rapides et précises nécessaires au rendu graphique et aux jeux. Les NPU donnent la priorité au flux de données et à la hiérarchie de la mémoire pour un meilleur traitement des workloads d’IA en temps réel.
Les deux types de microprocesseurs excellent dans les types de traitement parallèle utilisés dans l’IA, mais les NPU sont spécialement conçues pour les tâches de machine learning (ML) et d’intelligence artificielle.
Les unités de traitement neuronal (NPU) ont actuellement leur heure de gloire, mais pourquoi cette technologie, vieille de près de dix ans, vole-t-elle soudainement la vedette ? La réponse réside dans les récents progrès de l’IA générative (intelligence artificielle), qui suscitent l’intérêt du public pour les applications d’IA, et par extension, les puces d’accélération de l’IA telles que les NPU et les GPU.
Newsletter sectorielle
Restez au fait des tendances les plus étonnantes du secteur dans le domaine de l’IA, de l’automatisation, des données et bien d’autres avec la newsletter Think. Consultez la Déclaration de confidentialité d’IBM.
Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.
L’architecture d’une NPU diffère considérablement de celle d’un CPU ou d’un GPU. Conçus pour exécuter les instructions de manière séquentielle, les CPU comportent moins de cœurs de traitement que les GPU, qui en comportent beaucoup plus et sont conçus pour les opérations exigeantes qui nécessitent des niveaux élevés de traitement parallèle.
Alors que les CPU peinent avec les tâches de traitement parallèle et que les GPU excellent au prix d’une consommation d’énergie élevée, l’architecture NPU prospère en imitant la façon dont les cerveaux humains traitent les données. Au lieu de n’ajouter que des cœurs supplémentaires, les NPU atteignent un parallélisme élevé avec une consommation d’énergie réduite grâce à un certain nombre de fonctionnalités et de techniques uniques :
Lorsque l’on compare des NPU et des GPU, il peut être utile d’évaluer les performances de leurs principales fonctionnalités.
L’intégration des NPU dans les systèmes intégrés offre un certain nombre d’avantages évidents par rapport aux processeurs traditionnels en matière de vitesse, d’efficacité et de commodité. Voici quelques-uns de ses avantages :
En tant que coprocesseur, les NPU sont utilisées depuis de nombreuses années et sont généralement intégrées aux GPU pour prendre en charge des tâches répétitives spécifiques. Les NPU continuent d’être utiles dans les technologies grand public (telles que AI Copilot de Microsoft Windows) et dans divers appareils de l’Internet des objets (IdO) (tels que les haut-parleurs intelligents qui utilisent les NPU pour traiter la reconnaissance vocale).
Cependant, les récents développements de la technologie d’IA ont mis en lumière ce type de processeur, car les modèles d’IA plus avancés ont généralisé l’utilisation des outils d’IA grand public. Comme elles sont spécifiquement conçues pour les tâches d’IA exigeantes telles que le traitement automatique du langage naturel, l’intérêt pour les NPU a crû proportionnellement à l'intérêt pour l’IA grand public.
Les principaux cas d’utilisation des NPU sont les suivants :
Avant les NPU, les GPU ont longtemps été privilégiés pour les tâches de calcul qui nécessitait un traitement parallèle à forte intensité de performances. Conçus à l’origine pour gérer des graphismes complexes dans les jeux vidéo et les logiciels d’image/vidéo, les GPU ont continué à être utilisés dans les jeux sur PC et consoles, ainsi que dans la réalité virtuelle et réalité augmentée, le calcul haute performance (HPC), le rendu 3D, les centres de données et d’autres applications.
Voici un aperçu plus détaillé de certaines des applications modernes les plus importantes de la technologie GPU :
Les NPU font une vraie différence dans les systèmes intégrés qui optimisent les opérations pour allouer des types de ressources spécifiques à des types de processeurs spécifiques. Conçus pour une informatique linéaire et précise, les CPU gagnent à être affectés à des processus généraux tels que la gestion des systèmes et des ressources, tandis que les GPU sont spécialisés pour les workloads intenses qui bénéficient du parallélisme.
Alors que les applications d’intelligence artificielle se généralisent, il est préférable de déployer des NPU encore plus spécialisés en complément des CPU et des GPU pour gérer les tâches spécifiques à l’IA et au ML avec un traitement parallèle à faible latence et à haute efficacité énergétique.
Associez cadres et outils open source pour appliquer IA et machine learning aux données les plus importantes de votre entreprise sur les mainframes IBM zSystems.
IBM propose des solutions d’infrastructure IA pour accélérer l’impact à l’échelle de l’entreprise grâce à une stratégie « hybrid by design ».
Avec IBM Consulting, exploitez les données de votre entreprise et développez une organisation basée sur les informations pour tirer des avantages métier.