Les puces d’intelligence artificielle (IA) sont des micropuces informatiques spécialement conçues, utilisées dans le développement de systèmes d’IA. Contrairement à d’autres types de puces, les puces d’IA sont souvent conçues spécifiquement pour gérer des tâches d’IA, telles que le machine learning (ML), l’analyse de données et le traitement automatique du langage naturel (NLP).
De la victoire d’IBM Watson au jeu télévisé Jeopardy! à la sortie de ChatGPT d’OpenAI pour les voitures autonomes et l’IA générative, le potentiel de l’IA semble pour l’heure illimité, et la plupart des grandes entreprises technologiques, notamment Google, IBM, Intel, Apple et Microsoft, sont toutes fortement impliquées dans cette technologie.
Cependant, alors que l’IA aborde des problèmes toujours plus complexes, les exigences en matière de traitement et de vitesse de calcul augmentent. Les puces d’IA sont conçues pour répondre aux exigences des algorithmes d’IA hautement sophistiqués et exécuter des fonctions d’IA de base que les unités centrales de traitement (CPU) classiques ne peuvent pas prendre en charge.
Le terme générique « puce d’IA » englobe de nombreux types de puces conçues pour les environnements de calcul exigeants requis par les tâches d’IA. Les unités de traitement graphique (GPU), les réseaux de portes programmables in situ (FPGA) et les circuits intégrés spécialisés (ASIC) sont des exemples de puces d’IA parmi les plus utilisées. Bien que certaines d’entre elles ne soient pas nécessairement conçues spécifiquement pour l’IA, elles sont destinées à des applications avancées et bon nombre de leurs capacités sont adaptées aux workloads d’IA.
L’industrie de l’IA progresse à grands pas, avec des avancées dans le domaine du ML et de l’IA générative qui font régulièrement la une des journaux. À mesure que la technologie de l’IA se développe, les puces d’IA sont devenues essentielles pour créer des solutions d’IA à grande échelle. Par exemple, le développement d’une application d’IA moderne comme la reconnaissance faciale ou l’analyse de données à grande échelle à l’aide d’un processeur traditionnel (ou même d’une puce d’IA d’il y a quelques années) serait considérablement plus coûteux. Les puces d’IA modernes sont supérieures à leurs prédécesseurs : elles sont plus rapides, plus performantes, plus flexibles et plus efficaces, quatre points forts incontestables.
Les puces d’IA utilisent une méthode de calcul différente et plus rapide que les générations de puces précédentes. Le traitement parallèle, ou calcul parallèle, est le processus consistant à diviser les problèmes ou les tâches importants et complexes en problèmes plus petits et plus simples. Alors que les anciennes puces utilisent un processus appelé traitement séquentiel (passant d’un calcul à l’autre), les puces d’IA effectuent des milliers, des millions, voire des milliards de calculs à la fois. Cette capacité leur permet de traiter des problèmes importants et complexes en les divisant en plus petits et en les résolvant en même temps, augmentant ainsi leur vitesse de manière exponentielle.
Les puces d’IA sont beaucoup plus personnalisables que leurs homologues et peuvent être conçues pour une fonction d’IA ou un modèle d’entraînement spécifique. Les puces d’IA ASIC, par exemple, sont extrêmement petites et hautement programmables et sont utilisées dans un large éventail d’applications, des téléphones portables aux satellites de défense. Contrairement aux CPU traditionnels, les puces d’IA sont conçues pour répondre aux exigences et aux demandes de calcul des tâches d’IA typiques, une caractéristique qui a contribué aux avancées et aux innovations rapides dans le secteur de l’IA.
Les puces d’IA modernes nécessitent moins d’énergie que les générations précédentes, en grande partie grâce aux améliorations de la technologie des circuits intégrés qui permettent aux puces d’IA de distribuer leurs tâches plus efficacement que les anciennes séries. Les fonctionnalités modernes des puces, telles que l’arithmétique de basse précision, permettent aux puces d’IA de résoudre les problèmes avec moins de transistors et, par conséquent, une consommation d’énergie réduite. Ces améliorations respectueuses de l’environnement contribuent à réduire l’empreinte carbone des opérations gourmandes en ressources comme les centres de données.
Étant donné que les puces d’IA sont conçues sur mesure, souvent pour une tâche très spécifique, elles fournissent des résultats plus précis lors de l’exécution de tâches essentielles comme le traitement automatique du langage naturel (NLP) ou l’analyse de données. Ce niveau de précision est de plus en plus nécessaire à mesure que la technologie de l’IA se répand dans des domaines où la rapidité et la précision sont fondamentales, par exemple la médecine.
Malgré les nombreuses qualités des puces d’IA qui font progresser la technologie, l’adoption généralisée de ces composants matériels puissants ne va pas sans difficultés :
Selon The Economist, les fabricants de puces de l’île de Taïwan produisent plus de 60 % des semi-conducteurs présents dans le monde et plus de 90 % des puces les plus avancées.Malheureusement, des pénuries sévères et une situation géopolitique fragile freinent la croissance mondiale.1
Nvidia, la plus grande société mondiale de matériel et de logiciels d’IA, s’appuie presque exclusivement sur Taiwan Semiconductor Manufacturing Corporation (TSMC) pour ses puces d’IA les plus en pointe. Le combat de Taïwan pour rester indépendante de la Chine se poursuit, et certains analystes ont émis l’hypothèse qu’une invasion chinoise de l’île pourrait empêcher TSMC de fabriquer des puces d’intelligence artificielle.
À mesure que les développeurs élaborent des modèles IA toujours plus grands et plus puissants, les demandes de calcul augmentent plus rapidement que les progrès réalisés dans la conception des puces d’IA. Des améliorations sont en cours au niveau du matériel, les entreprises explorant des domaines comme l’informatique en mémoire ou les performances et la fabrication améliorées par les algorithmes d’IA pour augmenter l’efficacité algorithmique des puces, mais ces progrès n’avancent pas aussi rapidement que l’augmentation de la demande de calcul des applications d’IA.
À mesure que les exigences de performance augmentent, les puces d’IA deviennent de plus en plus grandes et consomment beaucoup plus d’énergie pour fonctionner. Les puces d’IA modernes et avancées nécessitent des centaines de watts de puissance par puce, une quantité d’énergie qu’il est difficile de diriger dans de petits espaces. Des progrès significatifs dans l’architecture des réseaux de distribution d’énergie (PDN) doivent être réalisés pour alimenter les puces d’IA, sinon leurs performances en seront affectées.
Le terme puce d’IA fait référence à une unité de circuit intégré composée d’un semi-conducteur (généralement du silicium) et de transistors. Les transistors sont des matériaux semi-conducteurs connectés à un circuit électronique. Lorsqu’un courant électrique est envoyé à travers le circuit et activé ou désactivé, il crée un signal lisible par un appareil numérique sous la forme de 0 ou 1.
Dans les dispositifs modernes comme les puces d’IA, les signaux activés et désactivés basculent des milliards de fois par seconde, permettant aux circuits de résoudre des calculs complexes en utilisant du code binaire pour représenter différents types d’informations et de données.
Les puces peuvent assurer différentes fonctions. Par exemple, les puces mémoire stockent et récupèrent généralement des données tandis que les puces logiques exécutent des opérations complexes qui permettent le traitement des données. Les puces d’IA sont des puces logiques, qui traitent les grands volumes de données nécessaires aux workloads d’IA.
Leurs transistors sont généralement plus petits et plus efficaces que ceux des puces standard ; leurs capacités de traitement sont donc plus rapides et leur empreinte énergétique est plus faible.
Parmi les caractéristiques des puces d’IA, la plus cruciale pour les workloads d’IA est sans doute la fonction de traitement parallèle qui accélère la résolution d’algorithmes d’apprentissage complexes. Contrairement aux puces à usage général dépourvues de capacités de traitement parallèle, les puces d’IA peuvent effectuer de nombreux calculs à la fois, ce qui leur permet d’accomplir en quelques minutes ou quelques secondes des tâches qui prendraient beaucoup plus de temps avec des puces standard.
En raison du nombre et de la complexité des calculs impliqués dans l’entraînement des modèles IA, les capacités de traitement parallèle des puces d’IA sont essentielles à l’efficacité et à l’évolutivité de la technologie.
Les différents types de puces d’IA se distinguent par leur conception et leur objectif.
Les unités de traitement graphique (GPU), ou processeurs graphiques, sont des circuits électroniques conçus pour accélérer l’affichage et le traitement des images sur divers appareils, notamment les cartes vidéo, les cartes systèmes, les téléphones mobiles et les ordinateurs personnels (PC).
Conçues à l’origine pour des applications graphiques, les puces GPU sont devenues indispensables dans l’entraînement des modèles d’IA en raison de leurs capacités de traitement parallèle. Les développeurs connectent généralement plusieurs GPU au même système d’IA afin de bénéficier d’une puissance de traitement encore plus importante.
Les réseaux de portes programmables in situ (FPGA) sont des puces d’IA programmables sur mesure qui nécessitent des connaissances spécialisées en reprogrammation. Contrairement à d’autres puces d’IA souvent conçues pour une application spécifique, les FPGA se présentent sous la forme d’une série de blocs logiques interconnectés et configurables. Les FPGA sont reprogrammables au niveau matériel, ce qui permet un niveau de personnalisation plus élevé.
Les unités de traitement neuronal (NPU) sont des puces d’IA conçues spécifiquement pour l’apprentissage profond et les réseaux neuronaux, ainsi que pour les grands volumes de données dont ces workloads ont besoin. Les NPU peuvent traiter de grandes quantités de données plus rapidement que les autres puces et effectuer diverses tâches d’IA telles que la reconnaissance d’images et les fonctionnalités NLP pour des applications populaires comme ChatGPT.
Les circuits intégrés spécifiques à une application (ASIC) sont des puces conçues sur mesure pour les applications d’IA et ne peuvent pas être reprogrammés comme les FPGA. Cependant,
comme ils sont construits avec un seul objectif en tête, ils accélèrent souvent les workloads d’IA, ils surpassent généralement leurs homologues plus généraux.
En tant qu’élément matériel essentiel dans la conception et la mise en œuvre de l’une des technologies à la plus forte croissance au monde, les cas d’utilisation des puces d’IA s’étendent sur plusieurs continents et secteurs d’activité. Des smartphones et ordinateurs portables aux applications d’IA de pointe comme la robotique, les voitures autonomes et les satellites, les puces d’IA deviennent rapidement un composant critique dans tous les secteurs. Voici quelques-unes des applications les plus courantes :
La capacité des puces d’IA à capturer et à traiter de grandes quantités de données en temps quasi réel les rend indispensables au développement des véhicules autonomes. Grâce au traitement parallèle, elles peuvent interpréter les données des caméras et des capteurs et les traiter afin que le véhicule puisse réagir à son environnement d’une manière similaire au cerveau humain. Par exemple, lorsqu’une voiture autonome arrive à un feu de circulation, les puces d’IA utilisent un traitement parallèle pour détecter la couleur du signal, les positions des autres voitures à l’intersection et d’autres informations critiques pour la sécurité.
L’edge computing (un framework qui rapproche les applications d’entreprise et la puissance de calcul supplémentaire des sources de données telles que les appareils de l’Internet des objets (IdO) et les serveurs locaux en périphérie), exploite les capacités des puces d’IA pour exécuter des tâches de machine learning sur les appareils de périphérie. Avec une puce d’IA, les algorithmes d’IA peuvent traiter des données à la périphérie d’un réseau en quelques millisecondes, avec ou sans connexion Internet. L’IA en périphérie permet de traiter les données là où elles sont générées plutôt que dans le cloud, ce qui réduit la latence et rend les applications plus économes en énergie.
La capacité d’une puce d’IA à accélérer le ML et les algorithmes d’apprentissage profond permet d’améliorer le développement des grands modèles de langage (LLM), une catégorie de modèles IA de fondation entraînés sur de grands volumes de données, capables de comprendre et de générer du texte en langage naturel. Le traitement parallèle des puces d’IA permet aux LLM d’accélérer les opérations dans les réseaux neuronaux, améliorant ainsi les performances des applications d’IA comme l’IA générative et les chatbots.
Les capacités de ML et de vision par ordinateur des puces d’IA en font un atout important dans le développement de la robotique. Des agents de sécurité aux compagnons personnels, les robots optimisés par l’IA transforment le monde dans lequel nous vivons, en effectuant des tâches chaque jour plus complexes. Les puces d’IA sont à l’avant-garde de cette technologie, aidant les robots à détecter les changements dans leur environnement et à réagir avec la même rapidité et la même subtilité qu’une personne.
Nous avons interrogé 2 000 entreprises à propos de leurs initiatives d’IA pour découvrir ce qui fonctionne, ce qui ne fonctionne pas et comment progresser.
IBM Granite est notre famille de modèles d’IA ouverts, performants et fiables, conçus pour les entreprises et optimisés pour dimensionner vos applications d’IA. Explorez les options de langage, de code, de séries temporelles et de garde-fous.
Accédez à notre catalogue complet de plus de 100 cours en ligne en souscrivant aujourd’hui un abonnement individuel ou multiutilisateur afin d’élargir vos compétences dans certains de nos produits à un prix avantageux.
Dirigé par des leaders d’opinion IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires qui leur permettront d’orienter leurs investissements IA vers les opportunités les plus prometteuses.
1 « Taiwan’s dominance of the chip industry makes it more important », The Economist, 6 mars 2023.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io