Qu'est-ce que l'inférence IA ?

Auteurs

Mesh Flinders

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

Qu’est-ce que l’inférence IA ?

L’inférence de l’intelligence artificielle (IA) est la capacité des modèles IA entraînés à reconnaître des schémas et à tirer des conclusions à partir d’informations qu’ils n’ont jamais vues auparavant.

L'inférence IA est un élément clé du développement des technologies d'intelligence artificielle et soutient ses applications les plus innovantes, notamment l'IA générative, qui est le moteur de l'application à succès ChatGPT. Ces mêmes modèles IA s'appuient sur l'inférence pour imiter la façon dont les gens pensent, raisonnent et répondent aux requêtes.

L’inférence IA repose sur l’entraînement d’un modèle IA avec des algorithmes de prise de décision à partir d’un large jeu de données. Les modèles IA reposent sur des algorithmes de prise de décision, entraînés grâce à des réseaux neuronaux, c’est-à-dire de grands modèles de langage (LLM ) dont la structure s’apparente à celle du cerveau humain. Prenons l’exemple d’un modèle IA conçu pour la reconnaissance faciale : il peut être entraîné sur des millions d’images de visages. Au fur et à mesure, il apprend à identifier précisément des caractéristiques comme la couleur des yeux, la forme du nez et la couleur des cheveux, ce qui lui permet ensuite de reconnaître un individu sur une image.

La différence entre l'inférence IA et le machine learning

L’inférence IA et le machine learning (ML), bien que proches, constituent deux étapes différentes du cycle de vie d’un modèle IA.

  • Le machine learning est un processus utilisant des données d’apprentissage et des algorithmes, grâce à l’ apprentissage supervisé, pour permettre à l’IA d’imiter l’apprentissage humain et d’améliorer graduellement sa précision.

  • L'inférence IA est le processus d'application de ce que le modèle IA a appris grâce au ML pour décider, prédire ou conclure à partir des données.

Les dernières tendances en matière d’IA, vues par des experts

Obtenez des informations sur les actualités les plus importantes et les plus intrigantes en matière d’intelligence artificielle. Abonnez-vous à notre newsletter hebdomadaire Think. Lire la Déclaration de confidentialité d’IBM.

Merci ! Vous êtes abonné(e).

Vous recevrez votre abonnement en anglais. Vous trouverez un lien de désabonnement dans chaque newsletter. Vous pouvez gérer vos abonnements ou vous désabonner ici. Consultez la Déclaration de confidentialité d’IBM pour plus d’informations.

Avantages de l’inférence IA

Sans un entraînement sur un jeu de données robuste et approprié à leur application, les modèles IA sont tout simplement inefficaces. Compte tenu de la nature sensible de la technologie et de l'attention médiatique dont elle fait l'objet1, les entreprises doivent faire preuve de prudence. Mais avec des applications qui couvrent de nombreux secteurs et offrent le potentiel de transformation numérique et d'innovation évolutive, ses avantages sont nombreux :

  • Des résultats précis et exacts : les modèles IA gagnent en précision et en exactitude à mesure que la technologie progresse. Ainsi, les nouveaux LLM sont capables de choisir des mots, des tournures de phrases et des structures grammaticales afin d'imiter le style d'un auteur donné. Dans les domaines artistique et vidéo, ils sont capables de sélectionner couleurs et styles pour retranscrire une ambiance, un ton ou un style artistique spécifique.
  • Amélioration du contrôle qualité : L'une des extensions les plus récentes et potentiellement les plus intéressantes de l'IA se situe dans le domaine de la surveillance et des inspections des systèmes. Des modèles IA, entraînés sur des jeux de données allant de la qualité de l'eau aux conditions météorologiques, sont utilisés pour surveiller l'état des équipements industriels sur le terrain.
  • Robotique et apprentissage : Des robots et systèmes robotiques avec des capacités d'inférence IA sont mis en œuvre pour réaliser diverses tâches et créer de la valeur ajoutée pour l'entreprise. Les voitures sans conducteur sont probablement l'application la plus connue de l'apprentissage robotique. Les entreprises de voitures autonomes comme Tesla, Waymo et Cruz utilisent beaucoup l'inférence IA pour apprendre aux réseaux neuronaux à comprendre et à suivre les règles de la circulation.
  • Apprentissage sans supervision : L'inférence IA s'entraîne sur des données sans programmation préalable, réduisant ainsi l'intervention humaine et les ressources nécessaires à son fonctionnement efficace. Par exemple, un modèle IA peut apprendre à reconnaître les mauvaises herbes et les cultures malades à partir d'images, ce qui peut aider les agriculteurs.
  • Orientation et prise de décision éclairées :  L'une des applications les plus passionnantes de l'inférence IA est sa capacité à comprendre les nuances et la complexité, et à offrir des conseils basés sur les jeux de données sur lesquels elle a été formée. Par exemple, des modèles IA formés sur des principes financiers peuvent offrir des conseils d'investissement judicieux et identifier des activités potentiellement frauduleuses. De même, l'IA peut éliminer le potentiel d'erreur humaine dans des procédures risquées comme le diagnostic d'une maladie ou le pilotage d'un aéronef.
  • Capacités de edge computing : L'inférence IA et l'edge computing offrent tous les avantages de l'IA en temps réel, sans nécessiter de déplacer les données vers un centre de données pour les traiter. Le potentiel de l'inférence IA en périphérie a des répercussions de grande portée, allant de la gestion et de la surveillance des niveaux de stock dans un entrepôt aux réactions à la vitesse de la milliseconde requises pour le fonctionnement sûr d'un véhicule autonome.
AI Academy

Devenir un expert en IA

Obtenez les connaissances nécessaires pour privilégier les investissements dans l’IA qui favorisent la croissance commerciale. Lancez-vous dès aujourd’hui avec notre AI Academy gratuite et menez l’avenir de l’IA au sein de votre organisation.

Les défis de l’inférence IA

Si les avantages de l'inférence par l'IA sont nombreux, cette technologie jeune et en plein essor n'est pas sans poser de problèmes. Voici quelques-uns des défis que les entreprises doivent relever avant d'investir dans l'IA :

  • Conformité : la tâche de réglementer les applications d’IA et l’inférence de l'IA est ardue et en constante évolution. Un exemple est la notion de souveraineté des données, qui stipule que les données sont régies par les lois du pays ou de la région où elles ont été créées. Les multinationales qui collectent, stockent et traitent des données pour l'IA dans plusieurs pays ont du mal à jongler avec les différentes lois et à rester compétitives tout en innovant.
  • Qualité : Pour que les modèles IA soient performants, la qualité des données qu'on leur donne à apprendre est essentielle. De même que l'apprentissage humain dépend de la qualité de l'enseignement, la performance d'un modèle IA est étroitement liée à la qualité des données sur lesquelles il est formé. La qualité de l'apprentissage d'un modèle IA dépend de la clarté et de la pertinence des données sur lesquelles il est formé. Un défi majeur de l'IA, en particulier pour la précision de l'inférence de l'IA, est le choix du modèle approprié à entraîner.
  • Complexité : La complexité des données, au même titre que leur qualité, peut constituer un obstacle pour les modèles IA. Comme pour un étudiant humain, encore une fois, la complexité de la tâche à apprendre influe sur la facilité d'apprentissage d'un modèle d'IA. Les modèles IA destinés à des tâches simples, comme le chatbot de service client ou les voyages virtuels, sont généralement plus faciles à former que ceux conçus pour des problèmes complexes, comme l'imagerie médicale ou la finance.
  • Formation continue : Si l'IA offre des perspectives passionnantes, la création d'applications d'IA efficaces et d'inférences précises exige un niveau d'expertise qui demande du temps et des ressources. Tant que l'offre de talents ne rattrapera pas le rythme de l'innovation, les experts dans ce domaine resteront en forte demande et coûteux à embaucher.
  • Concentration à Taïwan :  La production de 60 % des semi-conducteurs mondiaux et de 90 % des puces avancées (dont les accélérateurs IA nécessaires à l'inférence IA) est concentrée à Taïwan.2 Par ailleurs, Nvidia, la plus grande entreprise mondiale de matériel et de logiciels d'IA, est fortement dépendante de Taiwan Semiconductor Manufacturing Corporation (TSMC) pour la production de ses accélérateurs d'IA. Des catastrophes naturelles ou d'autres événements inattendus pourraient compromettre la production et la distribution des puces essentielles au fonctionnement de l'inférence de l'IA et de ses applications.

Composants critiques pour l’inférence IA

L'inférence de l'IA est un processus complexe qui implique d'entraîner un modèle IA sur des jeux de données appropriés jusqu'à ce qu'il puisse inférer des réponses exactes. Ce processus, très gourmand en ressources de calcul, requiert du matériel et des logiciels spécifiques. Avant d'examiner le processus d'entraînement des modèles IA pour l'inférence, explorons quelques-uns des matériels spécialisés qui le permettent :

Unité centrale de traitement

L' unité centrale de traitement (CPU) est le principal composant fonctionnel d'un ordinateur. Dans l'entraînement et l'inférence de l'IA, le CPU exécute le système d'exploitation et aide à gérer les ressources de calcul nécessaires aux fins d'entraînement.

Processeur graphique

Les processeurs graphiques (GPU), ou circuits électroniques conçus pour les graphiques informatiques et le traitement d'images haute performance, sont utilisés dans divers appareils, notamment les cartes vidéo, les cartes mères et les téléphones portables. Cependant, en raison de leurs capacités de traitement parallèle, ils sont également de plus en plus utilisés dans l'entraînement des modèles IA. Une méthode consiste à connecter plusieurs GPU  à un seul système d'IA pour augmenter la puissance de traitement de ce système.

Réseaux de portes programmables in situ

Les réseaux de portes programmables in situ (FPGA) sont des accélérateurs d'IA hautement personnalisables qui nécessitent des connaissances spécialisées pour être reprogrammés à des fins spécifiques. Contrairement aux autres accélérateurs d'IA, les FPGA ont une conception unique qui convient à une fonction spécifique, souvent liée au traitement des données en temps réel, ce qui est essentiel pour l'inférence de l'IA. Les FPGA sont reprogrammables au niveau matériel, ce qui permet un niveau de personnalisation plus élevé.

Circuits intégrés spécifiques aux applications

Les ASIC sont des accélérateurs d'IA conçus pour un objectif ou une charge de travail spécifique, comme l'apprentissage profond dans le cas de l'accélérateur ASIC WSE-3 produit par Cerebras. Les ASIC aident les data scientists à accélérer les capacités d'inférence de l'IA et à réduire les coûts. Contrairement aux FPGA, les ASIC ne peuvent pas être reprogrammés, mais comme ils sont construits dans un but unique, ils surpassent généralement les autres accélérateurs à usage plus général. À titre d'exemple, citons le Tensor Processing Unit (TPU) de Google, développé pour le machine learning  sur réseaux neuronaux à l'aide du logiciel TensorFlow de Google.

Comment fonctionne l'inférence IA ?

Les entreprises qui envisagent d'investir dans des applications d'intelligence artificielle dans le cadre de leur transition numérique ont intérêt à bien comprendre les bénéfices et les enjeux de l'inférence IA. Pour ceux qui ont étudié en profondeur ses différentes applications et qui sont prêts à les mettre en pratique, voici cinq étapes pour mettre en place une inférence IA efficace :

Préparer les données

Préparer les données est essentiel pour créer des modèles et des applications d’IA efficaces. Les entreprises peuvent créer des jeux de données pour l'entraînement des modèles IA en utilisant des données internes ou externes à leur organisation. Pour optimiser les résultats, il est habituel de combiner les deux. Une autre étape clé de la constitution des données sur lesquelles votre IA s'entraînera est le nettoyage des données, c'est-à-dire la suppression des doublons et la résolution des problèmes de formatage.

Choisir un modèle de formation

Une fois le jeu de données constitué, l'étape suivante consiste à sélectionner le modèle IA approprié à votre application. Il existe des modèles de différents niveaux de complexité. Les modèles plus complexes peuvent gérer davantage d'entrées et effectuer des inférences plus fines que les modèles plus simples. Il est important, lors de cette étape, de bien définir vos besoins, car former des modèles plus complexes peut s'avérer plus coûteux en temps, en argent et en ressources que former des modèles plus simples.

Entraîner votre modèle

Afin d'obtenir les résultats escomptés d'une application d'IA, les entreprises doivent généralement effectuer de nombreuses sessions d'entraînement rigoureuses. Au fur et à mesure que les modèles s'entraînent, la précision de leurs inférences s'améliorera et la quantité de ressources de calcul nécessaires pour parvenir à ces inférences, comme la puissance de calcul et la latence, diminuera. Plus le modèle apprend, plus il devient capable de faire des suppositions sur de nouvelles données en utilisant ce qu'il a déjà appris. C'est une étape passionnante car vous pouvez voir votre modèle commencer à fonctionner comme prévu.

Surveiller la sortie

Avant de mettre votre modèle en service, il faut bien vérifier qu'il ne fait pas d'erreurs, qu'il n'est pas biaisé et qu'il respecte la confidentialité des données. Le post-traitement, comme on appelle parfois cette phase, consiste à créer un processus étape par étape pour garantir l'exactitude de votre modèle. La phase de post-traitement est le moment de créer une méthodologie qui garantira que votre IA vous donne les réponses que vous souhaitez et fonctionne comme prévu.

Déploiement

Après un suivi rigoureux et un post-traitement, votre modèle IA est prêt à être déployé pour un usage professionnel. Cette dernière étape comprend la mise en œuvre de l'architecture et des systèmes de données qui permettront à votre modèle IA de fonctionner, ainsi que la création de procédures de gestion du changement pour former les parties prenantes sur l'utilisation de votre application d'IA dans leurs rôles quotidiens.

Types d'inférence de l'IA

Selon le type d’application d’IA dont les entreprises ont besoin, il existe différents types d’inférence d’IA parmi lesquels elles peuvent choisir. Si une entreprise souhaite créer un modèle IA à utiliser avec une application Internet des objets (IdO), l’inférence en streaming (avec ses capacités de mesure) est probablement le choix le plus approprié. Toutefois, si un modèle IA doit interagir avec des humains, l’inférence en ligne (avec ses capacités LLM) sera plus adaptée. Voici les trois catégories d’inférence en IA ainsi que les traits qui les distinguent.

1. Inférence dynamique

L'inférence dynamique, ou inférence en ligne, représente le type d'inférence IA le plus rapide et est employée dans les applications LLM d'IA les plus populaires, comme ChatGPT d'OpenAI. L'inférence dynamique fournit des résultats et des prédictions immédiatement après qu'on les lui demande et nécessite ensuite une latence minimale et un accès rapide aux données pour fonctionner. Une autre spécificité de l'inférence dynamique se traduit par le fait que les résultats peuvent être fournis si rapidement qu'il n'y a pas le temps de les vérifier avant qu'ils n'arrivent à l'utilisateur final. Cela incite certaines entreprises à instaurer une couche de contrôle entre les résultats et l'utilisateur final pour veiller à la qualité.

2. Inférence par lots

L'inférence par lots génère des prédictions d'IA hors ligne en utilisant de grands ensembles de données. Avec une approche d'inférence par lots, les données préalablement collectées sont ensuite appliquées aux algorithmes ML. Même si l'inférence par lots n'est pas adaptée aux situations nécessitant des résultats en quelques secondes ou moins, elle est bien adaptée aux prédictions d'IA qui sont actualisées régulièrement durant la journée ou sur une semaine, comme les tableaux de bord de ventes ou de marketing, ou les évaluations de risques.

3. Inférence par flux de données

L'inférence par flux de données s'appuie sur un pipeline de données, généralement fourni par des mesures régulières de capteurs, et les alimente dans un algorithme qui utilise ces données pour effectuer des calculs et des prédictions en continu. Les applications IdO, comme l'IA utilisée pour surveiller une centrale électrique ou le trafic urbain à l'aide de capteurs connectés à Internet, reposent sur l'inférence par flux de données pour prendre leurs décisions.

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct