Qu'est-ce que l'inférence IA ?

18 juin 2024

Auteurs

Mesh Flinders

Author, IBM Think

Ian Smalley

Senior Editorial Strategist

Qu’est-ce que l’inférence IA ?

L’inférence de l’intelligence artificielle (IA) est la capacité des modèles d’IA entraînés à reconnaître des schémas et à tirer des conclusions à partir d’informations qu’ils n’ont jamais vues auparavant.

L’inférence IA est un élément clé du développement des technologies d’intelligence artificielle et soutient ses applications les plus innovantes, notamment l’IA générative, qui est le moteur de l’application à succès ChatGPT. Ces mêmes modèles d’IA s’appuient sur l’inférence pour imiter la façon dont les gens pensent, raisonnent et répondent aux requêtes.

Cette inférence repose sur l’entraînement d’un modèle d’IA avec des algorithmes de prise de décision à partir d’un large jeu de données. Les modèles d’IA reposent sur des algorithmes de prise de décision, entraînés grâce à des  réseaux neuronaux, c’est-à-dire de grands modèles de langage (LLM) dont la structure s’apparente à celle du cerveau humain. Prenons l’exemple d’un modèle d’IA conçu pour la reconnaissance faciale : il peut être entraîné sur des millions d’images de visages. Au fur et à mesure, il apprend à identifier précisément des caractéristiques comme la couleur des yeux, la forme du nez et la couleur des cheveux, ce qui lui permet ensuite de reconnaître un individu sur une image.

La différence entre l'inférence IA et le machine learning

L’inférence IA et le machine learning (ML), bien que proches, constituent deux étapes différentes du cycle de vie d’un modèle d’IA.

  • Le machine learning est un processus utilisant des données d’apprentissage et des algorithmes, grâce à l’apprentissage supervisé, pour permettre à l’IA d’imiter l’apprentissage humain et d’améliorer graduellement sa précision.
  • L’inférence IA est le processus d’application de ce que le modèle d’IA a appris grâce au ML pour décider, prédire ou émettre des conclusions à partir des données.
Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets.

Avantages de l’inférence IA

Sans un entraînement sur un jeu de données robuste et approprié à leur application, les modèles d’IA sont tout simplement inefficaces. Compte tenu de la nature sensible de la technologie et de l’attention médiatique dont elle fait l’objet1, les entreprises doivent faire preuve de prudence. Mais avec des applications qui couvrent de nombreux secteurs et offrent le potentiel de transformation numérique et d’innovation évolutive, ses avantages sont nombreux :

  • Des résultats précis et exacts : les modèles d’IA gagnent en précision et en exactitude à mesure que la technologie progresse. Ainsi, les nouveaux LLM sont capables de choisir des mots, des tournures de phrases et des structures grammaticales afin d’imiter le style d’un auteur donné. Dans les domaines artistique et vidéo, ils sont capables de sélectionner couleurs et styles pour retranscrire une ambiance, un ton ou un style artistique spécifique.
  • Amélioration du contrôle qualité : l’une des extensions les plus récentes et potentiellement les plus intéressantes de l’IA se situe dans le domaine de la surveillance et des inspections des systèmes. Des modèles d’IA, entraînés sur des jeux de données allant de la qualité de l’eau aux conditions météorologiques, sont employés pour surveiller l’état des équipements industriels sur le terrain.
  • Apprentissage robotique : des robots et systèmes robotiques avec des capacités d’inférence IA sont mis en œuvre pour réaliser diverses tâches et créer de la valeur ajoutée pour l’entreprise. Les voitures sans conducteur sont probablement l’application la plus connue de l’apprentissage robotique. Les entreprises de voitures autonomes comme Tesla, Waymo et Cruz utilisent beaucoup l’inférence pour apprendre aux réseaux neuronaux à comprendre et à suivre les règles de circulation.
  • Apprentissage sans supervision : l’inférence IA s’entraîne sur des données sans programmation préalable, réduisant ainsi l’intervention humaine et les ressources nécessaires à son fonctionnement efficace. Par exemple, un modèle d’IA peut apprendre à reconnaître les mauvaises herbes et les cultures malades à partir d’images, ce qui peut aider les agriculteurs.
  • Orientation et prise de décision éclairées :  l’une des applications les plus passionnantes de l’inférence IA est sa capacité à comprendre les nuances et la complexité, et à offrir des conseils basés sur les jeux de données sur lesquels elle a été entraînée. Ainsi, des modèles d’IA formés sur des principes financiers peuvent offrir des conseils d’investissement judicieux et identifier des activités potentiellement frauduleuses. De même, l’IA peut éliminer le potentiel d’erreur humaine dans des procédures risquées comme le diagnostic d’une maladie ou le pilotage d’un aéronef.
  • Capacités de l’edge computing : l’inférence IA et l’edge computing offrent tous les avantages de l’IA en temps réel, sans nécessiter de déplacer les données vers un centre de données pour les traiter. Le potentiel de l’inférence IA en périphérie a des répercussions de grande portée, allant de la gestion et de la surveillance des niveaux de stock dans un entrepôt aux réactions d’une milliseconde requises pour le fonctionnement sûr d’un véhicule autonome.
Groupe d’experts | Podcast

Décryptage de l’IA : Tour d’horizon hebdomadaire

Rejoignez notre panel d’ingénieurs, de chercheurs, de chefs de produits et autres spécialistes de premier plan pour connaître l’essentiel de l'actualité et des dernières tendances dans le domaine de l’IA.

Les défis de l’inférence IA

Si les avantages de l’inférence IA sont nombreux, cette technologie jeune et en plein essor n’est pas sans poser de problèmes. Voici quelques-uns des défis que les entreprises doivent relever avant d’investir dans l’IA :

  • Conformité : la tâche de réglementer les applications d’IA et l’inférence IA est ardue et en constante évolution. La notion de souveraineté des données en est un exemple, stipulant que les données sont régies par les lois du pays ou de la région où elles ont été créées. Les multinationales qui collectent, stockent et traitent des données pour l’IA dans plusieurs pays ont du mal à jongler avec les différentes lois et à rester compétitives tout en innovant.
  • Qualité : pour que les modèles d’IA soient performants, la qualité des données sur lesquelles ils sont entraînés est essentielle. De même que l’apprentissage humain dépend de la qualité de l’enseignement, la performance d’un modèle d’IA est étroitement liée à la qualité de ces données. La qualité de l’apprentissage d’un tel modèle dépend de la clarté et de la pertinence des données sur lesquelles il est formé. Un défi majeur de l’IA, en particulier pour la précision de l’inférence IA, est le choix du modèle approprié pour l’entraînement.
  • Complexité : la complexité des données, au même titre que leur qualité, peut constituer un obstacle pour les modèles d’IA. Comme pour un étudiant humain, encore une fois, la complexité de la tâche à apprendre influe sur la facilité d’apprentissage d’un modèle d’IA. Les modèles destinés à des tâches simples, comme les chatbots de service client ou les agents de voyage virtuels, sont généralement plus faciles à entraîner que ceux conçus pour des problèmes complexes, comme l’imagerie médicale ou la finance.
  • Formation continue : si l’IA promet des perspectives passionnantes, la création d’applications efficaces et d’inférences précises exige un niveau d’expertise qui demande du temps et des ressources. Tant que l’offre de talents ne rattrapera pas le rythme de l’innovation, les experts dans ce domaine resteront en forte demande et coûteux à embaucher.
  • Dépendance à l’égard de Taïwan : 60 % des semi-conducteurs et 90 % de leurs puces avancées (y compris les accélérateurs d’IA nécessaires à l’inférence IA) sont fabriqués sur l’île de Taïwan.2 En outre, Nvidia, la plus grande entreprise mondiale de matériel et de logiciels d’IA, s’appuie presque exclusivement sur une seule entreprise pour ses accélérateurs d’IA, la Taiwan Semiconductor Manufacturing Corporation (TSMC). Des catastrophes naturelles ou d’autres événements inattendus pourraient compromettre la production et la distribution des puces essentielles au fonctionnement de l’inférence IA et de ses applications.

Composants critiques pour l’inférence IA

L’inférence IA est un processus complexe qui implique d’entraîner un modèle d’IA sur des jeux de données appropriés jusqu’à ce qu’il puisse inférer des réponses exactes. Ce processus, très gourmand en ressources de calcul, requiert du matériel et des logiciels spécifiques. Avant d’examiner le processus d’entraînement des modèles d’IA pour l’inférence, explorons quelques-uns des matériels spécialisés qui le permettent :

Unité centrale de traitement

Le processeur (CPU) est le principal composant fonctionnel d’un ordinateur. Dans l’entraînement et l’inférence IA, il exécute le système d’exploitation et aide à gérer les ressources de calcul nécessaires aux fins d’entraînement.

Processeur graphique

Les processeurs graphiques (GPU), des circuits électroniques conçus pour les graphiques informatiques et le traitement d’images haute performance, sont utilisés dans divers appareils, notamment les cartes vidéo, les cartes mères et les téléphones portables. Cependant, en raison de leurs capacités de traitement parallèle, ils sont également de plus en plus utilisés dans l’entraînement des modèles d’IA. Une méthode consiste à connecter plusieurs processeurs graphiques à un seul système d’IA pour augmenter la puissance de traitement de ce système.

Réseaux de portes programmables in situ

Les réseaux de portes programmables in situ (FPGA) sont des accélérateurs d’IA hautement personnalisables qui nécessitent des connaissances spécialisées pour être reprogrammés à des fins spécifiques. Contrairement aux autres accélérateurs d’IA, les FPGA ont une conception unique qui convient à une fonction spécifique, souvent liée au traitement des données en temps réel, ce qui est essentiel pour l’inférence IA. Les FPGA sont reprogrammables au niveau matériel, ce qui permet un niveau de personnalisation plus élevé.

Circuits intégrés spécifiques aux applications

Les ASIC sont des accélérateurs d’IA conçus pour un objectif ou une workload spécifique, comme l’apprentissage profond dans le cas de l’accélérateur ASIC WSE-3 produit par Cerebras. Les ASIC aident les data scientists à accélérer les capacités d’inférence IA et à en réduire les coûts. Contrairement aux FPGA, ils ne peuvent pas être reprogrammés, mais comme ils sont construits dans un but unique, ils surpassent généralement les autres accélérateurs à usage plus général. À titre d’exemple, citons le Tensor Processing Unit (TPU) de Google, développé pour le machine learning  sur réseaux neuronaux à l’aide du logiciel TensorFlow de Google.

Comment fonctionne l'inférence IA ?

Les entreprises qui envisagent d’investir dans des applications d’intelligence artificielle dans le cadre de leur transition numérique ont intérêt à bien comprendre les bénéfices et les enjeux de l’inférence IA. Pour celles qui ont étudié en profondeur ses différentes applications et qui sont prêtes à les mettre en pratique, voici cinq étapes pour mettre en place une inférence efficace :

Préparer les données

Préparer les données est essentiel pour créer des modèles et des applications d’IA efficaces. Les entreprises peuvent créer des jeux de données pour l’entraînement des modèles d’IA à l’aide de données internes ou externes à leur organisation. Pour optimiser les résultats, une combination des deux est courante. Une autre étape clé de la constitution des données sur lesquelles votre IA s’entraînera est le nettoyage des données, c’est-à-dire la suppression des doublons et la résolution des problèmes de format.

Choisir un modèle de formation

Une fois le jeu de données constitué, l’étape suivante consiste à sélectionner le modèle d’IA approprié à votre application. Il existe des modèles de différents niveaux de complexité. Les plus complexes peuvent gérer davantage d’entrées et effectuer des inférences plus fines que les modèles plus simples. Lors de cette étape, il est important de bien définir vos besoins, car entraîner des modèles plus complexes peut s’avérer plus coûteux en temps, en argent et en ressources que former des modèles plus simples.

Entraîner votre modèle

Afin d’obtenir les résultats escomptés d’une application d’IA, les entreprises doivent généralement effectuer de nombreuses sessions d’entraînement rigoureuses. À mesure que les modèles sont entraînés, la précision de leurs inférences s’améliore et la quantité de ressources de calcul nécessaires pour parvenir à ces inférences, comme la puissance de calcul et la latence, diminue. Plus le modèle apprend, plus il devient capable de faire des suppositions sur de nouvelles données à l’aide de ses connaissances. C’est une étape passionnante lors de laquelle vous pouvez voir votre modèle commencer à fonctionner comme prévu.

Surveiller la sortie

Avant de mettre votre modèle en service, il faut bien vérifier qu’il ne fait pas d’erreurs, qu’il n’est pas biaisé et qu’il respecte la confidentialité des données. Cette phase parfois appelée post-traitement consiste à créer un processus par étapes pour garantir l’exactitude de votre modèle. La phase de post-traitement est le moment de créer une méthodologie qui garantira que votre IA vous donne les réponses que vous souhaitez et fonctionne comme prévu.

Déploiement

Après un suivi rigoureux et un post-traitement, votre modèle d’IA est prêt à être déployé pour un usage professionnel. Cette dernière étape comprend la mise en œuvre de l’architecture et des systèmes de données qui permettront à votre modèle de fonctionner, ainsi que la création de procédures de gestion du changement pour former les parties prenantes sur l’utilisation de votre application d’IA dans leurs rôles quotidiens.

Types d'inférence de l'IA

Selon le type d’application d’IA dont les entreprises ont besoin, il existe différents types d’inférence parmi lesquels elles peuvent choisir. Si une entreprise souhaite créer un modèle d’IA à utiliser avec une application de l’Internet des objets (IdO), l’inférence en streaming (avec ses capacités de mesure) est probablement le choix le plus approprié. Toutefois, si un modèle d’IA doit interagir avec des humains, l’inférence en ligne (avec ses capacités LLM) sera plus adaptée. Voici les trois catégories d’inférence IA, ainsi que les caractéristiques qui les distinguent.

1. Inférence dynamique

L’inférence dynamique, ou inférence en ligne, représente le type d’inférence IA le plus rapide et est employée dans les applications LLM d’IA les plus populaires, comme ChatGPT d’OpenAI. Elle fournit des résultats et des prédictions immédiatement après qu’on les lui demande et nécessite ensuite une latence minimale et un accès rapide aux données pour fonctionner. Une autre spécificité de l’inférence dynamique se traduit par le fait que les résultats peuvent être fournis si rapidement qu’il n’y a pas le temps de les vérifier avant qu’ils n’arrivent à l’utilisateur final. Cela incite certaines entreprises à instaurer une couche de contrôle entre les résultats et l’utilisateur final dans un souci de qualité.

2. Inférence par lots

L’inférence par lots génère des prédictions d’IA hors ligne à l’aide de grands jeux de données. Avec une approche d’inférence par lots, les données préalablement collectées sont ensuite appliquées aux algorithmes ML. Même si l’inférence par lots n’est pas adaptée aux situations nécessitant des résultats en quelques secondes ou moins, elle est bien adaptée aux prédictions d’IA qui sont actualisées régulièrement durant la journée ou sur une semaine, comme les tableaux de bord de ventes ou de marketing, ou les évaluations de risques.

3. Inférence par flux de données

L’inférence par flux de données s’appuie sur un pipeline de données, généralement fourni par des mesures régulières de capteurs, et les alimente dans un algorithme qui utilise ces données pour effectuer des calculs et des prédictions en continu. Les applications IdO, comme l’IA employée pour surveiller une centrale électrique ou le trafic urbain à l’aide de capteurs connectés à Internet, reposent sur l’inférence par flux de données pour prendre leurs décisions.

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Conseils et services en matière d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct