Qu’est-ce qu’un modèle génératif ?

Vignette pour le thought leadership sur la conception d’expériences nouvelle génération

Auteurs

Ivan Belcic

Staff writer

Qu’est-ce qu’un modèle génératif ? 

Un modèle génératif est un modèle de machine learning conçu pour créer des données similaires à ses données d’entraînement. Les modèles d’intelligence artificielle (IA) générative apprennent les schémas et les distributions des données d’entraînement, puis appliquent ces connaissances pour générer un nouveau contenu en réponse à de nouvelles données d’entrée. 

La génération de contenu est ce qui distingue les modèles d’IA générative des autres types d’IA. Les modèles génératifs sont des réseaux neuronaux avancés qui imitent la structure du cerveau humain et appliquent des algorithmes de machine learning complexes pour traiter les données d’entraînement et produire des sorties inédites. 

Ce sont principalement les modèles d’IA générative et leurs développeurs qui ont façonné l’esprit du temps en matière d’IA ces dernières années. Dans ce domaine, ce sont les modèles génératifs qui continuent de tirer à eux la couverture médiatique, et qui attirent beaucoup d’attention et d’investissements. 

Qu’est-ce que l’IA générative ?

L’IA générative est un type d’IA qui utilise des modèles sophistiqués pour générer du nouveau contenu en fonction d’un prompt d’entrée. Le modèle génératif est le programme informatique qui utilise des données et des algorithmes pour faciliter la pratique de l’IA générative. Les cas d’utilisation de l’IA générative comprennent le résumé de texte, la génération de texte et la génération d’images, ainsi que la modélisation 3D et la création audio. 

Comment fonctionnent les modèles génératifs ? 

Les modèles génératifs identifient des schémas et des distributions dans leurs données d’entraînement, puis ils appliquent ces résultats à la génération de nouvelles données basées sur les entrées utilisateur. Le processus d’entraînement apprend au modèle à reconnaître les distributions de probabilités conjointes des caractéristiques du jeu de données. Ensuite, le modèle s’appuie sur ce qu’il a appris pour créer de nouveaux échantillons de données similaires à ses jeux de données. 

Les modèles génératifs sont généralement entraînés à l’aide de techniques d’apprentissage non supervisé : ils sont alimentés par une masse de données non étiquetées qu’ils trient eux-mêmes. Les modèles déterminent la distribution des données, ce qui leur permet de développer la logique interne qu’ils utilisent ensuite pour créer de nouvelles données. 

Lors de l’entraînement, le modèle applique une fonction de perte pour mesurer l’écart entre les résultats réels et les prédictions du modèle. L’objectif de l’entraînement est de minimiser la fonction de perte, en rapprochant autant que possible les résultats générés de la réalité. 

La génération de contenu est un processus probabiliste. Les modèles génératifs ne savent pas les choses comme les humains. En fait, les modèles génératifs utilisent des équations mathématiques complexes pour prédire le résultat le plus probable en fonction des règles apprises pendant leur entraînement. 

Modèles génératifs et autres types de modèles 

Les modèles génératifs tentent de générer de nouvelles données d’une certaine classe. Les modèles discriminatifs séparent les éléments en groupes connus, tandis que les modèles de clustering déterminent comment regrouper les éléments d’un jeu de données. Les modèles prédictifs font des estimations sur des événements ou des états futurs sur la base de données historiques. 

  • Les modèles discriminatifs sont utilisés pour les tâches d’apprentissage supervisé dans lesquelles les étiquettes ou les catégories des données sont connues. De nombreux modèles discriminatifs sont des classificateurs qui tentent d’identifier les relations entre les caractéristiques et les étiquettes, puis d’attribuer des étiquettes de classe à de nouvelles données en fonction de la probabilité conditionnelle de ces étiquettes.

    Par exemple, un modèle discriminatif entraîné à différencier les images de poissons et d’oiseaux peut déduire si des images sont plus susceptibles d’être des poissons ou des oiseaux. La reconnaissance d’images, un type de classification dans le machine learning, est une application courante des modèles discriminatifs.

    Bien que les modèles génératifs et les modèles discriminatifs présentent des différences importantes, ils fonctionnent souvent ensemble, par exemple dans les réseaux antagonistes génératifs (GAN)

  • Les modèles de clustering sont utilisés dans les tâches d’apprentissage non supervisé pour regrouper les enregistrements d’un jeu de données en clusters. Ils peuvent identifier des éléments similaires et apprendre ce qui distingue ces éléments des autres groupes dans le jeu de données.

    Les modèles de clustering n’ont pas de connaissance préalable des éléments du jeu de données, notamment concernant le nombre de groupes qu’il pourrait comprendre. Un spécialiste des études de marché pourrait utiliser un modèle de clustering pour identifier les profils d’acheteurs au sein de ses données démographiques cibles. 

  • Les modèles prédictifs traitent les données historiques pour faire des prédictions sur les événements futurs à l’aide du machine learning et de l’analyse statistique. Ils sont souvent utilisés pour aider les dirigeants d’entreprise à prendre des décisions fondées sur les données. Les modèles prédictifs optimisent également les services de texte prédictif, les logiciels de reconnaissance faciale, la détection des fraudes et les solutions de gestion de la chaîne d’approvisionnement. 

  • Les modèles génératifs reçoivent des données non étiquetées pendant l’entraînement. Ils procèdent à une rétro-ingénierie des critères de catégorisation. Quelles sont les caractéristiques qui font qu’un point de données reçoit une étiquette particulière ? Les modèles génératifs prédisent les caractéristiques d’une étiquette, puis utilisent ces caractéristiques pour générer de nouveaux exemples de ces données.

    Un modèle génératif entraîné à générer des images d’animaux peut tenter de créer une image de poisson en fonction de ce qui, selon lui, le distingue des autres animaux. La génération d’images est un cas d’utilisation fréquent des modèles génératifs.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets. 

Types de modèles génératifs

Il existe de nombreux types de modèles génératifs, chacun ayant sa propre architecture : la structure du modèle qui régit son fonctionnement. Les modèles génératifs profonds sont un sous-type de modèles génératifs qui utilisent les structures de réseaux neuronaux multicouches de l’apprentissage profond pour comprendre les relations complexes et multifacettes entre les points de données d’un jeu de données. 

  • Les modèles de diffusion créent de nouvelles données en ajoutant progressivement du bruit à un jeu de données, puis en éliminant ce bruit pour obtenir une nouvelle sortie. 

  • Les réseaux antagonistes génératifs (GAN) associent un modèle discriminatif et un modèle génératif qui s’opposent l’un à l’autre, l’objectif étant que le générateur crée une sortie qui trompe le discriminateur. 

  • Les auto-encodeurs variationnels (VAE) compressent les données d’entrée à l’aide d’un encodeur, puis inversent le processus avec un décodeur pour créer de nouvelles données similaires. 

  • Les modèles basés sur des flux apprennent les relations entre des distributions de données simples et complexes grâce à des opérations mathématiques réversibles. 

Modèles autorégressifs

Les modèles autorégressifs prédisent l’élément suivant d’une séquence en fonction des éléments précédents. Ils évaluent les composants de la séquence afin de déterminer la corrélation probabiliste entre eux, puis ils utilisent ces informations pour identifier un nouveau composant susceptible d’apparaître ensuite. 

L’autorégression est un type de régression linéaire : une technique statistique qui prédit la valeur d’une variable en fonction des valeurs d’une ou plusieurs autres variables. L’autorégression se concentre sur la variable cible, mais prend en compte ses valeurs au fil du temps. L’autorégression diffère également de la régression logistique en ce sens qu’elle prédit des valeurs définies, tandis que la seconde produit un pourcentage de probabilité qu’un événement spécifié se produise. 

Les modèles autorégressifs prennent la forme de réseaux neuronaux récurrents (RNN) ou d’architectures transformatrices. 

modèles de transformation

Apparus pour la première fois en 20171, les modèles de transformeurs ont rapidement surpassé les RNN, qui étaient jusqu’alors la principale forme de modèle autorégressif. Le transformeur a permis de résoudre plusieurs faiblesses flagrantes des RNN. Ces derniers avaient en effet du mal à capturer les dépendances à longue distance (les relations entre les éléments à distance dans une séquence) et ils étaient inefficaces en termes de calcul, car ils traitaient les éléments de manière séquentielle, un par un. 

Les transformeurs ont introduit deux innovations qui ont fait évoluer les architectures au-delà des RNN et en ont fait la norme de facto pour les grands modèles de langage (LLM) dans le domaine de l’IA générative : 

  • Traitement parallèle : les transformeurs traitent tous les éléments d’une séquence simultanément, représentant un gain d’efficacité par rapport aux RNN séquentiels. Les transformeurs peuvent être entraînés bien plus rapidement, notamment sur les grands jeux de données nécessaires pour obtenir des performances LLM optimales. 

  • Mécanismes d’auto-attention : les transformeurs peuvent tenir compte de l’importance relative de tous les éléments d’une séquence lors de leur traitement. L’auto-attention permet aux transformeurs de capturer les relations clés entre les éléments distants d’une série, permettant une compréhension contextuelle qui fait défaut aux RNN. Grâce à cette capacité de traiter le contexte sur de grandes séquences d’entrée, les transformeurs excellent dans les tâches de NLP telles que la génération de texte et la traduction linguistique. 

Parmi les trois types de modèles de transformeurs (encodeurs, décodeurs et encodeurs-décodeurs), les deux derniers contiennent des composants autorégressifs. Les décodeurs sont le composant génératif, et ils utilisent l’autorégression pour générer des jetons en se basant sur des jetons générés précédemment. 

Cas d’utilisation des modèles autorégressifs

Les modèles autorégressifs, en particulier les transformeurs, sont largement utilisés aujourd’hui. Nombre des principaux modèles d’IA générative sont des transformeurs, notamment les modèles GPT et GPT-4o d’OpenAI, Claude d’Anthropic, Llama de Meta, Google Gemini et IBM Granite

Cas d’utilisation des modèles autorégressifs : 

  • Traitement automatique du langage naturel : les transformeurs peuvent traiter des requêtes complexes en langage naturel et y répondre sous forme de conversation grâce à la génération automatisée de texte, ce qui en fait une solution idéale pour les chatbots. Par exemple, ChatGPT est l’implémentation de chatbot du modèle génératif GPT d’OpenAI. Parmi les autres applications de NLP, citons l’analyse des sentiments, la reconnaissance vocale, les applications de synthèse vocale (Text to Speech, TTS) et la synthèse de documents. 

  • Prise en charge du codage : les capacités autorégressives qui font des transformeurs des outils efficaces pour la génération de texte leur permettent également de déboguer du code et d’en générer des extraits. 

  • Prévisions de séries temporelles : l’autorégression peut être facilement appliquée aux prévisions de séries temporelles, dans lesquelles un modèle prédit les valeurs futures en fonction des tendances antérieures. Les prévisions de séries temporelles sont fréquemment appliquées à la modélisation financière, aux prédictions sur les marchés et aux prévisions météorologiques. 

  • Apprentissage par renforcement : les transformeurs ont commencé à être utilisés dans l’apprentissage par renforcement, une technique d’entraînement de machine learning qui apprend aux modèles à prendre des décisions de manière autonome. Les transformeurs sont également utilisés pour les tâches de classification

Modèles de diffusion

Les modèles de diffusion brouillent ou diffusent progressivement les données d’entrée en ajoutant du bruit, puis ils affinent ce désordre en créant de nouvelles données similaires. Ils génèrent de nouvelles données en apprenant à affiner le bruit pour le transformer en données similaires à leurs jeux de données d’entraînement. Les modèles de diffusion fonctionnent selon un processus en trois étapes : 

  • Étape 1 : diffusion - Pendant l’entraînement, le modèle introduit progressivement du bruit dans ses données d’entrée jusqu’à ce qu’elles ne soient plus reconnaissables. Le modèle ajoute une petite quantité de bruit gaussien aux données à chaque étape via un processus mathématique connu sous le nom de chaîne de Markov.

    Imaginez le processus de diffusion comme un guitariste qui augmente lentement le gain de son amplificateur jusqu’à ce que le son de sa guitare ne soit qu’un bruit purement statique. C’est ainsi que les guitaristes de rock obtiennent la distorsion sonore qui caractérise leur musique, sans toutefois aller à ce point dans les extrêmes. 

  • Étape 2 : apprentissage - Le modèle retrace l’évolution des données maintenant détruites pour comprendre comment elles ont été modifiées par le processus de bruitage. Les modèles de diffusion répètent ce processus à chaque étape de l’ajout de bruit. 

  • Étape 3 : diffusion inverse - En comprenant comment le bruit modifie les données, le modèle de diffusion apprend à inverser le processus de bruitage et à reconstruire les données d’entrée. L’objectif de la diffusion inverse est de remonter la chaîne de Markov, en supprimant le bruit gaussien jusqu’à ce qu’il ne reste que les données pures. Le guitariste de l’étape 1 s’est fait passer un savon par les autres membres du groupe, et il rebaisse le gain à un niveau acceptable. 

Les étapes 1 et 2 sont appliquées pour entraîner les modèles de diffusion. Après l’entraînement, les modèles de diffusion génèrent des données en appliquant un processus de diffusion inverse à des bruits aléatoires pour « trouver » les données demandées par le prompt de l’utilisateur.

Cas d’utilisation des modèles de diffusion

Souvent utilisés pour la génération d’images, les modèles de diffusion s’appliquent également à d’autres cas d’utilisation importants. Voici quelques applications des modèles de diffusion : 

  • Génération d’images : les modèles de diffusion optimisent les outils de génération et de synthèse d’images grand public tels que Midjourney, Stable Diffusion et DALL-E 2 d’OpenAI. Ces modèles génèrent des images en réponse aux prompts de l’utilisateur. Les modèles de diffusion peuvent générer des images réalistes de haute qualité, y compris des visages humains.

    L’US Copyright Office a statué en 2023 que les images générées par l’IA ne pouvaient pas bénéficier de protections de droit d’auteur. De leur côté, de nombreuses poursuites légales en cours2 vont déterminer si les images générées par l’IA sont considérées comme des violations des droits d’auteur. 

  • Inpainting et outpainting : l’inpainting est le processus d’ajout ou de suppression de contenu à l’intérieur d’une image, tandis que l’outpainting étend une image au-delà de ses bordures d’origine. 

  • Modélisation 3D : DreamFusion de Google et Magic3D de NVIDIA sont des modèles de diffusion qui créent des modèles 3D à partir d’entrées textuelles. 

  • Études de marché : les modèles de diffusion montrent comment les choses évoluent au fil du temps, permettant de comprendre comment les consommateurs réagissent à un produit donné. 

  • Détection des anomalies : parce qu’ils peuvent apprendre comment les données évoluent au fil du temps, les modèles de diffusion peuvent identifier les points de données qui ne correspondent pas aux tendances établies. Les applications de la détection des anomalies comprennent la cybersécurité, la prévention des fraudes et la détection des maladies. 

AI Academy

Devenir un expert en IA

Obtenez les connaissances nécessaires pour privilégier les investissements dans l’IA qui favorisent la croissance commerciale. Lancez-vous dès aujourd’hui avec notre AI Academy gratuite et menez l’avenir de l’IA au sein de votre organisation.

Réseaux antagonistes génératifs (GAN)

Introduits en 2014, les réseaux antagonistes génératifs (GAN) font partie des premiers types de modèles d’IA générative à associer deux modèles dans un contexte de compétition. Le modèle génératif crée des sorties que le modèle discriminatif doit juger comme authentiques ou fausses. L’objectif de la compétition est, pour le générateur, de générer un contenu considéré comme authentique lorsqu’il est jugé par le discriminateur. 

Si le générateur est un faussaire, le discriminateur est un expert en authentification. Un marchand d’art pourrait mettre la main sur une œuvre falsifiée et tenter de la vendre à un musée, mais pas avant que l’œuvre n’ait été authentifiée. Plus le faussaire s’améliore, mieux il imite les grands maîtres, et plus l’authentificateur pourra avoir du mal à détecter les faux ultérieurs. Et très vite, le musée finit par accueillir une exposition d’œuvres falsifiées. 

Le processus d’entraînement qui conduit à des productions réalistes peut également conduire à un effondrement de mode : le générateur ignore certaines de ses données d’entraînement et se limite à un ensemble restreint de types d’échantillons. Les GAN, ainsi que les modèles de diffusion et les transformeurs, doivent être entraînés sur des jeux de données massifs pour des performances efficaces. 

Les deux réseaux d’un GAN sont souvent des réseaux neuronaux convolutifs (CNN), l’un des premiers types de réseaux neuronaux se distinguant par ses performances élevées dans les tâches de vision par ordinateur.

Cas d’utilisation des GAN

Les GAN sont principalement utilisés dans le domaine de la vision par ordinateur et d’autres tâches graphiques. 

  • Vision par ordinateur : la vision par ordinateur consiste à utiliser le machine learning pour traiter les informations dans les images. Les tâches courantes de vision par ordinateur comprennent la détection et la classification d’objets, la reconnaissance faciale, la traduction en langue des signes et le suivi d’objets. 

  • Génération d’images : les GAN peuvent surpasser les modèles de diffusion dans la génération d’images réalistes. Ils nécessitent également moins d’entraînement et sont plus efficaces en termes de calcul, mais les modèles de diffusion offrent un contrôle plus fin, une plus grande polyvalence et plus de stabilité. Le framework Diffusion-GAN3 entraîne les GAN par diffusion pour maximiser les avantages des deux types de modèles.
  • Détection des anomalies : lorsqu’ils sont entraînés pour générer des jeux de données normaux, les GAN peuvent être appliqués aux tâches de détection des anomalies. Le GAN crée un jeu de données synthétique modélisé sur les données réelles, et en comparant les deux, les anomalies sont mises en évidence. Le discriminateur peut également détecter les anomalies en indiquant une probabilité accrue que certains points de données soient faux. 
  • Augmentation des données : l’augmentation des données, c’est-à-dire l’utilisation de données préexistantes pour créer davantage d’échantillons de données, peut améliorer encore davantage les performances de la vision par ordinateur avec les CNN. Ce processus diffère de l’ajout de données synthétiques car il s’appuie sur des données réelles, au lieu de générer quelque chose de zéro.

Auto-encodeurs variationnels (VAE)

Les auto-encodeurs variationnels (VAE) compressent les données d’entrée, puis étendent ou décodent cette compression pour générer de nouvelles données similaires. Les VAE apprennent la distribution d’un jeu de données d’entraînement et appliquent ces attentes lorsqu’ils génèrent de nouvelles données à partir d’échantillons encodés. Comme tous les auto-encodeurs, les VAE comprennent deux composants : un encodeur et un décodeur. 

Le travail de l’encodeur consiste à apprendre les variables latentes dans un jeu de données. Les variables latentes ne sont pas directement observables, mais jouent un rôle important dans la distribution des données. L’espace latent est le nom collectif donné à toutes les variables latentes d’un jeu de données. L’encodeur modélise l’espace latent d’une manière qui capture les informations nécessaires à la reconstruction précise des données. Toutes les autres variables sont omises. 

Le décodeur prend la représentation compressée des données (goulot d’étranglement) et l’extrapole pour faire revenir les données à leur forme d’origine. Un décodeur efficace produit une sortie similaire aux données précompressées initiales.

Cas d’utilisation des VAE

La génération d’images n’est pas la tasse de thé des VAE par rapport aux modèles de diffusion et aux GAN, mais ils excellent dans d’autres domaines. 

  • Génération d’images : les VAE sont utiles dans la génération d’images, même si dans les applications grand public de ce type, les modèles de diffusion les ont largement remplacés. Comparés aux autres générateurs d’images, les VAE ont tendance à produire des images plus floues, car ils font la « moyenne » de l’espace latent. 

  • Génomique : les VAE aident les généticiens à calculer les valeurs d’élevage, c’est-à-dire la valeur projetée qu’un animal fournira avec sa descendance, ainsi qu’à attribuer des scores de risque de maladie. 

  • Détection des anomalies : les VAE sont moins coûteux et plus faciles à entraîner que les GAN et les diffuseurs, ce qui en fait un choix intéressant pour les tâches de détection des anomalies. Les données recréées sont comparées aux données d’origine pour isoler les instances qui s’écartent de la distribution projetée. 

  • Imputation des données : les VAE peuvent générer de nouvelles données pour remplacer les données manquantes et restaurer les fichiers corrompus. Les exemples incluent le nettoyage de fichiers audio et le débruitage de vidéos, ainsi que l’imagerie médicale. Alors que les VAE ont tendance à générer des images floues à partir de zéro, ils peuvent restaurer des images déjà floues en les débruitant. 

  • Apprentissage semi-supervisé : les VAE permettent d’entraîner les classificateurs en capturant les distributions de données d’un jeu présentant un étiquetage incomplet. Les VAE peuvent également procéder à l’augmentation des données pour générer des échantillons d’entraînement supplémentaires pour le classificateur.

Modèles basés sur des flux

Les modèles basés sur des flux apprennent la distribution des données grâce à une série de transformations mathématiques renversables ou réversibles. Les données peuvent progresser sans perte dans ce pipeline, connu sous le nom de flux de normalisation, dans l’une ou l’autre direction. Alors que les VAE et les GAN estiment les distributions de données, les modèles basés sur des flux apprennent explicitement la fonction de densité de probabilité du jeu de données. 

Dans un jeu de données spécifique, la fonction de densité de probabilité décrit comment les données sont distribuées. Les flux de normalisation passent de distributions simples à des distributions complexes jusqu’à ce que la fonction de densité de probabilité de la variable cible soit identifiée. 

Les modèles basés sur des flux peuvent générer de nouveaux échantillons de données qui conservent les mêmes propriétés statistiques que le jeu de données initial. Comme toute modélisation générative, le processus est basé sur le prélèvement d’échantillons dans des données d’apprentissage et sur l’application de mathématiques statistiques complexes pour produire des résultats similaires inédits.

Cas d’utilisation des modèles basés sur des flux

Les modèles basés sur des flux sont particulièrement efficaces dans les scénarios exigeant une évaluation précise de la distribution des données.

  • Génération d’images : les modèles basés sur des flux génèrent des images en faisant passer du bruit échantillonné de manière aléatoire dans des flux de normalisation pour produire une image nette. PixelCNN est un modèle de génération d’images notable de 2016 qui applique l’autorégression à la séquence de transformations, modélisant les images pixel par pixel. 

  • Estimation précise de la densité : l’estimation de la densité consiste à identifier la fonction de densité de probabilité d’un jeu de données sur la base de données observables. Bien que les modèles basés sur des flux puissent représenter avec précision des distributions de données complexes, ils ont du mal à capturer les dépendances à longue distance par rapport aux transformeurs. 

  • Génération de graphiques moléculaires : les modèles basés sur les flux ont trouvé une utilisation dans la génération de graphes moléculaires, où de nouvelles structures moléculaires sont modélisées sous forme de graphes par des modèles d’IA générative. La génération de graphes moléculaires est un outil important qui assiste les scientifiques et les ingénieurs dans la découverte de nouveaux médicaments et matériaux.

Modèles génératifs et hallucinations

Les processus qui conduisent souvent à des résultats impressionnants sont également ceux qui provoquent des hallucinations dans les modèles génératifs : qui produisent alors des informations incorrectes ou trompeuses. Des hallucinations ou des confabulations se produisent lorsque les modèles perçoivent des schémas dans leurs jeux de données d’entraînement qui n’existent pas dans le monde réel. 

Par exemple, le prompt proposé à ChatGPT-4o mini : « Dans quel épisode de Seinfeld Kramer se rend-il au Bangladesh ? », a renvoyé cette réponse : 

Kramer se rend au Bangladesh dans l’épisode intitulé « Combats de coqs », le 145e épisode de Seinfeld. Il s’agit du 145e épisode [sic] de la série, initialement diffusé pendant la saison 8. Dans cet épisode, Kramer se retrouve dans une combine visant à importer un jouet du Bangladesh.

Si Combats de coqs est bien le 145e épisode de Seinfeld et qu’il a bien été diffusé pendant la saison 8, il s’agit en fait de l’épisode dans lequel Kramer achète et dresse un coq, Little Jerry. Le second prompt envoyé au chatbot avec la même question a provoqué une deuxième hallucination, différente de la première : 

Kramer se rend au Bangladesh dans l’épisode intitulé « Les Maldives », le 18e épisode de la saison 9. Dans cet épisode, il souhaite commencer une nouvelle vie après son voyage, et l’intrigue se concentre sur son intention de devenir un pêcheur « bangladeshi ».

En réalité, l’épisode 18 de la saison 9 de Seinfeld s’intitule La grenouille, et dans cet épisode, Kramer se rend simplement au commissariat de police. Il n’y a pas d’épisode de Seinfeld intitulé Les Maldives, et à aucun moment pendant la série Kramer ne se rend au Bangladesh. 

Les modèles autorégressifs comme GPT sont connus pour halluciner et inventer des faits, mais d’autres types de modèles peuvent également être sujets à des hallucinations. Les modèles de diffusion utilisés pour la génération d’images représentent parfois des objets du monde réel d’une manière qui ne correspond pas à la réalité.

Comment atténuer les hallucinations

Bien qu’il ne soit pas encore possible d’empêcher complètement les modèles d’IA générative d’halluciner, voici quelques bonnes pratiques à suivre pour atténuer les hallucinations : 

  • Des prompts clairs : plus le prompt de l’utilisateur est explicite, plus la réponse de l’IA sera précise. Laissez à l’IA l’espace nécessaire dans le prompt pour répondre de manière détaillée. 

  • Une direction précise : en donnant à l’IA un rôle clair et en lui demandant de fournir des informations véridiques et vérifiables, on peut s’assurer que ses réponses reflètent mieux la réalité. 

  • Des données de haute qualité : plus les données d’entraînement des modèles d’IA sont à jour et pertinentes, moins leurs réponses risquent d’être biaisées. 

  • Une vérification humaine : les résultats générés par l’IA ne doivent pas être utilisés sans être vérifiés par des humains compétents. 

  • RAG et réglage fin : l’utilisation de la RAG pour renforcer une IA avec des données crédibles et l’affinement des modèles pour les rendre plus spécifiques au domaine sont deux méthodes efficaces pour réduire les hallucinations. 

Notes de bas de page

1. Attention Is All You Need, Vaswani et al., 2 août 2023

2. Artists Score Major Win in Copyright Case Against AI Art Generators, Winston Cho, The Hollywood Reporter, 13 août 2024

3. Diffusion-GAN: Training GANs with Diffusion, Wang et al., 25 août 2023

Solutions connexes
IBM watsonx.ai

Entraînez, validez, réglez et déployez une IA générative, des modèles de fondation et des capacités de machine learning avec IBM watsonx.ai, un studio d’entreprise nouvelle génération pour les générateurs d’IA. Créez des applications d’IA en peu de temps et avec moins de données.

Découvrir watsonx.ai
Solutions d’intelligence artificielle

Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.

Découvrir les solutions d’IA
Services d’IA

Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.

Découvrir les services d’IA
Passez à l’étape suivante

Bénéficiez d’un accès centralisé aux fonctionnalités couvrant le cycle de développement de l’IA. Produisez des solutions IA puissantes offrant des interfaces conviviales, des workflows et un accès à des API et SDK conformes aux normes du secteur.

Découvrir watsonx.ai Réserver une démo en direct