Claude AI (Claude) est un chatbot d’IA générative et une famille de grands modèles de langage développés par la société Anthropic. Excellent dans le traitement automatique du langage naturel (NLP), Claude est multimodal : il traite texte, audio et images, et peut répondre aux questions, résumer des documents ou générer divers contenus (textes, schémas, code, etc.).
Claude adhère à la philosophie de l’IA constitutionnelle d’Anthropic,un code de normes éthiques qui, selon l’entreprise, le différencie des modèles d’IA concurrents tels que ChatGPT et Gemini de Google.
Les principes de l’IA constitutionnelle sont axés sur la sécurité de l’IA et destinés à aider Claude à fournir des réponses plus utiles tout en évitant les comportements nocifs tels que les biais de l’IA.
Claude 3, publié en mai 2024, comprend un chatbot d’IA gratuit et deux chatbots d’IA premium.
Claude 3.5 Sonnet soutient la version gratuite de Claude IA. Axé sur la vitesse, il peut traiter rapidement les requêtes des utilisateurs et d’autres tâches nécessitant une récupération urgente des données. Selon Anthropic, Claude 3.5 Sonnet est deux fois plus rapide que Claude 3 Opus, l’une des deux offres premium.
Claude 3 Opus est l’un des deux modèles Claude actuellement disponibles pour les utilisateurs de Claude Pro. Il fournit des services approfondis de traitement documentaire et de génération de contenu, spécialisés dans les tâches complexes. Bien que plus lent que Claude 3.5 Sonnet, Opus présente moins de risques d’hallucinations, c’est-à-dire lorsqu’un modèle d’IA fournit des informations incorrectes comme si elles étaient factuellement correctes.
Claude 3 Haiku est la deuxième offre Claude 3 premium. Il s’agit du plus petit et du plus rapide des trois modèles, idéal pour résumer des documents longs, assurer un service client en temps réel et générer du texte simple.
Chacun des trois modèles Claude 3 présente ses propres cas d’utilisation. En général, les utilisateurs peuvent utiliser Claude IA pour accomplir un large éventail de tâches, notamment :
Contrairement à Claude 2 et 1, Claude 3 est multimodal : il peut traiter des images et du contenu audio ainsi que des prompts textuels. Par exemple, Claude 3 peut générer des descriptions de produits pour le e-commerce basées sur des images.
Bien que Claude 3 ne soit pas capable de générer du contenu non textuel à lui seul, son intégration multimodale est l’une des nouvelles fonctionnalités qui lui permettent de rivaliser avec GPT-4.
Comme Gemini et ChatGPT d’OpenAI, la famille de systèmes d’IA Claude d’Anthropic est basée sur l’architecture transformatrice des réseaux neuronaux. Mais contrairement à ses concurrents, Claude applique les principes de l’IA constitutionnelle pour régir son comportement.
Les transformers sont un type de modèle d’IA conçu pour le traitement automatique du langage naturel haute performance. Ils fonctionnent en appliquant des algorithmes mathématiques complexes pour prédire statistiquement la réponse la plus probable à une requête utilisateur. Le workflow peut être divisé en quatre étapes de base.
Le transformer décompose une requête utilisateur en tokens. Chaque token représente un mot entier ou une partie d’un mot. La tarification des modèles d’IA est généralement représentée par le coût par token. La fenêtre contextuelle de Claude Pro est de 200 000 tokens1, ce qui signifie qu’il peut traiter les requêtes des utilisateurs d’une longueur maximale de 200 000 tokens.
L’IA constitutionnelle2 est un ensemble de principes éthiques et de sécurité appliqués à l’IA créé par la startup Anthropic spécialisée dans l’IA. Lors de la conception de Claude, Anthropic a recueilli les avis d’environ 1 000 personnes, leur demandant de voter et de suggérer des règles pour un fonctionnement éthique de l’IA générative et une utilisation responsable de l’IA. L’assemblage final des règles a servi de base au processus d’entraînement de Claude.
Les trois premières règles de l’IA constitutionnelle sont les suivantes :
Alors que le contenu des autres modèles est révisé par des formateurs humains dans le cadre d’un processus appelé apprentissage par renforcement à partir des commentaires humains (RLHF), celui de Claude a été entraîné avec le RLHF et un deuxième modèle d’IA. L’apprentissage par renforcement basé sur les commentaires de l’IA (RLAIF) a demandé au modèle « formateur » de comparer le comportement de Claude à celui de l’IA constitutionnelle et de le corriger en conséquence.
Le RLAIF automatise la partie du processus d’entraînement consacrée à l’adaptation du comportement, afin de le rendre moins coûteux et plus efficace afin d’encourager un comportement éthique. Le résultat escompté est que Claude s’affine de lui-même, en apprenant à éviter les prompts nuisibles tout en générant des réponses utiles aux prompts qu’il juge responsables.
Anthropic est une startup spécialisée dans l’IA fondée en 2021 par plusieurs anciens dirigeants et chercheurs d’OpenAI, dont les frère et sœur Daniela et Dario Amodei. Amazon et Google ont chacun investi des milliards de dollars dans l’entreprise, tandis qu’OpenAI continue de bénéficier du soutien de Microsoft.
Les frère et sœur Amodei se sont séparés d’OpenAI en 2021, un an avant qu’OpenAI ne publie GPT-3.5. C’est le même modèle d’IA qui continue d’alimenter l’outil d’IA gratuit ChatGPT aujourd’hui. Avec d’autres anciens chercheurs d’OpenAI, la fratrie Amodei a fondé Anthropic IA et ont commencé à travailler sur ce qui allait devenir Claude IA.
La caractéristique fondamentale d’Anthropic est son approche déclarée de l’IA éthique, incarnée par le processus d’entraînement selon les principes de l’IA constitutionnelle.
Lors de la publication de Claude 3, Anthropic IA a mené une série de tests d’analyse comparative des LLM pour évaluer ses modèles par rapport à ceux de ses deux principaux concurrents, OpenAI et Google. Dans ces tests comme dans d’autres, Claude a démontré plusieurs avantages clés :
Capable de répondre aux prompts pouvant atteindre 200 000 tokens, soit environ 350 pages de texte, Claude peut mémoriser et utiliser davantage d’informations pour créer des réponses pertinentes. En comparaison, GPT-4 Turbo et GPT-4o limitent les utilisateurs à 128 000 tokens.
Grâce à cette capacité, les utilisateurs peuvent créer des prompts détaillés et riches en données. Plus il y a de données dans la séquence d’entrée, plus la réponse d’un modèle d’IA est pertinente.
Lorsque Anthropic a testé Claude 3 par rapport à GPT-4 et Gemini 1.03, Claude 3 Opus a été le plus performant dans tous les indicateurs de référence sélectionnés. Gemini 1.0 Ultra est arrivé en tête dans quatre des six tests de vision, bien que les modèles de la famille Claude aient obtenu des résultats comparables.
Cependant, GPT-4o et Gemini 1.5 n’étaient pas inclus dans le pool de test. Lors de la présentation de GPT-4o en mai 20244, OpenAI a réalisé une analyse comparative qui a vu son nouveau modèle phare battre Claude 3 Opus dans cinq tests réalisés sur six.
Les utilisateurs soucieux de la confidentialité des données pourraient être séduits par la politique de conservation des données d’Anthropic5 : toutes les entrées et sorties des utilisateurs sont supprimées au bout de 30 jours selon ses créateurs.
La politique de données de Gemini for Google Cloud6 de Google stipule que l’entreprise n’entraînera pas ses modèles avec des prompts utilisateurs.
En comparaison, OpenAI peut conserver et utiliser les données utilisateur7 pour entraîner davantage ses modèles. Les politiques de Gemini Apps de Google8 autorisent l’entreprise à conserver les données des utilisateurs à moins que ceux-ci ne désactivent cette option manuellement.
Si les performances globales de Claude sont excellentes par rapport à la concurrence, elles présentent néanmoins quelques faiblesses qui peuvent retarder son acceptation par la population dans son ensemble.
Comparé à GPT-4o, Claude est moins apte à créer des images. Même si Claude peut produire des organigrammes, des schémas de relations entre entités et des graphiques interactifs, il ne parvient pas à générer une image complète.
Grâce à l’intégration de Microsoft à Bing, GPT-4 est capable de rechercher sur Internet pour répondre aux requêtes des utilisateurs.
Bien que Claude soit régulièrement mis à jour avec de nouvelles données d’entraînement, sa base de connaissances accuse toujours plusieurs mois de retard avant qu’Anthropic ne décide d’ouvrir Claude à Internet de la même manière.
Explorez la bibliothèque de modèles de fondation d’IBM dans le portefeuille watsonx pour déployer l’IA générative dans votre entreprise en toute confiance.
Mettez l’IA au service de votre entreprise en vous appuyant sur l’expertise de pointe d’IBM dans le domaine de l’IA et sur son portefeuille de solutions.
Réinventez les workflows et les opérations critiques en ajoutant l’IA pour optimiser les expériences, la prise de décision et la valeur métier en temps réel.
1. How large is Claude Pro’s Context Window?, Anthropic, 2024
2. Collective Constitutional AI: Aligning a Language Model with Public Input, Anthropic, 17 octobre 2023
3. Introducing the next generation of Claude, Anthropic, 4 mars 2024
4. Hello GPT-4o, OpenAI, 13 mai 2024
5. How long do you store data?, Anthropic, 2024
6. How Gemini for Google Cloud uses your data, Google, 10 septembre 2024
7. How your data is used to improve model performance, OpenAI, 17 septembre 2024
8. Gemini Apps Privacy Hub, Google, 28 août 2024