Accueil

IA et ML

watsonx

watsonx.ai

Modèles de fondation dans watsonx.ai 
Explorez la bibliothèque de modèles de fondation IBM de watsonx pour dimensionner l’IA générative
En savoir plus sur Granite Commencez votre essai gratuit
Capture d’écran des modèles de fondation du logiciel watsonx.ai

Présentation de la troisième génération de modèles Granite d’IBM : des modèles de langage ouverts, performants et fiables

Accélérez votre transition vers l’IA grâce à nos nouveaux modèles de langage fiables de troisième génération adaptés à l’entreprise

Lire le blog pour découvrir les modèles Granite
Des modèles de fondation avec le pouvoir du choix

Les modèles IBM  watsonx™ sont conçus pour l’entreprise et optimisés pour des domaines d’activité et des cas d’utilisation ciblés. Par l’intermédiaire du studio d’IA IBM watsonx.ainous proposons une sélection de modèles dédiés aux entreprises, de modèles open source et de modèles provenant de fournisseurs tiers pour aider les clients et les partenaires à faire évoluer et à opérationnaliser l’intelligence artificielle (IA) plus rapidement avec un risque minimal. Vous pouvez déployer les modèles d’IA là où se trouve votre workload, à la fois sur site et dans le cloud hybride.

IBM adopte une approche différenciée pour fournir des modèles de fondation dédiés aux entreprises :

  • Ouverte : intégrez les meilleurs modèles IBM et open source éprouvés à la bibliothèque de modèles de fondation watsonx ou à votre propre bibliothèque.
  • Fiable : entraînez des modèles sur des données fiables et gouvernées pour les applications qui nécessitent transparence, gouvernance et performances à l’échelle de l’entreprise.
  • Ciblée : conçue pour l’entreprise et optimisée pour des domaines métier et des cas d’utilisation ciblés.
  • Valorisante : offrez aux clients des choix de modèles à des prix compétitifs pour créer une IA qui répond le mieux à leurs besoins métier et à leurs propres profils de risque
Point de vue sur les modèles IBM : une approche différenciée des modèles de fondation d’IA
Granite 3.1 est désormais disponible dans la bibliothèque de modèles de fondation de watsonx.
Nouveautés
Nouvelle fonctionnalité de modèle
Nouveautés Granite - Modèles Granite 3.1 mis à jour, tout nouveaux modèles d’embeddings et plus encore
Nouvelle fonctionnalité de modèle
Le modèle Llama 3.3 70b Instruct de Meta est désormais disponible sur watsonx.ai
Nouvelle fonctionnalité de modèle
Les modèles de fondation sur site de Mistral AI sont désormais disponibles sur Watsonx
Blog
Granite est nommé Strong Performer dans l'étude "Forrester Wave: AI Foundation Models for Language, Q2 2024"
EBook : Découvrir comment choisir le bon modèle de fondation
Modèles IBM

La bibliothèque de modèles de fondation IBM watsonx vous offre le choix et la flexibilité de sélectionner le modèle qui correspond le mieux à vos besoins métier, à vos intérêts régionaux et à vos profils de risque, à partir d’une bibliothèque de modèles propriétaires, open source et tiers.

Granite, développé par IBM Research

IBM Granite est une série phare de modèles de fondation, les grands modèles de langage, basés sur une architecture transformer à décodeur uniquement. Les modèles de langage Granite sont entraînés sur des données d’entreprise fiables couvrant Internet, le monde universitaire, le code, le droit et la finance.

Les modèles offrent systématiquement des performances améliorées pour des cas d’utilisation courants tels que la génération de contenu, la synthèse, la classification, l’extraction d’informations et la génération augmentée de récupération (RAG).

Modèles d’embeddings IBM

Utilisez les modèles d’embeddings développés par IBM et open source, déployés dans IBM watsonx.ai, pour les tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

  • Granite-embedding-30M-english
  • Granite-embedding-125M-english
  • Granite-embedding-107M-multilingual
  • Granite-embedding-278M-multilingual
Essayer watsonx.ai gratuitement
Rapport IBM Research
Découvrir comment les modèles Granite ont été entraînés et les sources de données utilisées
Pourquoi choisir IBM Granite ?         En savoir plus sur IBM Granite
Ouverte

Choisissez le bon modèle, de moins d'un milliard à 34 milliards de paramètres, open source sous Apache 2.0.

Performant

Ne sacrifiez pas la performance pour réduire les coûts. Granite surpasse les modèles comparables dans toute une série de tâches d’entreprise.

Fiable

Développez une IA responsable grâce à un ensemble complet de capacités de détection des risques et des dommages, de transparence et de protection de la propriété intellectuelle.

Bibliothèque de modèles de fondation

Sélectionnez le modèle de fondation génératif qui correspond le mieux à vos besoins. Après avoir dressé une liste restreinte de modèles pour votre cas d’utilisation, testez systématiquement les modèles à l’aide de techniques de prompt engineering pour voir lesquels renvoient toujours les résultats souhaités.

En savoir plus sur la tarification de watsonx
Nom de modèle Fournisseur Cas d’utilisation Longueur du contexte Tarif USD/1 million de tokens*

granite-3-2b-instruct (v3.1)

Nouveau
Modèle présenté

IBM

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de codage. 

128 000

0.10

granite-3-8b-instruct (v3.1)

Nouveau
Modèle présenté

IBM

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de codage. 

128 000

0,20

granite-guardian-3-8b (v3.1)

Nouveau
Modèle présenté

IBM

Prend en charge la détection du contenu haineux, abusif et injurieux (HAP) et des informations à caractère personnel (PII), du débridage, des biais, de la violence et d’autres contenus préjudiciables.

128 000

0,20

granite-guardian-3-2b (v3.1)

Nouveau
Modèle présenté

IBM

Prend en charge la détection du contenu haineux, abusif et injurieux (HAP) et des informations à caractère personnel (PII), du débridage, des biais, de la violence et d’autres contenus préjudiciables.

128 000

0.10

granite-20b-multilingual

Obsolète

IBM

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de traduction et de génération augmentée de récupération en français, allemand, portugais, espagnol et anglais.

8192

0,60

granite-13b-chat 

Obsolète

IBM

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération. 

 

8192

0,60

granite-13b-instruct

IBM 

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.

8192

0,60

granite-34b-code-instruct

IBM

Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.

 

8192

0,60

granite-20b-code-instruct

IBM

Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.

 

8192

0,60

granite-8b-code-instruct

IBM

Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.

 

128 000

0,60

granite-3b-code-instruct

IBM

Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.

 

128 000

0,60

granite-8b-japanese

IBM

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de traduction et de génération augmentée de récupération en japonais.

4096

0,60

llama-3-3-70b-instruct

Nouveau

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï

128 000

0,71

llama-3-2-90b-vision-instruct

Nouveau

Meta

Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets

128 000

2.00

llama-3-2-11b-vision-instruct

Nouveau

Meta

Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets

128 000

0.35

llama-guard-3-11b-vision

Nouveau

Meta

Prend en charge le filtrage des images, la détection des HAP/PII et le filtrage des contenus préjudiciables

128 000

0.35

llama-3-2-1b-instruct

Nouveau

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï

128 000

0.10

llama-3-2-3b-instruct

Nouveau

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï

128 000

0.15

llama-3-405b-instruct

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï

128 000

Entrée t: 5.00 / Sortie : 16.00

llama-3-1-70b-instruct

Obsolète

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï.

128 000

1.80

llama-3-1-8b-instruct 

Obsolète

Meta

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï.

128 000

0,60

llama-3-8b-instruct

Obsolète

Meta

Prend en charge les tâches de synthèse, de classification, de génération, d’extraction et de traduction.

8192

0,60

llama-3-70b-instruct

Obsolète

Meta

Prend en charge les tâches de génération augmentée de récupération, de génération, de synthèse, de classification, de questions-réponses, d’extraction, de traduction et de génération de code.

8192

1.80

allam-1-13b-instruct

SDAIA

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de traduction en arabe.

4096

1.80

codellama-34b-instruct

Obsolète

Meta

Modèle de code spécifique à une tâche en générant et en traduisant le code à partir d’un prompt en langage naturel.

16384

1.80

pixtral-12b

Nouveau

Mistral AI

Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets

128 000

0.35

mistral-large-2

Nouveau

Mistral AI

Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en français, en allemand, en italien, en espagnol et en anglais.

128 000*

Entrée : 3.00 / Sortie : 10.00

 Mistral-Petit-24B-Instruct-2501

Nouveau

Mistral AI

Prend en charge les tâches linguistiques, les workflows, le RAG, etc. dans des dizaines de langues avec un temps de réponse rapide.

32768

0.35

mixtral-8x7b-instruct

Mistral AI

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de génération de code.

32768

0,60

jais-13b-chat (arabe)

core42

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de traduction en arabe.

2048

1.80

flan-t5-xl-3b

Google

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération. Disponible pour le réglage des prompts.

4096

0,60

flan-t5-xxl-11b

Google

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.

4096

1.80

flan-ul2-20b

Google

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.

4096

5.00

elyza-japanese-llama-2-7b-instruct

ELYZA

Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de traduction. 

4096

1.80

* Les prix mentionnés sont donnés à titre indicatif, peuvent varier selon le pays, s’entendent hors taxes et frais de douane applicables et sont soumis à la disponibilité de l’offre de produit dans le pays concerné.

Bibliothèque de modèles d’embeddings

Les modèles d’embeddings convertissent le texte d’entrée en plongements : des représentations vectorielles denses du texte d’entrée. Les plongements capturent les nuances des relations sémantiques et syntaxiques entre les mots et les passages dans l’espace vectoriel.

Nom de modèle Fournisseur Cas d’utilisation Longueur du contexte Tarif USD/1 million de tokens*

granite-embedding-107m-multilingual

Nouveau

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

512

0.10

granite-embedding-278m-multilingual

Nouveau

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

512

0.10

slate-125m-english-rtrvr-v2

Nouveau

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

512

0.10

slate-125m-english-rtrvr

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

 

512

0.10

slate-30m-english-rtrvr-v2

Nouveau

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

 

512

0.10

slate-30m-english-rtrvr

IBM

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

 

512

0.10

all-mini-l6-v2

Nouveau

Microsoft

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

256

0.10

all-minilm-l12-v2

OS-NLP-CV

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

256

0.10

multilingual-e5-large

Intel

Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.

512

0.10

* Les prix mentionnés sont donnés à titre indicatif, peuvent varier selon le pays, s’entendent hors taxes et frais de douane applicables et sont soumis à la disponibilité de l’offre de produit dans le pays concerné.

Témoignages clients

Les entreprises se réjouissent de la perspective d’exploiter les modèles de fondation et le ML en un seul endroit, avec leurs propres données, afin d’accélérer les workloads d’IA générative. 

Wimbledon a utilisé les modèles de fondation watsonx.ai pour entraîner son IA à commenter les matchs de tennis. Lire l’étude de cas
La Recording Academy a utilisé AI Stories avec IBM watsonx pour générer et adapter du contenu éditorial portant sur les nominés aux GRAMMY. watsonx apporte des informations alimentées par l’IA sur les trous du parcours et une narration par IA en espagnol aux plateformes numériques des Masters de golf. AddAI.Life utilise watsonx.ai pour accéder à des grands modèles de langage open source spécifiques pour créer des assistants virtuels de meilleure qualité.

Protection de la propriété intellectuelle pour les modèles d’IA

IBM croit en la création, le déploiement et l’utilisation de modèles d’IA qui font progresser l’innovation dans l’entreprise de manière responsable. Le portefeuille AI de watsonx d’IBM dispose d’un processus de bout en bout pour construire et tester les modèles de fondation et l’IA générative. Pour les modèles développés par IBM, nous recherchons et supprimons les doublons, et nous utilisons des listes de blocage d’URL, des filtres pour le contenu répréhensible et la qualité des documents, des techniques de découpage des phrases et de symbolisation, le tout avant l'entraînement du modèle.

Au cours du processus d’entraînement sur les données, nous nous efforçons d’éviter les défauts d’alignement dans les sorties du modèle et nous utilisons un réglage fin supervisé pour permettre un meilleur suivi des instructions afin que le modèle puisse être utilisé pour accomplir les tâches de l’entreprise via prompt engineering. Nous continuons à développer les modèles Granite dans plusieurs directions : autres modalités, contenu propre aux secteurs et annotations de données supplémentaires pour l’entraînement, tout en déployant régulièrement et continuellement des mécanismes de protection des données pour les modèles développés par IBM.  

Compte tenu de l’évolution rapide du paysage technologique de l’IA générative, nos processus de bout en bout sont appelés à évoluer et à s’améliorer en permanence. Pour témoigner de la rigueur avec laquelle IBM développe et teste ses modèles de fondation, l’entreprise fournit pour les modèles développés par IBM une indemnisation contractuelle standard en matière de propriété intellectuelle, similaire à celle qu’elle fournit pour le matériel et les produits logiciels d’IBM.

En outre, contrairement à d’autres fournisseurs de grands modèles de langage et conformément à l’approche standard d’IBM en matière d’indemnisation, IBM n’exige pas de ses clients qu’ils l’indemnisent pour l’utilisation qu’ils font des modèles qu’il a développés. Conformément à son approche de l’obligation d’indemnisation, IBM ne plafonne pas sa responsabilité en matière d’indemnisation pour les modèles qu’il a développés.

Voici les modèles actuels de watsonx bénéficiant de ces protections :

(1) Famille Slate des modèles à encodeur uniquement.

(2) Famille Granite du modèle à décodeur uniquement.

En savoir plus sur les licences pour les modèles Granite

Passez à l’étape suivante

Passez à l'étape suivante pour commencer à opérationnaliser et à appliquer l'IA générative et le machine learning à votre entreprise.

Commencez votre essai gratuit Réserver une démo live
Autres moyens d’information Connectez-vous avec la communauté IBM Documentation SaaS Documentation du logiciel Support
Notes de bas de page

*Longueur du contexte prise en charge par le fournisseur de modèles, mais la longueur du contexte réelle sur la plateforme est limitée. Pour plus d’informations, veuillez consulter la documentation.

L’inférence est facturée en unités de ressources. Une unité de ressources correspond à 1 000 jetons. Les tokens d’entrée et d’achèvement sont facturés au même tarif. 1 000 tokens correspondent généralement à environ 750 mots.

Certains modèles ne sont pas disponibles dans toutes les régions, consultez notre documentation pour plus de détails.

La longueur du contexte est exprimée en tokens.

Les déclarations relatives aux projets, à l’orientation et aux intentions d’IBM sont susceptibles d’être modifiées ou retirées sans préavis, à la seule discrétion d’IBM. Consultez la page Tarification pour en savoir plus. Sauf indication contraire spécifiée dans la tarification du logiciel, toutes les fonctionnalités, capacités et mises à jour potentielles se rapportent exclusivement au SaaS. IBM ne garantit pas que les fonctionnalités et les capacités du SaaS et du logiciel sont les mêmes.