Les modèles IBM watsonx™ sont conçus pour l’entreprise et optimisés pour des domaines d’activité et des cas d’utilisation ciblés. Par l’intermédiaire du studio d’IA IBM watsonx.ainous proposons une sélection de modèles dédiés aux entreprises, de modèles open source et de modèles provenant de fournisseurs tiers pour aider les clients et les partenaires à faire évoluer et à opérationnaliser l’intelligence artificielle (IA) plus rapidement avec un risque minimal. Vous pouvez déployer les modèles d’IA là où se trouve votre workload, à la fois sur site et dans le cloud hybride.
IBM adopte une approche différenciée pour fournir des modèles de fondation dédiés aux entreprises :
La bibliothèque de modèles de fondation IBM watsonx vous offre le choix et la flexibilité de sélectionner le modèle qui correspond le mieux à vos besoins métier, à vos intérêts régionaux et à vos profils de risque, à partir d’une bibliothèque de modèles propriétaires, open source et tiers.
IBM Granite est une série phare de modèles de fondation, les grands modèles de langage, basés sur une architecture transformer à décodeur uniquement. Les modèles de langage Granite sont entraînés sur des données d’entreprise fiables couvrant Internet, le monde universitaire, le code, le droit et la finance.
Les modèles offrent systématiquement des performances améliorées pour des cas d’utilisation courants tels que la génération de contenu, la synthèse, la classification, l’extraction d’informations et la génération augmentée de récupération (RAG).
Utilisez les modèles d’embeddings développés par IBM et open source, déployés dans IBM watsonx.ai, pour les tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
Choisissez le bon modèle, de moins d'un milliard à 34 milliards de paramètres, open source sous Apache 2.0.
Ne sacrifiez pas la performance pour réduire les coûts. Granite surpasse les modèles comparables dans toute une série de tâches d’entreprise.
Développez une IA responsable grâce à un ensemble complet de capacités de détection des risques et des dommages, de transparence et de protection de la propriété intellectuelle.
Sélectionnez le modèle de fondation génératif qui correspond le mieux à vos besoins. Après avoir dressé une liste restreinte de modèles pour votre cas d’utilisation, testez systématiquement les modèles à l’aide de techniques de prompt engineering pour voir lesquels renvoient toujours les résultats souhaités.
granite-3-2b-instruct (v3.1)
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de codage.
128 000
0.10
granite-3-8b-instruct (v3.1)
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de codage.
128 000
0,20
granite-guardian-3-8b (v3.1)
IBM
Prend en charge la détection du contenu haineux, abusif et injurieux (HAP) et des informations à caractère personnel (PII), du débridage, des biais, de la violence et d’autres contenus préjudiciables.
128 000
0,20
granite-guardian-3-2b (v3.1)
IBM
Prend en charge la détection du contenu haineux, abusif et injurieux (HAP) et des informations à caractère personnel (PII), du débridage, des biais, de la violence et d’autres contenus préjudiciables.
128 000
0.10
granite-20b-multilingual
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de traduction et de génération augmentée de récupération en français, allemand, portugais, espagnol et anglais.
8192
0,60
granite-13b-chat
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.
8192
0,60
granite-13b-instruct
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.
8192
0,60
granite-34b-code-instruct
IBM
Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.
8192
0,60
granite-20b-code-instruct
IBM
Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.
8192
0,60
granite-8b-code-instruct
IBM
Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.
128 000
0,60
granite-3b-code-instruct
IBM
Modèle de code propre à une tâche générant et traduisant le code à partir d’un prompt en langage naturel.
128 000
0,60
granite-8b-japanese
IBM
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de traduction et de génération augmentée de récupération en japonais.
4096
0,60
llama-3-3-70b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï
128 000
0,71
llama-3-2-90b-vision-instruct
Meta
Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets
128 000
2.00
llama-3-2-11b-vision-instruct
Meta
Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets
128 000
0.35
llama-guard-3-11b-vision
Meta
Prend en charge le filtrage des images, la détection des HAP/PII et le filtrage des contenus préjudiciables
128 000
0.35
llama-3-2-1b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï
128 000
0.10
llama-3-2-3b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï
128 000
0.15
llama-3-405b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï |
128 000
Entrée t: 5.00 / Sortie : 16.00
llama-3-1-70b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï.
128 000
1.80
llama-3-1-8b-instruct
Meta
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en anglais, en allemand, en français, en italien, en portugais, en hindi, en espagnol et en thaï.
128 000
0,60
llama-3-8b-instruct
Meta
Prend en charge les tâches de synthèse, de classification, de génération, d’extraction et de traduction.
8192
0,60
llama-3-70b-instruct
Meta
Prend en charge les tâches de génération augmentée de récupération, de génération, de synthèse, de classification, de questions-réponses, d’extraction, de traduction et de génération de code.
8192
1.80
allam-1-13b-instruct
SDAIA
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de traduction en arabe.
4096
1.80
codellama-34b-instruct
Meta
Modèle de code spécifique à une tâche en générant et en traduisant le code à partir d’un prompt en langage naturel.
16384
1.80
pixtral-12b
Mistral AI
Prend en charge le sous-titrage d’images, la transcription image-to-text (OCR) avec écriture manuscrite, l’extraction et le traitement des données, les questions-réponses en contexte, l’identification d’objets
128 000
0.35
mistral-large-2
Mistral AI
Prend en charge les tâches de questions-réponses, de synthèse, de génération, de codage, de classification, d’extraction, de traduction et de génération augmentée de récupération en français, en allemand, en italien, en espagnol et en anglais.
128 000*
Entrée : 3.00 / Sortie : 10.00
Mistral-Petit-24B-Instruct-2501
Mistral AI
Prend en charge les tâches linguistiques, les workflows, le RAG, etc. dans des dizaines de langues avec un temps de réponse rapide.
32768
0.35
mixtral-8x7b-instruct
Mistral AI
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de génération de code.
32768
0,60
jais-13b-chat (arabe)
core42
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de traduction en arabe.
2048
1.80
flan-t5-xl-3b
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération. Disponible pour le réglage des prompts.
4096
0,60
flan-t5-xxl-11b
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.
4096
1.80
flan-ul2-20b
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction et de génération augmentée de récupération.
4096
5.00
elyza-japanese-llama-2-7b-instruct
ELYZA
Prend en charge les tâches de questions-réponses, de synthèse, de classification, de génération, d’extraction, de génération augmentée de récupération et de traduction.
4096
1.80
* Les prix mentionnés sont donnés à titre indicatif, peuvent varier selon le pays, s’entendent hors taxes et frais de douane applicables et sont soumis à la disponibilité de l’offre de produit dans le pays concerné.
Les modèles d’embeddings convertissent le texte d’entrée en plongements : des représentations vectorielles denses du texte d’entrée. Les plongements capturent les nuances des relations sémantiques et syntaxiques entre les mots et les passages dans l’espace vectoriel.
granite-embedding-107m-multilingual
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
granite-embedding-278m-multilingual
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
slate-125m-english-rtrvr-v2
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
slate-125m-english-rtrvr
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
slate-30m-english-rtrvr-v2
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
slate-30m-english-rtrvr
IBM
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
all-mini-l6-v2
Microsoft
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
256
0.10
all-minilm-l12-v2
OS-NLP-CV
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
256
0.10
multilingual-e5-large
Intel
Tâches de génération augmentée de récupération, de recherche sémantique et de comparaison de documents.
512
0.10
* Les prix mentionnés sont donnés à titre indicatif, peuvent varier selon le pays, s’entendent hors taxes et frais de douane applicables et sont soumis à la disponibilité de l’offre de produit dans le pays concerné.
Les entreprises se réjouissent de la perspective d’exploiter les modèles de fondation et le ML en un seul endroit, avec leurs propres données, afin d’accélérer les workloads d’IA générative.
IBM croit en la création, le déploiement et l’utilisation de modèles d’IA qui font progresser l’innovation dans l’entreprise de manière responsable. Le portefeuille AI de watsonx d’IBM dispose d’un processus de bout en bout pour construire et tester les modèles de fondation et l’IA générative. Pour les modèles développés par IBM, nous recherchons et supprimons les doublons, et nous utilisons des listes de blocage d’URL, des filtres pour le contenu répréhensible et la qualité des documents, des techniques de découpage des phrases et de symbolisation, le tout avant l'entraînement du modèle.
Au cours du processus d’entraînement sur les données, nous nous efforçons d’éviter les défauts d’alignement dans les sorties du modèle et nous utilisons un réglage fin supervisé pour permettre un meilleur suivi des instructions afin que le modèle puisse être utilisé pour accomplir les tâches de l’entreprise via prompt engineering. Nous continuons à développer les modèles Granite dans plusieurs directions : autres modalités, contenu propre aux secteurs et annotations de données supplémentaires pour l’entraînement, tout en déployant régulièrement et continuellement des mécanismes de protection des données pour les modèles développés par IBM.
Compte tenu de l’évolution rapide du paysage technologique de l’IA générative, nos processus de bout en bout sont appelés à évoluer et à s’améliorer en permanence. Pour témoigner de la rigueur avec laquelle IBM développe et teste ses modèles de fondation, l’entreprise fournit pour les modèles développés par IBM une indemnisation contractuelle standard en matière de propriété intellectuelle, similaire à celle qu’elle fournit pour le matériel et les produits logiciels d’IBM.
En outre, contrairement à d’autres fournisseurs de grands modèles de langage et conformément à l’approche standard d’IBM en matière d’indemnisation, IBM n’exige pas de ses clients qu’ils l’indemnisent pour l’utilisation qu’ils font des modèles qu’il a développés. Conformément à son approche de l’obligation d’indemnisation, IBM ne plafonne pas sa responsabilité en matière d’indemnisation pour les modèles qu’il a développés.
Voici les modèles actuels de watsonx bénéficiant de ces protections :
(1) Famille Slate des modèles à encodeur uniquement.
(2) Famille Granite du modèle à décodeur uniquement.
*Longueur du contexte prise en charge par le fournisseur de modèles, mais la longueur du contexte réelle sur la plateforme est limitée. Pour plus d’informations, veuillez consulter la documentation.
L’inférence est facturée en unités de ressources. Une unité de ressources correspond à 1 000 jetons. Les tokens d’entrée et d’achèvement sont facturés au même tarif. 1 000 tokens correspondent généralement à environ 750 mots.
Certains modèles ne sont pas disponibles dans toutes les régions, consultez notre documentation pour plus de détails.
La longueur du contexte est exprimée en tokens.
Les déclarations relatives aux projets, à l’orientation et aux intentions d’IBM sont susceptibles d’être modifiées ou retirées sans préavis, à la seule discrétion d’IBM. Consultez la page Tarification pour en savoir plus. Sauf indication contraire spécifiée dans la tarification du logiciel, toutes les fonctionnalités, capacités et mises à jour potentielles se rapportent exclusivement au SaaS. IBM ne garantit pas que les fonctionnalités et les capacités du SaaS et du logiciel sont les mêmes.