Choisissez le bon modèle, du sous-milliard de paramètres à 34 milliards de paramètres, disponible en open source sous Apache 2.0.
Ne sacrifiez pas la performance pour réduire les coûts. Granite surpasse les modèles comparables1 dans diverses tâches d’entreprise.
Développez une IA responsable grâce à un ensemble complet de capacités de détection des risques et des dommages, de transparence et de protection de la propriété intellectuelle.
Des modèles de langage de base et optimisés par les instructions avec de nouvelles capacités de raisonnement, conçus pour les workflows agentiques, la RAG, la synthèse de textes, l’analyse et l’extraction de textes, la classification et la génération de contenus.
Un modèle pré-entraîné spécialisé dans les tâches de vision pour la compréhension des documents et des images, prenant en charge une gamme de types de fichiers et de résolutions, et conçu pour un déploiement efficace dans les environnements d’entreprise.
Modèles décodeur uniquement conçus pour des tâches de génération de code, y compris l’explication de code et l’édition de code, avec un entraînement sur du code provenant de 116 langages de programmation.
Légers et pré-entraînés pour la prévision des séries temporelles et optimisés pour fonctionner sur une large gamme de configurations matérielles.
Protégez l’IA avec Granite Guardian en assurant la sécurité des données de l’entreprise et en atténuant les risques à travers diverses invites d’utilisateurs et de réponses LLM, avec des performances de pointe dans plus de 15 points de référence de sécurité.
La NASA et IBM ont uni leurs efforts pour développer un modèle d'IA pour l'observation de la Terre, basé sur des données satellitaires et de télédétection à grande échelle.
Conçu pour améliorer considérablement la compréhension de l’intention de l’utilisateur et accroître la pertinence des informations et des sources en réponse à une requête.
L’application des capacités de raisonnement à Granite a permis une amélioration significative du suivi des instructions complexes et a maintenu les caractéristiques générales de performance et de sécurité, alors que des modèles comparables ont connu une dégradation dans ces domaines.
Granite-3.2-8B-Instruct
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-7B
ArenaHard
55.23
17.17 |
10.36
Alpaca-Eval-2
61.16
21.85
15.35
IFEval
73.57
66.50
59.10
MMLU |
66.93
45.80
50.72
PopQA |
28.08
13.25
9.94
TruthfulQA |
66.37
47.43
47,14
BigBenchHard
65.60
65.71
65.04
DROP
50.73
44.46
42.76
GSM8K
83.09
72.18
78.47
HumanEval
89,47
67.54
79.89
HumanEval+
86.88
62.91
78.43
AttaQ
85.99
42.87
42.45
* Les prix mentionnés sont donnés à titre indicatif, peuvent varier selon le pays, s’entendent hors taxes et frais de douane applicables et sont soumis à la disponibilité de l’offre de produit dans le pays concerné.
« Chez CrushBank, nous avons pu constater par nous-mêmes que les modèles d’IA ouverts et efficaces d’IBM apportent une réelle valeur ajoutée à l’IA d’entreprise, en offrant le juste équilibre entre performances, rentabilité et évolutivité. Granite 3.2 va encore plus loin avec de nouvelles capacités de raisonnement, et nous sommes impatients de les explorer pour créer de nouvelles solutions agentiques. »
David Tan
Directeur technique
CrushBank
Utiliser IBM Docling et Granite 3.1 open source pour répondre visuellement aux questions sur les documents pour différents types de fichiers
Apprenez à créer un agent IA capable de répondre à des questions
Dans ce tutoriel, vous utiliserez le modèle IBM Granite-3.0-8B-Instruct, désormais disponible sur watsonx.ai, pour effectuer des appels de fonctions personnalisés.
Quantifiez un modèle pré-entraîné de différentes manières pour montrer la taille des modèles et comparer leurs performances dans le cadre d’une tâche
Prévoyez l'avenir avec le modèle Granite TinyTimeMixer (TTM)
Convertir un texte en une représentation structurée et générer une requête SQL sémantiquement correcte
Utiliser la méthode de prompt-tuning pour optimiser un modèle Granite en Python en vous appuyant sur un jeu de données synthétique contenant des avis clients positifs et négatifs
Consulter le manuel d’instructions Granite complet
Déployez en toute confiance l’IA à grande échelle avec les modèles open source Granite en production avec Red Hat Enterprise Linux AI et watsonx. Accélérez votre développement grâce à des fonctionnalités telles que l’appel d’outils, 12 langues, le raisonnement par chaîne de pensée et les adaptateurs multimodaux.
Les derniers modèles Granite introduisent de nouvelles capacités de raisonnement, un modèle assisté par la vision et une efficacité accrue, offrant des résultats compétitifs à moindre coût.
Dans l’épisode 40 de Mixture of Experts, le groupe de discussion aborde les idées reçues sur DeepSeek R1, explique la distillation de modèles et dissèque le paysage concurrentiel de l’open source.
Recevez directement dans votre boîte de réception une sélection de sujets, de tendances et de recherches en matière d’IA.
DeepSeek R1 est un assistant numérique qui est aussi performant que l’o1 d’OpenAI sur certains tests de référence en matière d’IA pour les tâches mathématiques et de codage. Il a été entraîné avec beaucoup moins de puces et selon l'entreprise, réduit les coûts d'utilisation de près de 96 %.
IBM croit en la création, le déploiement et l’utilisation de modèles d’IA qui font progresser l’innovation dans l’entreprise de manière responsable. La plateforme de données et d’IA watsonx d’IBM dispose d’un processus de bout en bout pour construire et tester les modèles de fondation et l’IA générative. Pour les modèles développés par IBM, nous recherchons et supprimons les doublons, et nous utilisons des listes de blocage d’URL, des filtres pour le contenu répréhensible et la qualité des documents, des techniques de découpage des phrases et de symbolisation, le tout avant l'entraînement du modèle.
Au cours du processus de formation des données, nous nous efforçons d’éviter les défauts d’alignement dans les sorties du modèle et nous utilisons un réglage précis supervisé pour permettre un meilleur suivi des instructions afin que le modèle puisse être utilisé pour accomplir les tâches de l’entreprise via prompt engineering. Nous continuons à développer les modèles Granite dans plusieurs directions, y compris d’autres modalités, un contenu spécifique aux secteurs et des annotations de données supplémentaires pour la formation, tout en déployant des garanties régulières et continues de protection des données pour les modèles développés par IBM.
Compte tenu de l’évolution rapide du paysage technologique de l’IA générative, nos processus de bout en bout sont appelés à évoluer et à s’améliorer en permanence. Pour témoigner de la rigueur avec laquelle IBM développe et teste ses modèles de fondation, l’entreprise fournit pour les modèles développés par IBM une indemnisation contractuelle standard en matière de propriété intellectuelle, similaire à celle qu’elle fournit pour le matériel et les produits logiciels d’IBM.
En outre, contrairement à d’autres fournisseurs de grands modèles de langage et conformément à l’approche standard d’IBM en matière d’indemnisation, IBM n’exige pas de ses clients qu’ils l’indemnisent pour l’utilisation qu’ils font des modèles qu’il a développés. Conformément à son approche de l’obligation d’indemnisation, IBM ne plafonne pas sa responsabilité en matière d’indemnisation pour les modèles qu’il a développés.
Voici les modèles actuels de watsonx bénéficiant de ces protections :
(1) Famille Slate des modèles à encodeur uniquement.
(2) Famille Granite du modèle à décodeur uniquement.
* « How smaller, industry-tailored AI models can offer greater benefits »
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html
1Performance des modèles Granite réalisée par IBM Research par rapport à des modèles ouverts de premier plan sur des critères de référence universitaires et professionnels - https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models