Granite

Modèles d’IA ouverts, performants et fiables conçus pour les entreprises.

Illustration de formes géométriques superposées dans un dégradé de couleurs
IBM Granite 4.0 : la nouvelle génération de modèles Granite
Réduisez les coûts et accélérez les Workloads avec des modèles efficaces conçus pour une adoption Évolutif, prête pour l’entreprise, de l’IA.
En savoir plus

Découvrez Granite

Construisez et développez l'IA plus rapidement avec des modèles open source personnalisables, optimisés pour les Workload d'entreprise, la rentabilité et les déploiement flexibles.

Ouverte
Sous licence open source Apache 2.0, Granite garantit la transparence tout en permettant une personnalisation complète et une flexibilité de déploiement sur toute infrastructure.
Performant
Ces petits modèles performants sont conçus pour maximiser l’efficacité et l’évolutivité des tâches essentielles en entreprise.
Fiable
Éliminez le risque d’une IA « boîte noire » grâce à la transparence sur les données et processus d’entraînement, aux capacités de détection des contenus nuisibles et aux garde-fous intégrés.
En savoir plus

Présentation de Granite 4.0

Rencontrez les modèles

Granite 4.0 Nano
Tâches d'IA légères, locales et edge où les capacités de calcul et la connectivité sont limitées
Granite 4.0 Micro & Tiny
Des tâches à fort volume et faible complexité où la vitesse, le coût et l’efficacité sont la priorité absolue
Granite 4.0 Petit
Workflows d'Enterprise nécessitant une meilleure performance sans le coût des modèles de frontière
En savoir plus

En chiffres

Plus de 70 %
de réduction des besoins en mémoire
2X
des vitesses d'inférence plus rapides
Granite-Docling : Un modèle ultra-compact pour la conversion de documents
IBM Granite-Docling est un modèle open source très efficace qui convertit les documents en formats lisibles par machine tout en préservant la mise en page.
En savoir plus

Famille de petits modèles Granite

Petits modèles de langage (SLM)

Modèles de langage de base avec raisonnement, optimisés pour la RAG et les workflows agentiques.

Intégration

Modèles générant des embeddings de texte de haute qualité pour la recherche sémantique, le RAG et la recherche d'information contextuelle multi-tours.

Document conversion

Modèle vision-langage ultra-compact convertissant les documents en formats structurés et lisibles par machine tout en préservant la mise en page, les tableaux et les équations.

Vision

Modèles vision-langage efficaces pour la compréhension des documents et des images, permettant l’OCR, l’analyse de graphiques et l’extraction de contenu d’entreprise.

Parole

Des modèles vocaux légers pour la transcription et la traduction dans 7 langues, offrant une précision et une efficacité élevées.

Séries temporelles

Des modèles pré-entraînés légers pour des forecasting rapides et précises, optimisés pour un deployment efficace dans les environnements matériels.

Dispositifs de sécurité

Les modèles de dispositifs de sécurité détectent les hallucinations, les biais, les contenus préjudiciables et les jailbreaks, garantissant ainsi un déploiement sécurisé de l'IA dans les workflows.

Géospatial

Modèles NASA-IBM pour l'observation de la Terre, prédisant la biomasse, le climat, la température des terres et les inondations à partir de données de satellite à grande échelle.

Performance et efficacité

Granite 4.0 est conçu pour l'efficacité, utilisant moins de mémoire tout en offrant des vitesses plus rapides et des performances élevées. Cet équilibre permet aux entreprises de réduire les coûts et d'adapter plus rapidement leurs solutions aux Workloads critiques.

Tableau circulaire des exigences de RAM pour Granite 4.0

Les modèles Granite 4.0 sont conçus pour faire plus avec moins. Ils utilisent beaucoup moins de mémoire (plus de 70 % de moins que les modèles similaires), ce qui permet aux entreprises d'exécuter des fonctions d'IA puissantes sur du matériel plus abordable. Cela se traduit par des coûts d'infrastructure plus bas, des performances plus rapides et la possibilité de dimensionner l'IA plus facilement dans l'ensemble de l'entreprise.

Graphique de lignes de débit Granite 4.0

Granite 4.0 fournit un débit constamment élevé à mesure que les charges de travail évoluent, gérant facilement des lots plus importants alors que les autres modèles ralentissent. Les entreprises peuvent ainsi maintenir des performances fiables pour les applications qui doivent servir de nombreux utilisateurs ou exécuter des tâches complexes en même temps.

Graphique de points de performance générale Granite 4.0

Granite 4.0 offre une précision accrue avec des besoins en mémoire bien inférieurs à ceux des modèles concurrents, même dans des formats plus petits. Cette efficacité se traduit par des économies, une plus grande accessibilité et la possibilité de déployer l'IA d'entreprise de manière plus large et plus souple.

Score RAG de 4,0 sur Granite
Granite 4.0 surpasse les modèles ouverts de taille similaire et même les plus grands sur les tâches RAG. En fournissant une précision accrue sans nécessiter d'infrastructure supplémentaire, Granite aide les entreprises à créer des applications plus fiables et fondées sur les connaissances, tout en garantissant l'efficacité et la rentabilité des déploiements.
Graphique à barres du classement IFEval du classement Granite 4.0

Granite 4.0 démontre une performance de suivi d'instructions de premier plan dans le secteur parmi les modèles ouverts, une capacité essentielle pour les workflows. En conciliant une grande précision et une taille réduite, Granite fournit aux entreprises des résultats de haute qualité pour des tâches complexes à des coûts d'infrastructure inférieurs à ceux des grands modèles ouverts.

Tableau circulaire des exigences de RAM pour Granite 4.0

Les modèles Granite 4.0 sont conçus pour faire plus avec moins. Ils utilisent beaucoup moins de mémoire (plus de 70 % de moins que les modèles similaires), ce qui permet aux entreprises d'exécuter des fonctions d'IA puissantes sur du matériel plus abordable. Cela se traduit par des coûts d'infrastructure plus bas, des performances plus rapides et la possibilité de dimensionner l'IA plus facilement dans l'ensemble de l'entreprise.

Graphique de lignes de débit Granite 4.0

Granite 4.0 fournit un débit constamment élevé à mesure que les charges de travail évoluent, gérant facilement des lots plus importants alors que les autres modèles ralentissent. Les entreprises peuvent ainsi maintenir des performances fiables pour les applications qui doivent servir de nombreux utilisateurs ou exécuter des tâches complexes en même temps.

Graphique de points de performance générale Granite 4.0

Granite 4.0 offre une précision accrue avec des besoins en mémoire bien inférieurs à ceux des modèles concurrents, même dans des formats plus petits. Cette efficacité se traduit par des économies, une plus grande accessibilité et la possibilité de déployer l'IA d'entreprise de manière plus large et plus souple.

Score RAG de 4,0 sur Granite
Granite 4.0 surpasse les modèles ouverts de taille similaire et même les plus grands sur les tâches RAG. En fournissant une précision accrue sans nécessiter d'infrastructure supplémentaire, Granite aide les entreprises à créer des applications plus fiables et fondées sur les connaissances, tout en garantissant l'efficacité et la rentabilité des déploiements.
Graphique à barres du classement IFEval du classement Granite 4.0

Granite 4.0 démontre une performance de suivi d'instructions de premier plan dans le secteur parmi les modèles ouverts, une capacité essentielle pour les workflows. En conciliant une grande précision et une taille réduite, Granite fournit aux entreprises des résultats de haute qualité pour des tâches complexes à des coûts d'infrastructure inférieurs à ceux des grands modèles ouverts.

Illustration par des formes géométriques superposées dans un dégradé de couleurs
IBM Granite 4.0 : la nouvelle génération de modèles Granite
Réduisez les coûts et augmentez les charges de travail grâce à des modèles efficaces conçus pour une adoption de l'IA évolutive et adaptée aux entreprises.
En savoir plus

Granite pour les développeurs

Recette : Synthèse de documents

Créez un récapitulatif de documents avec IBM Granite pour traiter des documents au-delà des limites de la fenêtre contextuelle.

RAG avec Langchain

Construisez un pipeline RAG avec Granite pour répondre aux requêtes à l'aide d'une base de connaissances externe.

Recette : RAG multimodal

Créez un pipeline RAG multimodal avec Granite et Docling pour interroger du texte, des tableaux et des images.

Guide : Modèles open source

Découvrez comment les LLM open source permettent l'autonomie, réduisent les coûts et aident les développeurs à l'évaluation, au réglage et au déploiement.

Tutoriel : forecasting des séries temporelles

Utilisez les modèles de séries temporelles Granite pour effectuer des prévisions de séries temporelles zero-shot et affinées.

Tutoriel : Traduction vocale

Utilisez la reconnaissance automatique de la parole (ASR) pour générer une transcription de podcast en utilisant Granite et watsonx.ai.

Tutoriel : Copilote IA local

Créer un co-pilote IA local en utilisant IBM Granite Code, Ollama et Continue

Consulter le manuel d’instructions Granite complet

Consulter le manuel d’instructions Granite complet

Créez avec Granite

Les modèles Granite alimentent l'IA qui sous-tend de nombreux produits et services IBM. Découvrez des solutions prêtes à l'emploi pour la génération de code, le développement d'applications et le test de modèles. Le tout est propulsé par IBM Granite.

Restez à la pointe de l’actualité de l’IA

Blog | Granite 3.2 : nouvelles capacités multimodales et de raisonnement

Les derniers modèles Granite introduisent de nouvelles capacités de raisonnement, un modèle assisté par la vision et une efficacité accrue, offrant des résultats compétitifs à moindre coût.

Podcast | DeepSeek : faits versus effet de mode, distillation de modèles et concurrence de l’open source

Dans l’épisode 40 de Mixture of Experts, le groupe de discussion aborde les idées reçues sur DeepSeek R1, explique la distillation de modèles et dissèque le paysage concurrentiel de l’open source.

Newsletter AI Think | Obtenez des informations de l’IA

Recevez directement dans votre boîte de réception une sélection de sujets, de tendances et de recherches en matière d’IA.

Article | L’IA de DeepSeek montre la puissance des petits modèles

DeepSeek R1 est un assistant numérique qui est aussi performant que l’o1 d’OpenAI sur certains tests de référence en matière d’IA pour les tâches mathématiques et de codage. Il a été entraîné avec beaucoup moins de puces et selon l'entreprise, réduit les coûts d'utilisation de près de 96 %.

IBM croit en la création, le déploiement et l’utilisation de modèles d’IA qui font progresser l’innovation dans l’entreprise de manière responsable. La plateforme de données et d’IA watsonx d’IBM dispose d’un processus de bout en bout pour construire et tester les modèles de fondation et l’IA générative. Pour les modèles développés par IBM, nous recherchons et supprimons les doublons, et nous utilisons des listes de blocage d’URL, des filtres pour le contenu répréhensible et la qualité des documents, des techniques de découpage des phrases et de symbolisation, le tout avant l'entraînement du modèle.

Au cours du processus de formation des données, nous nous efforçons d’éviter les défauts d’alignement dans les sorties du modèle et nous utilisons un réglage précis supervisé pour permettre un meilleur suivi des instructions afin que le modèle puisse être utilisé pour accomplir les tâches de l’entreprise via prompt engineering. Nous continuons à développer les modèles Granite dans plusieurs directions, y compris d’autres modalités, un contenu spécifique aux secteurs et des annotations de données supplémentaires pour la formation, tout en déployant des garanties régulières et continues de protection des données pour les modèles développés par IBM. 

Compte tenu de l’évolution rapide du paysage technologique de l’IA générative, nos processus de bout en bout sont appelés à évoluer et à s’améliorer en permanence. Pour témoigner de la rigueur avec laquelle IBM développe et teste ses modèles de fondation, l’entreprise fournit pour les modèles développés par IBM une indemnisation contractuelle standard en matière de propriété intellectuelle, similaire à celle qu’elle fournit pour le matériel et les produits logiciels d’IBM.

En outre, contrairement à d’autres fournisseurs de grands modèles de langage et conformément à l’approche standard d’IBM en matière d’indemnisation, IBM n’exige pas de ses clients qu’ils l’indemnisent pour l’utilisation qu’ils font des modèles qu’il a développés. Conformément à son approche de l’obligation d’indemnisation, IBM ne plafonne pas sa responsabilité en matière d’indemnisation pour les modèles qu’il a développés.

Voici les modèles actuels de watsonx bénéficiant de ces protections :

(1) Famille Slate des modèles à encodeur uniquement.

(2) Famille Granite du modèle à décodeur uniquement.

En savoir plus sur les licences pour les modèles Granite

* « Comment des modèles d'IA plus petits et adaptés à l'industrie peuvent offrir de plus grands avantages » 
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html

1Performance des modèles Granite réalisée par IBM Research par rapport à des modèles ouverts de premier plan sur des critères de référence universitaires et professionnels - https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models