Les grands modèles de langage (LLM) sont devenus la base du développement de l’intelligence artificielle moderne. Ils sont à l’origine et définissent aujourd’hui l’ère de l’IA générative, qu’il s’agisse d’applications de chatbot simples, d’ingénierie agentique ou d’autres workflows automatisés complexes pilotés par des agents IA. Leur avènement a marqué un tournant fondamental dans l’histoire du machine learning.
À mesure que la technologie évolue, les nouveaux LLM continuent de se multiplier. Les principaux développeurs d’IA, les nouvelles start-ups et les grandes entreprises établies ne cessent de publier et d’affiner de nouveaux modèles. Pendant ce temps, la communauté open source peaufine constamment les LLM open source, en fusionnant et en modifiant les modèles existants sur des jeux de données personnalisés pour créer des variantes infinies. Aucune liste de LLM ne peut donc raisonnablement espérer être exhaustive, et même la liste la plus « exhaustive » ne le resterait pas très longtemps.
Retrouvez ci-dessous une liste des LLM les plus importants et les plus performants disponibles aujourd’hui. Voici quelques points à noter :
À des fins pratiques, les LLM peuvent généralement être divisés en deux catégories : les LLM à source fermée, disponibles uniquement en tant qu’offres commerciales par l’intermédiaire du développeur du modèle, et les modèles ouverts, qui sont mis à disposition gratuitement.
Un modèle à source fermée, ou modèle exclusif, n’est accessible que directement sur la plateforme du développeur du modèle, sur d’autres plateformes auxquelles il a concédé une licence pour son modèle ou par l’intermédiaire de l’API exclusive du fournisseur du modèle.
Étant donné que les développeurs de modèles fermés traitent généralement leurs détails techniques comme des secrets commerciaux jalousement gardés, il est généralement impossible de connaître avec certitude les spécificités concernant la taille, l’architecture du réseau de neurones ou le processus d’entraînement d’un modèle fermé. Certains détails peuvent être déduits, notamment en comparant la vitesse d’inférence d’un modèle fermé, l’utilisation de la mémoire GPU et les performances de référence par rapport à ceux des modèles ouverts dont les détails sont divulgués publiquement. Toutefois, ils sont rarement, voire jamais, confirmés.
Depuis au moins 2022 environ, la plupart des modèles frontaliers de pointe sont des modèles fermés, mais cela reflète en grande partie les circonstances historiques réelles du secteur, plutôt que la supériorité inhérente des modèles fermés par rapport aux modèles ouverts. Voici quelques-unes des séries de modèles fermés les plus remarquables, classées par ordre alphabétique.
Les modèles linguistiques Claude d’Anthropic sont parmi les plus performants au monde. Fondée à l’origine en tant que laboratoire de recherche sur la sécurité de l’IA en 2021 par d’anciens employés d’OpenAI, l’approche d’Anthropic en matière de développement de modèles repose sur le concept unique d’IA constitutionnelle. La « constitution » de Claude est un document qui sert non seulement à guider la conduite des employés d’Anthropic, mais aussi à la réalisation (et à la création de données d’entraînement synthétiques) des modèles Claude eux-mêmes.
Depuis Claude 3, les générations successives de Claude ont présenté des modèles multimodaux en 3 tailles différentes :
Claude Haiku, Sonnet et Opus peuvent tous traiter des entrées de texte, d’audio et d’images, et produire du texte ou de l’audio (en synthèse vocale). Historiquement, contrairement à la plupart des modèles fermés concurrents, ces modèles (et la plateforme Claude qu’ils alimentent) n’étaient pas capables de générer des images. Depuis le 12 mars 2026, Claude peut générer des images. Lorsqu’ils accèdent aux modèles via l’API de Claude, les utilisateurs peuvent définir le « niveau d’effort » du processus de raisonnement de Sonnet ou d’Opus sur « max », « high », « medium », « low » ou « adaptive ».
Gemini est la série de modèles de langage fermés de Google, développée par sa filiale Google DeepMind et lancée pour la première fois en décembre 2023. Il convient de noter que Google Brain (qui a fusionné avec DeepMind pour former Google DeepMind en 2023) est responsable de la création de l’architecture de modèle de transformeur qui a permis les premiers LLM, ayant publié en 2017 l’article de recherche marquant « Attention is All You Need ».
Depuis début 2025, Google propose chaque génération de modèles Gemini dans 3 tailles différentes, qui sont tous des modèles raisonnés. Depuis l’API Gemini, les utilisateurs peuvent sélectionner l’un des multiples « niveaux de réflexion » pour personnaliser le nombre de tokens et le temps que le modèle passera avant de générer une sortie finale.
Les modèles Gemini Pro, Flash et Flash-Lite sont multimodaux par défaut : ils peuvent traiter des entrées texte, audio, image ou vidéo et générer des sorties texte. Si ces modèles sont utilisés depuis la plateforme Gemini, les résultats multimodaux peuvent être générés grâce aux modèles distincts et spécialisés de Gemini pour la génération d’images, de vidéos ou de musique.
Depuis la sortie de Gemini 2.5 Pro en mars 2025, qui a alors atteint la performance de référence du secteur sur la plupart des références universitaires, les modèles Gemini ont rivalisé avec la série GPT de Claude et OpenAI en tant que LLM les plus performants au monde. D’une manière générale, le statut de « meilleur » modèle change de mains chaque fois qu’un nouveau modèle de pointe de l’une de ces trois séries est publié.
Grok est une famille de LLM exclusifs créée par xAI, lancée pour la première fois en version bêta sous forme de chatbot sur X (anciennement Twitter) en novembre 2023. En avril 2025, xAI a lancé l’accès API pour Grok 3, qui était alors son modèle phare le plus récent.
La gamme de modèles Grok n’a cessé d’évoluer au fil des générations successives de modèles.
Depuis Grok 4, les modèles Grok peuvent traiter du texte, des images et des entrées vocales. Bien que les LLM Grok ne puissent pas fournir de sorties multimodales, des sorties image et vidéo peuvent être générées par le modèle Aurora de xAI via sa plateforme Grok Imagine.
Indépendamment de ses performances brutes, une grande partie de l’histoire de Grok (et en particulier celle du chatbot Grok) a été marquée par la controverse, notamment par des accusations de diffusion de fausses informations électorales, d’insertion de points de vue polarisants dans des conversations sans rapport et de perpétuation de stéréotypes préjudiciables.
Dans des déclarations publiques, Elon Musk, PDG de xAI, a affirmé que « notre approche générale consiste à rendre la dernière version open source une fois la version suivante entièrement disponible ».1
xAI a publié Grok 1 en open source sous licence Apache 2.0 en mars 2024. Bien que Grok 3 ait été publié en février 2025, une nouvelle version open source d’un modèle Grok n’a été publiée qu’en août 2025. Aussi surprenant soit-il, xAI (et Elon Musk) ont annoncé avoir rendu open source « Grok 2.5 », 2 alors qu’aucun modèle n’avait été nommé ni annoncé comme tel avant cette déclaration. La carte du modèle Hugging Face fait même référence au modèle sous le nom de « Grok-2 ».
Dans cette annonce d’août 2025, Elon Musk a indiqué que Grok 3 serait également open source dans « environ 6 mois ». Huit mois plus tard, la date de publication de ce logiciel open source n’a pas encore été annoncée.
La série GPT d’OpenAI, abréviation de Generative Pretrained Transformer, est largement créditée pour avoir lancé l’ère actuelle de l’IA générative, notamment après le lancement de ChatGPT en 2022 et du modèle GPT-3.5.
Les conventions d’OpenAI en matière de noms de modèles et de variantes ont changé de manière significative depuis 2022, souvent de manière confuse. Par exemple, GPT-4.1 a été publié après GPT-4.5, et le modèle de raisonnement o4 était disponible en même temps que le modèle multimodal non raisonnant GPT-4o, qui était totalement distinct du modèle de raisonnement « o4 », dont les performances étaient inférieures à celles de « o3 ». Début 2025, Sam Altman, PDG d’OpenAI, a reconnu être « conscients de la complexité de nos modèles et de nos offres de produits ».
Depuis la sortie de GPT-5 en août 2025, les offres consolidées de LLM de la société comprennent désormais :
OpenAI a également publié 2 modèles GPT à poids ouverts, qui sont détaillés dans la section « Modèles ouverts » de cet article.
Mistral AI, une entreprise française fondée par d’anciens employés de Meta IA et Google DeepMind, était à l’origine entièrement dédiée aux modèles open source lors du lancement de son premier modèle (Mistral 7B) en septembre 2023. Depuis, Mistral a adopté un modèle mixte dans lequel bon nombre de ses offres sont disponibles en version ouverte, mais certains modèles frontaliers demeurent à code source fermé.
En mars 2026, les LLM exclusifs phares de Mistral AI étaient les suivants :
Les modèles à poids ouverts proposés par Mistral sont détaillés plus loin dans cet article.
Dans le machine learning, le terme open source est souvent utilisé de manière courante pour désigner les outils d’IA dont le code source est mis à disposition gratuitement, mais le terme est en fait une désignation officielle gérée par l’Open Source Initiative (OSI). L’OSI ne certifie une licence logicielle donnée comme étant « approuvée par l’Open Source Initiative » que si elle estime que cette licence répond aux dix exigences énumérées dans la définition officielle de l’Open Source (OSD).
La plupart des modèles « open source » ne répondent pas à toutes ces exigences. Cela étant, le terme de modèle ouvert (ou modèle à poids ouverts) se réfère plus précisément à tout LLM distribué librement. Il existe une grande variabilité au sein du spectre des modèles ouverts. Un modèle à poids ouvert (mais non-open source) peut être utilisé pour exécuter l’inférence et peut même être affiné. Toutefois, si son code source complet n’est pas fourni, il ne peut être modifié que par modification des valeurs de ses poids par ajustement fin. Sa licence peut interdire l’utilisation du modèle dans certains scénarios (tels que les environnements commerciaux) ou imposer d’autres conditions spécifiques à son application.
Un véritable modèle open source publié avec un code d’entraînement et une description de ses procédures d’entraînement peut, à l’inverse, être entièrement modifié de quelque manière que ce soit et utilisé sans restriction. Les licences open source les plus courantes et standardisées sont la licence Apache 2.0 et la licence MIT. Il convient toutefois de noter qu’à moins que le développeur d’un modèle open source ne fournisse les détails de ses données d’entraînement, le modèle lui-même n’est pas entièrement reproductible.
Les versions open source sont essentielles au développement et à l’amélioration continus des LLM, et sont en grande partie responsables de leur invention. Les modèles ouverts sont généralement accessibles via leur développeur de modèles ou via des plateformes open source populaires telles que GitHub ou Hugging Face. Retrouvez ci-après une liste de séries de modèles ouverts notables, classée par ordre alphabétique.
Cohere, une entreprise canadienne dont les fondateurs incluent l’un des auteurs de « Attention is All You Need », a été lancée en 2019. Bien que l’entreprise publie des rapports techniques détaillés pour chaque LLM et les publie ostensiblement sous forme de modèles à poids ouverts, Cohere autorise ses versions ouvertes sous une version modifiée de la licence Creative Commons 4.0, qui interdit toute utilisation commerciale.
Command est la série phare de modèles de fondation de Cohere, conçue pour les cas d’utilisation en entreprise.
Dans un commentaire Reddit de mars 2026, le PDG de Cohere, Aidan Gomez, a indiqué que la société développait activement la prochaine génération de Command, et qu’il s’agirait du premier modèle de groupe d’experts (MoE) de l’entreprise.
Aya est la série de modèles multilingues de Cohere, lancée pour la première fois en février 2024 avec Aya 101 qui, comme son nom l’indique, était « capable de suivre des instructions en 101 langues ».
DeepSeek est un acteur essentiel de l’écosystème open source, apportant de nombreuses innovations aux architectures LLM et aux processus d’entraînement. Les performances de ses modèles ont parfois rivalisé avec celles des meilleurs modèles fermés. Leurs LLM, à la fois les pondérations et le code, sont en open source sous licence MIT standard. DeepSeek publie également fréquemment des articles techniques détaillant ses découvertes et ses techniques.
Malgré les rumeurs périodiques concernant une sortie imminente de DeepSeek-V4 (ou « DeepSeek-R2 »), ces versions ne se sont toujours pas concrétisées.
La série de LLM Falcon est développée par le Technology Innovation Institute (TII) des Émirats arabes unis. Bien que la première génération de modèles du TII en 2023 ait été particulièrement remarquable pour le Falcon-180B, qui était à l’époque l’un des plus grands modèles open source disponibles, le TII s’est depuis concentré sur les modèles plus petits. Falcon2 disposait de 11 milliards de paramètres et Falcon3, les premiers modèles multimodaux du TII (sortis en décembre 2024), allaient de 1 à 10 milliards de paramètres.
Les dernières générations de modèles Falcon se sont concentrées sur des modèles hybrides Mamba-Transformer.
Les modèles Falcon sont publiés sous une licence Falcon exclusive qui s’inspire du cadre Apache 2.0, tout en y ajoutant des stipulations et des contraintes notables.
Gemma est la famille de modèles ouverts de Google. Selon Google, les modèles Gemma sont « construits à partir de la même technologie que [les] modèles Gemini ».7
Les modèles Gemma sont publiés sous la licence Gemma, dont les conditions d’utilisation sont similaires à celles de la licence Apache 2.0, mais sont régies par la politique d’utilisation interdite de Gemma.
GLM est une famille de LLM de Z.ai (également appelée Zhipu AI), basée à Pékin, qui vise des performances de pointe. La société a réalisé une percée avec le modèle GLM-4.5 qui, lors de sa sortie initiale fin juillet 2025, rivalisait ostensiblement avec les meilleurs modèles ouverts mondiaux, y compris les modèles phares de DeepSeek et Qwen.
IBM Granite est une série de modules LLM open source optimisés pour les cas d’utilisation en entreprise, axés principalement sur des modèles petits, pratiques et efficaces. Lancé pour la première fois en septembre 2023, le Granite s’est fait connaître dès la sortie de Granite 3.0 en octobre 2024, qui a permis à la série Granite d’atteindre des performances rivalisant avec celles des principaux modèles ouverts de taille comparable.
Granite 4, lancé en octobre 2025, a introduit une nouvelle architecture hybride Mamba2-Transformer pour une vitesse et une efficacité mémoire supérieures, notamment sous d’importants workloads, par rapport aux modèles de transformeurs conventionnels.
Tous les modèles Granite sont distribués en open source sous une licence Apache 2.0 standard et entraînés sur des données sécurisées pour les entreprises. En octobre 2025, la série Granite est devenue la première grande famille de modèles ouverts à recevoir la certification ISO-42001.
GPT-OSS sont les modèles de langage open-weight d’OpenAI, publiés en août 2025 sous une licence standard Apache 2.0. Il s’agit des premiers LLM ouverts de l’entreprise depuis la sortie de GPT-2 en 2019.
Les deux modèles GPT-OSS ont été entraînés avec une quantification 4 bits de leur pondération de modèle, augmentant significativement leur vitesse et réduisant leurs besoins en mémoire par rapport à ceux des modèles conventionnels de taille similaire.
Kimi est une série de modèles ouverts développés par Moonshot AI, une société basée à Pékin.
Les modèles Kimi sont publiés sous une licence MIT modifiée, obligeant les utilisateurs à « afficher de manière visible Kimi K2 » sur l’interface utilisateur de tout produit comptant plus de 100 millions d’utilisateurs mensuels actifs ou un chiffre d’affaires mensuel de plus de 20 millions de dollars.
Les modèles Llama de Meta (à l’origine appelés LLaMA, abréviation de « Large Language model Meta AI), ont été une partie intégrante de l’histoire des LLM ouverts. Les premières versions de Llama contribuent à démocratiser les méthodologies LLM, en informant et en influençant fortement de nombreuses conventions standard de développement LLM, de la formation à l’architecture et aux variations de dimensionnement.
Bien que Meta utilise souvent le terme « open source », les modèles Llama sont publiés sous une licence Llama personnalisée qui impose des contraintes d’utilisation, d’attribution et d’accès. L’Open Source Initiative a donc critiqué l’utilisation du terme par Meta.
Le groupe MiniMax, basé à Shanghai, a lancé son premier LLM éponyme, le MiniMax-Text-01, et un VLM compagnon, le MiniMax-VL-01, en janvier 2025. Depuis, il s’est imposé comme l’un des premiers développeurs de LLM en Chine, privilégiant les modèles à grande échelle et les longues fenêtres contextuelles.
Les modèles MiniMax sont proposés sous une licence MIT modifiée.
Outre ses offres à source fermée, Mistral AI propose une variété de modèles ouverts très appréciés. La plupart (mais pas la totalité) des modèles ouverts de Mistral sont publiés sous la licence standard Apache 2.0.
Les gammes LLM ouvertes du fabricant de matériel de premier plan NVIDIA sont reconnues pour leurs performances, leur documentation de recherche et leurs innovations architecturales.
Olmo, développé par l’Allen Institute for AI (« Ai2 »), fait partie des modèles open source les plus « ouverts » : Ai2 publie généralement tout le code, les pondérations, les points de contrôle d’entraînement et les ensembles de données associés en même temps qu’une version standard d’Apache 2.0.
Phi est la ligne de modèles ouverts de Microsoft, historiquement axée sur les petits modèles. Ils sont distribués sous licence MIT standard.
La série de LLM Qwen, développée par Alibaba, est devenue l’un des modèles ouverts les plus populaires du secteur. La famille de modèles offre une grande variété de tailles de modèles, d’architectures et de capacités destinées à répondre aux besoins des développeurs.
Accélérez la livraison de logiciels grâce à Bob, votre partenaire IA pour un développement sécurisé et sensible aux intentions.
Concevez facilement des assistants et des agents IA évolutifs, automatisez les tâches répétitives et simplifiez les processus complexes avec IBM watsonx Orchestrate.
Mettez l’IA au service de votre entreprise grâce à l’expertise de pointe d’IBM en matière d’IA et à son portefeuille de solutions.
1. « Elon Musk reins in Grok AI bot to stop election misinformation », The Register, 28 août 2024
2. « Musk’s xAI chatbot Grok keeps randomly responding about ‘white genocide’ in South Africa », CNBC, 14 mai 2025
3. « Elon Musk’s AI chatbot, Grok, started calling itself ‘MechaHitler’ », NPR, 9 juillet 2025
4. Tweet de @MarioNawfal, X (anciennement Twitter), 18 février 2025
5. « GPT-5.4 pro », OpenAI, documents API consultés le 12 mars 2026
6. « Announcing Codestral 25.08 and the Complete Mistral Coding Stack for Enterprise », Mistral AI, 30 juillet 2025
7. Gemma, Google DeepMind, consulté le 12 mars 2026
8. « Alibaba-backed Moonshot releases new Kimi AI model that beats ChatGPT, Claude in coding — and it costs less », CNBC, 14 juillet 2025
9. « 5 Thoughts on Kimi K2 Thinking », Interconnects, 6 novembre 2025
10. Meta Llama : page des modèles (classés par « Les plus téléchargés »), Hugging Face, consultée le 11 mars 2026
11. « MiniMax M2.7: Early Echoes of Self-Evolution », MiniMax, 18 mars 2026
12. « Introducing Mistral 3 », Mistral AI, 2 décembre 2025
13. Mistral AI : page des modèles (classés par « Les plus téléchargés »), Hugging Face, consultée le 11 mars 2026