抽象的な3次元長方形

大規模言語モデル(LLM)のリスト

LLMのリスト

大規模言語モデル(LLM)は、現代の人工知能開発の基盤となっています。単純なチャットボット・アプリケーションから、エージェント・エンジニアリングやAIエージェントによるその他の複雑な自動化ワークフローまで、生成AIの時代を切り拓き、現在を定義しています。その登場は、機械学習の歴史における根本的な転換点を示しています。

テクノロジーが成熟するにつれて、新しいLLMが急増し続けています。主要なAI開発者、新しいスタートアップ企業、定評のある大企業などは、常に新しいモデルをリリースし、改良しています。一方、オープンソース・コミュニティーは、オープンソースのLLMを絶えず微調整し、既存のモデルをカスタム・データ・セットに統合・修正することで、無数のバリエーションを生み出しています。したがって、LLMのリストがすべて網羅的であると期待することは現実的ではなく、たとえ最も「網羅的」なリストであっても、長期間にわたって維持されることはないでしょう。

以下は、現在利用可能な最も有名で実績のあるLLMの一部です。ここでは、注意すべき点をいくつかご紹介します。

  • このリストは、開発者によって積極的にサポートおよび更新されており、少なくとも名目上は競争力のある性能を維持しているモデルを優先しています。これには、GoogleのT5、OpenAIのGPT-3、MetaのLlama 2など、歴史的に影響力のある多くの基盤モデルは除外されており、その一部は引き続き研究目的で使用されています。

実際には、LLMは一般的に、モデル開発者を通じて商用製品としてのみ利用可能なクローズドソースLLMと、無料で自由に利用できるオープンモデルの2つのカテゴリーに分類できます。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

クローズドソースLLM

クローズドソース・モデル、すなわち独自モデルには、モデル開発者のプラットフォーム、そのモデルがライセンス供与されている他のプラットフォーム、またはモデル提供者の独自APIを通じてのみ、直接アクセスできます。

クローズドモデルの開発者は一般的に、その技術的な詳細を企業秘密として厳重に扱っているため、クローズド・モデルのサイズ、ニューラル・ネットワーク・アーキテクチャー、トレーニング・プロセスなどの詳細を確実に知ることは通常不可能です。例えば、クローズド・モデルの推論速度、GPUメモリの使用量、ベンチマークの性能を、詳細が公開されているオープン・モデルと比較することで推測できることもありますが、確認できることはほとんどありません。

少なくとも2022年頃以降、どの時点においても最先端のフロンティア・モデルのほとんどはクローズド・モデルでしたが、これは主にクローズド・モデルがオープン・モデルより本質的に優位であるわけではなく、業界の現実世界の歴史的状況を反映したものにすぎません。以下は、最も注目すべきクローズド・モデル・シリーズの一部を、アルファベット順に並べたものです。

Claude(Anthropic)

Anthropic社のClaude言語モデルは、世界で最も高性能なモデルの一つです。Anthropicは、元OpenAI社員によって2021年にAIの安全研究ラボとして設立され、モデル開発のアプローチは独自のコンスティテューショナルAIのコンセプトに基づいていますClaudeの「憲法」は、Anthropic社の従業員の行動を規定するだけでなく、Claudeモデル自体の行動(および合成トレーニング・データの作成)を規定する文書でもあります。

Claude 3以降、Claudeシリーズの歴代モデルは、3つの異なるサイズのマルチモーダル・モデルを搭載してきました。

  • Claude HaikuはAnthropic社の最小モデルで、速度とコスト効率を最適化しています。SonnetやOpusとは異なり、Haikuモデルは推論モデルではありません。明示的にプロンプトされない限り、Haikuモデルは思考の連鎖(CoT)の推論の痕跡をアウトプットしません。
  • Claude Sonnetは、Anthropic社の中規模モデルであり、Anthropic社がほとんどのユースケースにおいて性能と効率の最適なトレードオフを実現することを目的としています。SonnetとOpusはどちらもハイブリッド推論モデルであり、複雑な多段階問題解決のために、標準的な推論と適応型CoT推論のどちらかを実行するように構成できます。
  • Claude Opusは、Anthropic社の最大かつ最も強力なモデルであり、困難なタスク全体で最先端の性能を実現することを目的としています。

Claude Haiku、Sonnet、Opusは、すべてテキスト、音声、画像のインプットを処理し、テキストまたは音声(Text to Speech)をアウトプットできます。歴史的に、ほとんどのクローズド・モデルの競合他社とは異なり、つまり他社(と他社が搭載するClaudeプラットフォーム)は画像生成ができませんでしたが、2026年3月12日現在、Claudeは画像生成が可能になりました。Claude APIを通じてモデルにアクセスする際、ユーザーはSonnetやOpusの推論プロセスの「努力レベル」を「最大」「高」「中」「低」または「適応型」のいずれかに設定できます。

Gemini(Google)

Geminiは、Googleの子会社であるGoogle DeepMindが開発し、2023年12月に初めて公開された、Googleのクローズド言語モデル・シリーズです。注目すべきは、Google Brain(2023年にDeepMindと合併してGoogle DeepMindとなりました)が、最初のLLMを可能にしたトランスフォーマー・モデル アーキテクチャーの創出に関わっており、2017年に画期的な研究論文「Attention is All You Need」を発表していることです。

2025年初頭以来、Googleは3つの異なるサイズを持つ各世代のGeminiモデルをリリースしてきましたが、すべてが推論モデルです。Gemini APIを通じてアクセスすると、ユーザーは複数の「思考レベル」から1つを選択して、モデルが最終アウトプットを生成するまでに費やすトークン数や時間をカスタマイズできます。

  • Gemini Proモデルは、Googleが開発した最大規模かつ最先端のLLMです。

  • Gemini Flashモデルは、Gemini Proと比較して、速度が最適化されています。

  • Gemini Flash-Liteモデルは、翻訳やエージェント・ツールの使用などの大量のタスク向けに最適化された、高速でコスト効率の高いモデルです。

Gemini Pro、Flash、およびFlash-Liteモデルはネイティブのマルチモーダル・モデルであり、テキスト、オーディオ、画像、動画のインプットを処理し、アウトプットとしてテキストを生成できます。Geminiプラットフォームを通じてアクセスすると、画像生成、動画生成、音楽生成に特化したGeminiの個別の特化型モデルを通じて、マルチモーダル・アウトプットを生成できます。

2025年3月にGemini 2.5 Proがリリースされ、ほとんどの教育機関向けベンチマークで業界最高のパフォーマンスを達成して以来、Geminiモデルは、世界で最もパフォーマンスの高いLLMとして、ClaudeおよびOpenAIのGPTシリーズと競い合ってきました。一般的に、これら3つのシリーズのいずれかの新しいフロンティアモデルがリリースされるたびに、「トップ」モデルの地位は入れ替わります。

Grok(xAI)

GrokはxAI社が開発した独自のLLMファミリーで、2023年11月にX(旧Twitter)のチャットボットとしてベータ・プレビュー版で初めてリリースされました。2025年4月、xAI社は当時最新の主力モデルであったGrok 3のAPIアクセスを開始しました。

Grokのモデル・ラインナップは、世代を超えて継続的に変化しています。

  • Grok 2には、モデル・ファミリー初のサイズ・ベースのバリエーションであるGrok 2 Miniが付属していました。2025年2月のGrok 3でも、同じ慣例が繰り返されました。

  • 2025年7月、Grokの第4世代となるGrok 4Grok 4 Heavyが発売されました。2025年秋には、Grok 4 Fast、さらにGrok 4.1(指向型構成と非思考型構成の両方が利用可能)がリリースされました。

  • 2025年8月、xAI社はエージェント・コーディング用に最適化された効率重視モデルであるGrok Code Fast 1をリリースしました。

Grok 4の時点で、Grokモデルはテキスト、画像、音声インプットを処理できます。Grok LLMはマルチモーダル・アウトプットを提供できませんが、xAI社のAuroraモデルではGrok Imagineプラットフォームを通じて、画像や動画のアウトプットを生成できます。

その実際の性能とは関係なく、Grokの歴史(特にGrokチャットボットの歴史)の多くは、選挙の誤情報を拡散したり、無関係な会話に偏りのある視点を挿入したり、有害なステレオタイプを永続させたりするなどして非難されるなど、物議を醸してきました。

オープンソース・リリース

xAI社のCEOであるイーロン・マスク氏は声明の中で、「私たちの基本的な方針は、次のバージョンが完全にリリースされた時点で、前バージョンをオープンソース化することだ」と述べています。1

xAI社は2024年3月に、Grok 1をApache 2.0ライセンスの下でオープンソース化しました。Grok 3は2025年2月にリリースされましたが、Grokモデルの次のオープンソース・リリースは2025年8月になってからでした。紛らわしいことに、xAI社(とマスク氏)は、「Grok 2.5」2をオープンソース化したと発表しましたが、その発表以前には、そのようなモデルは名前も発表されてもいませんでした。モデル独自のハギング・フェイスのモデル・カードでは、このモデルを「Grok-2」とさえ呼んでいます。

2025年8月の発表で、マスク氏はGrok 3も「約6カ月」以内にオープンソース化されると述べました。8カ月後の時点で、オープンソースのリリース日はまだ発表されていません。

GPT(OpenAI)

OpenAIのGPTシリーズ(Generative Pretrained Transformerの略)は、特に2022年にChatGPTがGPT-3.5モデルでローンチされて以来、現在の生成AI時代を切り開いたと広く評価されています。

OpenAIのモデル命名規則およびバリアント規則は、2022年以降、大幅に変更されており、多くの場合混乱を招くものとなっています。たとえば、GPT-4.1はGPT-4.5以降にリリースされ、o4推論モデルはマルチモーダル非推論モデルGPT-4oと同時に利用可能になりました。これは、「o3」よりも性能が劣っていた「o4」推論モデルとはまったく異なります。2025年初頭、OpenAI社のCEOであるSam Altman氏は「自社のモデルと製品提供がかなり複雑になったことを実感している」と述べています。

2025年8月のGPT-5のリリース以来、同社の統合LLMサービスは以下のとおりです。

  • GPT-5.xは、OpenAIの主力汎用製品です。2026年3月時点で、最新モデルのバージョンはGPT-5.4です。GPT-5のモデルはすべて推論モデルですが、GPT-5.4には、「より多くのコンピューティングを使用して、より深く考察し、一貫して優れた答えを提供する」GPT-5.4 Proバリアントもあります。3OpenAIは、最適なエージェント・コード生成のために微調整されたGPT-5のバージョンであるGPT-5 Codexも提供しています(コア・モデルの更新バージョンに伴い定期的に更新されます)。
  • OpenAIのモデル概要によると、GPT-5 miniは「コスト重視で低遅延、大量のワークロード向けの最先端インテリジェンス」を提供します。
  • GPT-5 nanoは「GPT-5の最速で、最もコスト効率の高いバージョン」です。

OpenAIは、この記事の「オープン・モデル」セクションで詳しく説明されている2つのオープン・ウェイトGPTモデルもリリースしています。

Mistral AI

Mistral AI社は、Meta AI社とGoogle DeepMind社の元従業員によって設立されたフランスを拠点とする企業で、2023年9月に最初のモデル(Mistral 7B)を発表した際、当初はオープンソース・モデルに特化していました。それ以来、Mistral社は混合モデルに移行し、多くの製品でオープンソース版を提供している一方、一部の最先端モデルはクローズドソースのままとなっています。

2026年3月時点で、Mistral AIの主力の独自LLMには次のものが含まれます。

  • Mistral Medium 3.1は、2025年8月にリリースされた汎用マルチモーダル・モデルです。

  • Codestralは、「高精度のFIM(Fill-in-the-middle)補完に特化して構築された」コーディング特化型モデルです。4

  • Magistral Media 1.2は、Mistral Mediumの推論モデルです。

Mistralのオープン・ウェイト・モデル製品については、この記事の後半で詳しく説明します。

AI Academy

基盤モデルがAIのパラダイム・シフトとなる理由

新たな収入源の獲得、コスト削減、生産性の向上を実現する、柔軟で再利用可能な新しいAIモデルについて学びます。その後、ガイドブックを使ってさらに理解を深めてください。

オープンソースLLM

機械学習では、オープンソースは、ソースコードが無償で公開されているAIツールを指す言葉として口語的に使われることがよくありますが、この用語は実際にはオープンソース・イニシアチブ(OSI)によって管理されている正式な呼称です。OSIは、そのライセンスが公式のオープンソース定義(OSD)に記載された10の要件を満たしていると判断した場合に限り、そのソフトウェアライセンスを「オープンソース・イニシアチブ認定」として認証します。

ほとんどの「オープンソース」モデルは、これらすべての要件を満たしているわけではありません。そうであるならば、オープンモデル(またはオープン・ウエイト・モデル)という用語は、より正確には、自由に配布されるあらゆるLLMを指します。オープン・モデルの範囲内には、大きなばらつきがあります。オープン・ウェイト(ただしオープンソースではない)モデルは推論の実行に使用でき、微調整も可能です。ただし、完全なソースコードが提供されていない場合、微調整によるウェイトの値の変更以外の修正はできません。そのライセンスにより、一部のシナリオ(商用環境など)でのモデルの使用が禁止されたり、アプリケーションにその他の特定の規定が課されたりする場合があります。

逆に、トレーニング・コードとその手順の説明とともにリリースされた真のオープンソース・モデルは、自由に変更でき、無制限に使用できます。最も一般的で標準化されたオープンソース・ライセンスは、Apache 2.0ライセンスとMITライセンスです。しかし、オープンソースのモデル開発者がそのトレーニング・データの詳細を提供しない限り、そのモデル自体は完全に再現可能ではないことは注目に値します。

オープンソース・リリースは、LLMの継続的な開発と改善に不可欠であり、そもそもLLMの発明を可能にする大きな責任を負っています。オープンモデルは通常、モデル開発者を通じて、またはGitHubやHugging Faceなどの人気のあるオープンソース・プラットフォームを通じてアクセスできます。以下は、注目すべきオープン・モデル・シリーズのリストで、アルファベット順に記載されています。

Cohere社

「Attention is All You Need」の著者の1人が創業者であるCohere社は、カナダを拠点とする企業で、2019年に設立されました。同社は各LLMの詳細な技術レポートを公開し、表向きはオープン・ウエイト・モデルとしてリリースしていますが、Cohere社は商用利用を禁止するクリエイティブ・コモンズ4.0ライセンスの修正版に基づいてオープン・リリースをライセンスしています。

コマンド

Commandは、エンタープライズ・ユースケース向けに設計されたCohere社の主力基盤モデル・シリーズです。

  • Command Rは、2024年3月にリリースされたCohere社のエンタープライズ・モデルの第1世代であり、RAGとツールの使用に重点を置いた350億パラメーターのモデルを備えていました。その翌月には、104BのバリエーションであるCommand R+がリリースされました。その後、同年12月に小型のCommand R7Bが加わりました。

  • Cohere社の第2世代のエンタープライズ・モデルであるCommand Aは、ビジネス、STEM、コーディングの各タスクに重点を置いて2025年3月にリリースされました。オリジナルの111Bモデルは最終的に、Command A ReasoningCommand A Translate(23の言語にわたる翻訳パフォーマンスを最適化するように微調整)、LLMとビジョン・エンコーダーを組み合わせたビジョン言語モデル(VLM)であるCommand A Visionなどのバリエーションでリリースされました。

2026年3月のRedditのコメントで、Cohere社のCEOであるAidan Gomez氏は、同社が次世代のCommandを積極的に開発しており、それが組織初の混合専門家(MoE)モデルになることを示唆しました。

Aya

Ayaは、Cohere社の多言語対応に特化したモデル・シリーズで、2024年2月にAya 101として初めて発売されました。名前の通り「101言語の指示に従うことができる」という特徴がありました。

  • Aya Visionはマルチモーダルの多言語VLMで、8ビット版と32ビット版のバリエーションがあり、23の異なる言語に対応しています。

  • 2026年2月発売のTiny Aya、は33.5億個のパラメータを持つ軽量多言語モデル・シリーズです。Tiny Abe-Baseは、70以上の言語をサポートする事前トレーニング済みモデルです。TinyAya-Globalは、その指導内容に特化したバージョンで、67言語に対応しています。

  • Tiny Ayaのリリースには、特殊な地域限定のバリエーションも含まれていました。TinyAya-Earthはアフリカおよび西アジアの言語に最適化されています。TinyAya-Fireは南アジアの言語に最適化されています。TinyAya-Waterは、アジア太平洋地域とヨーロッパの言語に最適化されています。

DeepSeek

DeepSeekはオープンソース・エコシステムの重要なプレーヤーであり、LLMアーキテクチャーやトレーニング・プロセスに多くの革新をもたらしています。時として、同社のモデルの性能はトップのクローズド・モデルに匹敵するほどでした。同社のLLM(重み付けとコードの両方)は、標準のMITライセンスの下でオープンソース化されています。また、DeepSeek社は調査結果や手法の詳細を記載した技術論文も頻繁に発表しています。

  • DeepSeek-V3は、合計671Bのパラメーター(および推論中の37Bのアクティブ・パラメーター)を備えた大規模なMoEモデルであり、2024年後半に初めてリリースされました。このモデルは、多くの場合、Mixture of Experts(混合専門家)アーキテクチャーを再び主流の注目度に戻したことで評価されています。

  • DeepSeek-R1は、当時としては斬新な強化学習技術を用いてDeepSeek-V3を微調整することで構築された推論モデルです。DeepSeek-R1は、オープンソースLLMの歴史において画期的な製品でした。これは、これまでOpenAIが提供できなかったo1モデルの性能に匹敵するだけでなく、DeepSeekのトレーニング方法の詳細を記載した技術文書も提供しました。このリリースは、第一世代のオープン推論モデルに直接的なインスピレーションを与えました。

  • 2025年8月にリリースされたDeepSeek-V3.1は、標準的な推論とCoT推論の両方を実行するように構成されたハイブリッド推論モデルです。本質的には、DeepSeek-V3とDeepSeek-R1を1つのモデルに統合したものです。最近では、2025年10月にDeepSeek-V3.2として更新されました。DeepSeek-V3.1とDeepSeek-V3.2の両方は、元のモデルの671B-37B MoEアーキテクチャーを維持します。

  • DeepSeekはまた、知識蒸留によってDeepSeek-R1をエミュレートするために、より小型のQwenとLlamaモデルを微調整して作成された「DeepSeek-R1-Distill」モデルもいくつかリリースしました。

DeepSeek-V4(または「DeepSeek-R2」)の発売が間近に迫っているという噂は定期的に流れているものの、それらのリリースはまだ実現していません。

Falcon(TII)

FalconシリーズのLLMは、アラブ首長国連邦のテクノロジー・イノベーション研究所(TTI)によって開発されました。2023年のTIIの第1世代モデルは、当時入手可能な最大のオープンソースモデルの1つであったFalcon-180Bがおそらく最も注目されたものでしたが、TIIはその後、より小型のモデルに注力するようになりました。Falcon2には11Bのパラメーターがあり、TII初のマルチモーダル・モデル(2024年12月にリリース)であるFalcon3は1B~10Bの範囲でした。

最新世代のFalconモデルは、ハイブリッドのMamba-Transformerモデルに重点を置いています。

  • 2025年5月にリリースされたFalcon-H1は、0.5B、1.5B、3B、7B、34Bのバリアントで事前トレーニング済みおよび命令チューニングされたハイブリッド・モデルで構成されています。2026年1月にリリースされたFalcon-H1Rは、Falcon-H1-7Bの推論バージョンです。

  • Falcon-H1-Tinyは、その名のとおり、Falcon-H1の非常に小さなバリエーションで、パラメーターのサイズは90M、100M、0.6Bです。各サイズはベース・モデルとして提供されており、特定の用途に合わせて微調整された特殊なバリエーションもあります。

  • Falcon-Edgeモデルは、1Bおよび3Bサイズの実験的な1ビット(「BitNet」)LLMのファミリーです。

Falconモデルは、Apache 2.0フレームワークに触発され、注目すべき規定と制約を追加した独自のFalconライセンスの下でリリースされています。

Gemma(Google)

Gemmaは、Googleのオープン・モデル・ファミリーです。Googleによると、Gemmaモデルは「(同社の)Geminiモデルを強化するのと同じテクノロジーから構築」されています。7

  • 2025年3月にリリースされたGemma 3は、GemmaのコアLLMの最新世代です。Gemmaの最初のリリースには、1B、4B、12B、27Bのサイズの事前トレーニング済みバリアントと命令チューニング済みバリアントの両方が含まれていました。2025年8月、Googleは2億7000万個のパラメーターを備えた小規模なバリエーションを追加しました。Gemma 3モデルはテキストまたは画像のインプットを処理し、140以上の多言語サポートを提供します。
  • 2025年7月に発売されたGemma 3nは、実験的なMatForformorアーキテクチャーを採用しており、基本的には任意の多数の小型カスタム・サイズ・モデルを1つの大きなモデル内に「入れ子」にすることができます。このアーキテクチャーはロシアの入れ子人形(「マトリョーシカ」とも呼ばれる)にちなんで名付けられました。そのため、「マットフォーマー」と呼ばれています。Gemma 3nは、2Bおよび4Bのパラメーター・サイズで提供され、テキスト、画像、動画、または音声インプット(アウトプットはテキストのみ)をサポートしています。

  • FunctionGemmaは、ツールでの使用(または「関数呼び出し」、そのためこの名前が付けられています)に最適化されたGemma 3 270Mの派生版です。

GemmaモデルはGemmaライセンスの下でリリースされており、その使用条件はApache 2.0ライセンスに似ていますが、Gemma禁止使用ポリシーによって規制されています。

GLM(Z.ai)

GLMは、北京を拠点とするZ.ai(Zhipu AIとも呼ばれる)のLLMファミリーで、最先端の性能を目指しています。同社はGLM-4.5で画期的な進歩を遂げました。これは2025年7月下旬の最初のリリース当時、教育機関向けベンチマーク全体で、DeepSeekやQwenの主力モデルを含む世界トップクラスのオープン・モデルに匹敵するものでした。

  • GLM-4.5には2つのモデルサイズがあり、フラッグシップ・モデルのLLMは、総パラメーター355B(アクティブ・パラメーター32B)の大規模MoEモデル、そして、より小型のGLM-4.5-Air(合計パラメーター106B、アクティブ・パラメーター12B)も提供されました。GLM-4.5Vは、コンピューター・ビジョンと映像理解機能を追加するGLM-4.5-Air基盤モデルをベースに開発されています。

  • 2025年9月30日にリリースされたGLM-4.5の更新版であるGLM-4.6には、より小さなテキストのみのバリエーションは含まれていませんでした。しかし、同社は12月初旬にGLM-4.5Vのアップデート版であるGLM-4.6Vと、9Bの高密度モデルであるGLM-4.6V-Flashを発表しました。

  • 2025年12月下旬にリリースされた、主力テキスト専用モデルのアップデート版であるGLM-4.7では、合計パラメーター数がわずか30B(アクティブ・パラメーターは3B)という、大幅に小型化されたLLMであるGLM-4.7-Flashが追加されました。

  • 2026年2月にリリースされたGLM-5は、総パラメーター数が744B(アクティブ・パラメーター40B)と、前作よりも大幅に大きくなっています。

Granite(IBM)

IBM Graniteは、企業のユースケース向けに最適化されたオープンソースLLMシリーズで、主に小規模で実用的、効率的なモデルに重点を置いています。Graniteは2023年9月に発売されてから、2024年10月にGranite 3.0がリリースされて、同等規模の主要オープン・モデルに匹敵する性能を発揮しました。

2025年10月に発売されたGranite 4は、従来のトランスフォーマー・モデルと比較して、特に大規模なワークロードにおいて優れた速度とメモリ効率を実現する新しいハイブリッドMamba2-Transformerアーキテクチャーを導入しました。

  • Granite 4-H Smallは、合計32Bのパラメーター(アクティブは9B)のハイブリッド型MoEモデルです。Granite 4には、合計7Bのパラメーター(アクティブは1B)の別のハイブリッドMoEであるGranite 4-H Tinyと、アクティブ・パラメーター3Bの高密度ハイブリッド・モデルであるGranite 4-H Microも含まれています。

  • Granite 4 Microは、4-Hモデルとは異なり、従来のTransformerモデル・アーキテクチャー上に構築された3B高密度モデルです。

  • Granite 4 Nanoは、350Mパラメーターから1Bパラメーターまでのサイズの、Mambaトランスと従来のトランスのハイブリッド・モデルのシリーズです。

  • Granite 4 1B-Speechは、自動音声認識(ASR)と双方向自動音声翻訳(AST)のために設計されたSpeech to Textモデルです。

すべてのGraniteモデルは、標準のApache 2.0ライセンスの下でオープンソース化されており、エンタープライズ向けの安全なデータに基づいてトレーニングされています。2025年10月、GraniteシリーズはISO-42001認証を取得した最初の主要オープン・モデル・ファミリーとなりました。

GPT-OSS(OpenAI)

GPT-OSSはOpenAIのオープン・ウェイト言語モデルで、2025年8月に標準のApache 2.0ライセンスの下でリリースされました。2019年のGPT-2リリース以来、同社にとって初のオープンLLMです。

  • GPT-OSS-120Bは、合計117Bのパラメーター(アクティブ5.1B)のMoEモデルで、汎用用途および高レベルの推論のメリットを受けるタスク向けに設計されています。

  • GPT-OSS-20BはMoEモデルで、21Bのパラメーター(アクティブ3.6B)を持ち、低レイテンシーでの使用とローカル展開を目的としています。

どちらのGPT-OSSモデルも、モデルの重みを4ビット量子化してトレーニングされており、同等サイズの従来モデルと比較して速度が大幅に向上し、メモリ要件が削減されています。

Kimi(Moonshot AI)

Kimiは北京に拠点を置くMoonshot AIが開発したオープンモデルのシリーズです。

  • Kimi-K2は、合計1兆のパラメーター(アクティブ32B)を持つテキストのみの大規模なMoEモデルです。2025年7月にリリースされた際、主要なコーディング・ベンチマークでGPT-4.1およびClaude Opus 4モデルに匹敵する(場合によっては上回った)として、大きな注目を集めました。8

  • Kimi-K2の推論モデルのバリアントであるKimi-K2 Thinkingも同様に、挑戦的なエージェント型AIベンチマーク全体で、トップクラスのクローズド・モデルに再び匹敵するとして波紋を引き起こしました。9

  • Kimi-K2.5は、マルチモーダル・ビジョン機能を追加するKim-K2の更新版です。複数の「モード」で運用でき、それぞれが特定のユースケースに最適化されています。

Kimiモデルは変更されたMITライセンスの下でリリースされ、月間アクティブ・ユーザー数が1億人を超えるか、月間収益が2,000万米ドルを超える製品の「ユーザー・インターフェースに『Kim K2』を目立たせること」をユーザーに義務付けています。

Llama(Meta)

MetaのLlamaモデル(当初はLLaMAと表記され、「Large Language modelMeta AI」の略)は、オープンなLLMの歴史に欠かせないものでした。Llamaの初期リリースは、LLM方法論の民主化に役立ち、トレーニングからアーキテクチャー、サイズ・バリエーションに至るまで、LLM開発の多くの標準的な慣行に情報を提供し、大きな影響を与えました。

  • 2023年7月に発売されたLlama 2は、7B、13B、70Bのサイズで発売されました。

  • 2024年4月に8Bと70BのサイズでリリースされたLlama 3は、教育機関向けベンチマーク全体で多くの主要なクローズド・モデルと競合しました。Llama 3.1はモデルのコンテキスト長を大幅に延長し、同年7月に当時としては前例のない規模の405Bバリアントを追加しました。Llama 3.2には小型のバリエーションとビジョン機能が追加され、Llama 3.3にはLlama 3.1の405Bに匹敵する性能を持つ70Bモデルが1つ追加されました。

  • Llama 4は、2つの大型マルチモーダルMoEモデルでリリースされました。合計パラメーター400B(アクティブ400B)のLlama4 Maverickと、合計パラメーター109B(アクティブ19B)のLlama 4 Scoutです。性能は、ほとんどのベンチマークで以前のLlama世代を大幅に上回っていましたが、Llama 3モデルは依然としてMetaで最も人気のあるLLMです(Hugging Faceのダウンロード数からもわかります)。10

Meta社は「オープンソース」という用語をよく使用しますが、LlamaモデルはカスタムLlamaライセンスの下でリリースされ、使用、帰属、アクセスに制約があります。そのため、オープンソース・イニシアチブは、Metaのこの用語の使用を批判しています。

Minimax

上海を拠点とするMiniMax Groupは、2025年1月に、初となるLLMであるMiniMax-Text-01と、付属するVLMであるMiniMax-VL-01をリリースしました。それ以来、彼らは中国で主要なLLM開発者の1社として有名になり、大規模モデルと長いコンテキスト・ウィンドウを優先してきました。

  • 2025年6月にリリースされたMiniMax-M1は、MiniMax-Text-01を微調整してから構築されたテキストのみの推論モデルです。前作同様、これは456Bの総パラメータと459億のトークンあたりの有効パラメータを持つ大規模なMoEモデルです。
  • MiniMax-M2は、M1と比べて優れた性能と効率を提供します。合計230Bのパラメーターと、トークンあたり10Bのパラメーターのみを有効にするよりきめ細かなMoEアーキテクチャーがあります。2025年10月に発売され、2カ月後にMiniMax-M2.1としてアップデートされました。MiniMaxには、キャラクター・ベースのロールプレイ用に微調整されたMiniMax-M2-herもあります。

  • MiniMax-M2.5およびMiniMax-M2.5-ライトニングは、2026年2月にリリースされ、一部のコーディング・ベンチマークではClaude Opus 4.5に匹敵するさらなる性能最適化を実現します。これらは、速度とスループットを除いてすべての点で同一です。「Lightning」バージョンは2倍の速度でアウトプットを生成します。

  • 2026年3月にリリースされたMiniMax-M2.7は、MiniMax-M2.5のアップデート版であり、同社によれば、自社の業績向上に貢献したといいます。11

MiniMaxモデルは修正されたMITライセンスの下で提供されています。

Mistral AI

Mistral AIは、クローズドソースの製品に加えて、評判の高いさまざまなオープン・モデルを提供しています。Mistralのオープン・モデルのほとんど(すべてではありません)は、標準Apache 2.0ライセンスの下でリリースされています。

  • Mistral Large 3は、DeepSeek-V3にインスパイアされたMoEアーキテクチャーを採用し、総パラメーターは675B(アクティブ41B)です。ベンチマーク性能はDeepSeek-V3.1やKimi-K2.1とほぼ同等です。122025年12月にリリースされ、多言語対応かつマルチモーダルで、テキストと画像の両方のインプットを処理できます。

  • Ministral 3はMistralの小型モデル・シリーズで、3B、8B、14Bサイズと、ベース、命令チューニング、推論のバリアントで提供されます。

  • Mistral Small 3.2は、2025年6月にリリースされた24B LLMです。その性能は、比較的最近のMinistral 3 14Bに匹敵します。

  • Devstralは、Mistralのエージェント・エンジニアリングに重点を置いたモデル・シリーズです。2025年12月に発売されたDevstral 2は、2つのモデルで構成されています。Devstral 2 123Bは、修正版MITライセンスの下でリリースされており、月間収益が2,000万米ドルを超える組織はMistralから商用ライセンスを申請する必要があります。Devstral Small 2 24Bは、標準のApache 2.0ライセンスでリリースされています。

  • 2023年12月にリリースされたMixtralは、もともと言語モデルの混合専門家アーキテクチャーを普及させたLLMです。2026年初頭の時点で、その8x7BのバリエーションはHugging Faceで非常に人気があり、月間70万ダウンロードを超えています。13

Nemotron(NVIDIA)

大手ハードウェア・メーカーであるNVIDIAのオープンLLMシリーズは、その性能、研究論文、アーキテクチャー・イノベーションで広く評価されています。

  • NVIDIA-Nemotron-Nano v2は、9Bと12BのサイズのハイブリッドMamba-2-LLMモデルのファミリーで、推論と標準推論の両方が可能です。これらは、法的責任、使用方法、およびNVIDIAが将来的に契約内容を変更する権利に関する重要な条件を含むNVIDIA独自のオープン・モデル・ライセンス契約に基づき、2025年8月にリリースされました。

  • 2025年12月に発売されたNemotron 3 Nanoは、Nemotron-3-Nano-4BNemotron-3-Nano-30B-A3Bの2つのモデルで構成されており、後者は合計30Bのパラメータ(うち3Bはアクティブ)を持つMoEです。これらはNVIDIA Nemotron Open Model Licenseの下でリリースされており、NVIDIAが今後の条件を一方的に更新する権利は除外されています。

  • Nemotron 3 Superは、2026年3月にリリースされた、合計パラメーターが120B(アクティブは12B)の大型MoEです。

Olmo(AllenAI)

Allen Institute for AI(「Ai2」)によって開発されたOlmoは、すべてのオーンソース・モデルの中で最も真に「オープン」なモデルのひとつです。Ai2は通常、標準的なApache 2.0のリリースと同時に、すべてのコード、重み、トレーニング・チェックポイント、関連データ・セットを公開しています。

  • 2025年11月に発売されたOlmo 3は、7Bと32Bサイズの高密度Transformerモデルで構成されています。モデルはベース、インストラクチャー、そして「考察」のバリエーションで発売されています。2025年12月、32BはOlmo 3.1としてアップデートされました。
  • Olmo Hybridは、2026年3月にリリースされた7Bモデルで、Transformerと線形RNNを組み合わせた実験的なハイブリッド・アーキテクチャーを採用しています(Qwenによって普及したGated DeltaNetアーキテクチャーに基づいています)。

Phi(Microsoft)

PhiはMicrosoftのオープン・モデル・ラインであり、これまで小型モデルに重点を置いてきました。これらは標準のMITライセンスでリリースされています。

  • Phi 4は、14BのテキストのみのLLMであり、元々は2024年12月にリリースされました。

  • 2025年2月にリリースされたPhi 4-miniは、より小型の3.8Bモデルです。

  • Phi 4-multimodal、Phi 4-miniとともにリリースされ、テキスト、画像、音声のインプットをサポートします。

  • 2026年3月にリリースされたPhi 4-Reasoning-Visionは、画像、テキスト、ドキュメントにわたる総合的なマルチモーダル推論を追加した15Bモデルです。

Qwen(Alibaba)

Alibaba社が開発したLLMのQwenシリーズは、業界で最も人気のあるオープン・モデルの1つです。モデル・ファミリーは、開発者のさまざまなニーズに合わせて、さまざまなモデル・サイズ、アーキテクチャー、および機能を提供します。

  • Qwen3は、0.6B、1.7B、4B、8B、14B、32Bのサイズのテキストのみの高密度Transformerモデルと、30B-A3BのサイズのMOEとフラッグシップのQwen3-235B-A22Bで構成されています。すべてのQwen3モデルは、ベース型、思考型、指示型のバリアントで提供されています。

  • Qwen3-Nextは80Bパラメータ(アクティブは3B)を持つ実験的なテキストのみのMoEで、標準的なアテンションをGated Delta Networks(Mamba-2に触発されたもの)やGated Attentionに置き換えます。

  • Qwen3-Omniは、Qwen3-30B-A3Bをベースに構築されたネイティブなマルチモーダル・モデルで、テキスト、画像、音声、ビデオのインプットと、テキストまたは音声のアウトプットをサポートしています。

  • Qwen3-Coder-Nextは、Qwen3-Nextをコード生成用に微調整したバージョンです。

  • 2026年2月にリリースされたQwen3.5は、Qwen3-Nextで初めて導入されたアーキテクチャーを利用したマルチモーダル・モデルのファミリーです。これは、0.8B、2B、4B、9B、27Bのサイズのベース推論モデルとハイブリッド推論モデルの両方、および35B-A3B、122B-A10B、および主力製品である397B-A17BのサイズのMoEモデルで構成されています。Qwen3.5-397B-A17Bは、Gemini、GPT、Claudeのトップ・モデルと競争して、フロンティアの性能を目指しています。

執筆者

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

関連ソリューション
IBM Bob

安全で意図を認識した開発を実現するAIパートナーであるBobと連携して、ソフトウェア・デリバリーを加速させましょう。

IBM Bobはこちら
IBM watsonx Orchestrate

IBM watsonx Orchestrateを使用すると、スケーラブルなAIアシスタントとエージェントを簡単に設計し、反復的なタスクを自動化し、複雑なプロセスを簡素化できます。

watsonx Orchestrateの詳細はこちら
人工知能ソリューション

IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。

AIソリューションの詳細はこちら
次のステップ

開発ライフサイクルのどの段階であっても、Bobがサポートします。目的を意識し、セキュリティーに合わせたエージェント型レビューを提供することで、高品質なソフトウェアの実現を加速します。

  1. IBM Bobの詳細
  2. watsonx Orchestrateの詳細はこちら