大規模言語モデル(LLM)は、現代の人工知能開発の基盤となっています。単純なチャットボット・アプリケーションから、エージェント・エンジニアリングやAIエージェントによるその他の複雑な自動化ワークフローまで、生成AIの時代を切り拓き、現在を定義しています。その登場は、機械学習の歴史における根本的な転換点を示しています。
テクノロジーが成熟するにつれて、新しいLLMが急増し続けています。主要なAI開発者、新しいスタートアップ企業、定評のある大企業などは、常に新しいモデルをリリースし、改良しています。一方、オープンソース・コミュニティーは、オープンソースのLLMを絶えず微調整し、既存のモデルをカスタム・データ・セットに統合・修正することで、無数のバリエーションを生み出しています。したがって、LLMのリストがすべて網羅的であると期待することは現実的ではなく、たとえ最も「網羅的」なリストであっても、長期間にわたって維持されることはないでしょう。
以下は、現在利用可能な最も有名で実績のあるLLMの一部です。ここでは、注意すべき点をいくつかご紹介します。
実際には、LLMは一般的に、モデル開発者を通じて商用製品としてのみ利用可能なクローズドソースLLMと、無料で自由に利用できるオープンモデルの2つのカテゴリーに分類できます。
クローズドソース・モデル、すなわち独自モデルには、モデル開発者のプラットフォーム、そのモデルがライセンス供与されている他のプラットフォーム、またはモデル提供者の独自APIを通じてのみ、直接アクセスできます。
クローズドモデルの開発者は一般的に、その技術的な詳細を企業秘密として厳重に扱っているため、クローズド・モデルのサイズ、ニューラル・ネットワーク・アーキテクチャー、トレーニング・プロセスなどの詳細を確実に知ることは通常不可能です。例えば、クローズド・モデルの推論速度、GPUメモリの使用量、ベンチマークの性能を、詳細が公開されているオープン・モデルと比較することで推測できることもありますが、確認できることはほとんどありません。
少なくとも2022年頃以降、どの時点においても最先端のフロンティア・モデルのほとんどはクローズド・モデルでしたが、これは主にクローズド・モデルがオープン・モデルより本質的に優位であるわけではなく、業界の現実世界の歴史的状況を反映したものにすぎません。以下は、最も注目すべきクローズド・モデル・シリーズの一部を、アルファベット順に並べたものです。
Anthropic社のClaude言語モデルは、世界で最も高性能なモデルの一つです。Anthropicは、元OpenAI社員によって2021年にAIの安全研究ラボとして設立され、モデル開発のアプローチは独自のコンスティテューショナルAIのコンセプトに基づいています。Claudeの「憲法」は、Anthropic社の従業員の行動を規定するだけでなく、Claudeモデル自体の行動(および合成トレーニング・データの作成)を規定する文書でもあります。
Claude 3以降、Claudeシリーズの歴代モデルは、3つの異なるサイズのマルチモーダル・モデルを搭載してきました。
Claude Haiku、Sonnet、Opusは、すべてテキスト、音声、画像のインプットを処理し、テキストまたは音声(Text to Speech)をアウトプットできます。歴史的に、ほとんどのクローズド・モデルの競合他社とは異なり、つまり他社(と他社が搭載するClaudeプラットフォーム)は画像生成ができませんでしたが、2026年3月12日現在、Claudeは画像生成が可能になりました。Claude APIを通じてモデルにアクセスする際、ユーザーはSonnetやOpusの推論プロセスの「努力レベル」を「最大」「高」「中」「低」または「適応型」のいずれかに設定できます。
Geminiは、Googleの子会社であるGoogle DeepMindが開発し、2023年12月に初めて公開された、Googleのクローズド言語モデル・シリーズです。注目すべきは、Google Brain(2023年にDeepMindと合併してGoogle DeepMindとなりました)が、最初のLLMを可能にしたトランスフォーマー・モデル アーキテクチャーの創出に関わっており、2017年に画期的な研究論文「Attention is All You Need」を発表していることです。
2025年初頭以来、Googleは3つの異なるサイズを持つ各世代のGeminiモデルをリリースしてきましたが、すべてが推論モデルです。Gemini APIを通じてアクセスすると、ユーザーは複数の「思考レベル」から1つを選択して、モデルが最終アウトプットを生成するまでに費やすトークン数や時間をカスタマイズできます。
Gemini Pro、Flash、およびFlash-Liteモデルはネイティブのマルチモーダル・モデルであり、テキスト、オーディオ、画像、動画のインプットを処理し、アウトプットとしてテキストを生成できます。Geminiプラットフォームを通じてアクセスすると、画像生成、動画生成、音楽生成に特化したGeminiの個別の特化型モデルを通じて、マルチモーダル・アウトプットを生成できます。
2025年3月にGemini 2.5 Proがリリースされ、ほとんどの教育機関向けベンチマークで業界最高のパフォーマンスを達成して以来、Geminiモデルは、世界で最もパフォーマンスの高いLLMとして、ClaudeおよびOpenAIのGPTシリーズと競い合ってきました。一般的に、これら3つのシリーズのいずれかの新しいフロンティアモデルがリリースされるたびに、「トップ」モデルの地位は入れ替わります。
GrokはxAI社が開発した独自のLLMファミリーで、2023年11月にX(旧Twitter)のチャットボットとしてベータ・プレビュー版で初めてリリースされました。2025年4月、xAI社は当時最新の主力モデルであったGrok 3のAPIアクセスを開始しました。
Grokのモデル・ラインナップは、世代を超えて継続的に変化しています。
Grok 4の時点で、Grokモデルはテキスト、画像、音声インプットを処理できます。Grok LLMはマルチモーダル・アウトプットを提供できませんが、xAI社のAuroraモデルではGrok Imagineプラットフォームを通じて、画像や動画のアウトプットを生成できます。
その実際の性能とは関係なく、Grokの歴史(特にGrokチャットボットの歴史)の多くは、選挙の誤情報を拡散したり、無関係な会話に偏りのある視点を挿入したり、有害なステレオタイプを永続させたりするなどして非難されるなど、物議を醸してきました。
xAI社のCEOであるイーロン・マスク氏は声明の中で、「私たちの基本的な方針は、次のバージョンが完全にリリースされた時点で、前バージョンをオープンソース化することだ」と述べています。1
xAI社は2024年3月に、Grok 1をApache 2.0ライセンスの下でオープンソース化しました。Grok 3は2025年2月にリリースされましたが、Grokモデルの次のオープンソース・リリースは2025年8月になってからでした。紛らわしいことに、xAI社(とマスク氏)は、「Grok 2.5」2をオープンソース化したと発表しましたが、その発表以前には、そのようなモデルは名前も発表されてもいませんでした。モデル独自のハギング・フェイスのモデル・カードでは、このモデルを「Grok-2」とさえ呼んでいます。
2025年8月の発表で、マスク氏はGrok 3も「約6カ月」以内にオープンソース化されると述べました。8カ月後の時点で、オープンソースのリリース日はまだ発表されていません。
OpenAIのGPTシリーズ(Generative Pretrained Transformerの略)は、特に2022年にChatGPTがGPT-3.5モデルでローンチされて以来、現在の生成AI時代を切り開いたと広く評価されています。
OpenAIのモデル命名規則およびバリアント規則は、2022年以降、大幅に変更されており、多くの場合混乱を招くものとなっています。たとえば、GPT-4.1はGPT-4.5以降にリリースされ、o4推論モデルはマルチモーダル非推論モデルGPT-4oと同時に利用可能になりました。これは、「o3」よりも性能が劣っていた「o4」推論モデルとはまったく異なります。2025年初頭、OpenAI社のCEOであるSam Altman氏は「自社のモデルと製品提供がかなり複雑になったことを実感している」と述べています。
2025年8月のGPT-5のリリース以来、同社の統合LLMサービスは以下のとおりです。
OpenAIは、この記事の「オープン・モデル」セクションで詳しく説明されている2つのオープン・ウェイトGPTモデルもリリースしています。
Mistral AI社は、Meta AI社とGoogle DeepMind社の元従業員によって設立されたフランスを拠点とする企業で、2023年9月に最初のモデル(Mistral 7B)を発表した際、当初はオープンソース・モデルに特化していました。それ以来、Mistral社は混合モデルに移行し、多くの製品でオープンソース版を提供している一方、一部の最先端モデルはクローズドソースのままとなっています。
2026年3月時点で、Mistral AIの主力の独自LLMには次のものが含まれます。
Mistralのオープン・ウェイト・モデル製品については、この記事の後半で詳しく説明します。
機械学習では、オープンソースは、ソースコードが無償で公開されているAIツールを指す言葉として口語的に使われることがよくありますが、この用語は実際にはオープンソース・イニシアチブ(OSI)によって管理されている正式な呼称です。OSIは、そのライセンスが公式のオープンソース定義(OSD)に記載された10の要件を満たしていると判断した場合に限り、そのソフトウェアライセンスを「オープンソース・イニシアチブ認定」として認証します。
ほとんどの「オープンソース」モデルは、これらすべての要件を満たしているわけではありません。そうであるならば、オープンモデル(またはオープン・ウエイト・モデル)という用語は、より正確には、自由に配布されるあらゆるLLMを指します。オープン・モデルの範囲内には、大きなばらつきがあります。オープン・ウェイト(ただしオープンソースではない)モデルは推論の実行に使用でき、微調整も可能です。ただし、完全なソースコードが提供されていない場合、微調整によるウェイトの値の変更以外の修正はできません。そのライセンスにより、一部のシナリオ(商用環境など)でのモデルの使用が禁止されたり、アプリケーションにその他の特定の規定が課されたりする場合があります。
逆に、トレーニング・コードとその手順の説明とともにリリースされた真のオープンソース・モデルは、自由に変更でき、無制限に使用できます。最も一般的で標準化されたオープンソース・ライセンスは、Apache 2.0ライセンスとMITライセンスです。しかし、オープンソースのモデル開発者がそのトレーニング・データの詳細を提供しない限り、そのモデル自体は完全に再現可能ではないことは注目に値します。
オープンソース・リリースは、LLMの継続的な開発と改善に不可欠であり、そもそもLLMの発明を可能にする大きな責任を負っています。オープンモデルは通常、モデル開発者を通じて、またはGitHubやHugging Faceなどの人気のあるオープンソース・プラットフォームを通じてアクセスできます。以下は、注目すべきオープン・モデル・シリーズのリストで、アルファベット順に記載されています。
「Attention is All You Need」の著者の1人が創業者であるCohere社は、カナダを拠点とする企業で、2019年に設立されました。同社は各LLMの詳細な技術レポートを公開し、表向きはオープン・ウエイト・モデルとしてリリースしていますが、Cohere社は商用利用を禁止するクリエイティブ・コモンズ4.0ライセンスの修正版に基づいてオープン・リリースをライセンスしています。
Commandは、エンタープライズ・ユースケース向けに設計されたCohere社の主力基盤モデル・シリーズです。
2026年3月のRedditのコメントで、Cohere社のCEOであるAidan Gomez氏は、同社が次世代のCommandを積極的に開発しており、それが組織初の混合専門家(MoE)モデルになることを示唆しました。
Ayaは、Cohere社の多言語対応に特化したモデル・シリーズで、2024年2月にAya 101として初めて発売されました。名前の通り「101言語の指示に従うことができる」という特徴がありました。
DeepSeekはオープンソース・エコシステムの重要なプレーヤーであり、LLMアーキテクチャーやトレーニング・プロセスに多くの革新をもたらしています。時として、同社のモデルの性能はトップのクローズド・モデルに匹敵するほどでした。同社のLLM(重み付けとコードの両方)は、標準のMITライセンスの下でオープンソース化されています。また、DeepSeek社は調査結果や手法の詳細を記載した技術論文も頻繁に発表しています。
DeepSeek-V4(または「DeepSeek-R2」)の発売が間近に迫っているという噂は定期的に流れているものの、それらのリリースはまだ実現していません。
FalconシリーズのLLMは、アラブ首長国連邦のテクノロジー・イノベーション研究所(TTI)によって開発されました。2023年のTIIの第1世代モデルは、当時入手可能な最大のオープンソースモデルの1つであったFalcon-180Bがおそらく最も注目されたものでしたが、TIIはその後、より小型のモデルに注力するようになりました。Falcon2には11Bのパラメーターがあり、TII初のマルチモーダル・モデル(2024年12月にリリース)であるFalcon3は1B~10Bの範囲でした。
最新世代のFalconモデルは、ハイブリッドのMamba-Transformerモデルに重点を置いています。
Falconモデルは、Apache 2.0フレームワークに触発され、注目すべき規定と制約を追加した独自のFalconライセンスの下でリリースされています。
Gemmaは、Googleのオープン・モデル・ファミリーです。Googleによると、Gemmaモデルは「(同社の)Geminiモデルを強化するのと同じテクノロジーから構築」されています。7
GemmaモデルはGemmaライセンスの下でリリースされており、その使用条件はApache 2.0ライセンスに似ていますが、Gemma禁止使用ポリシーによって規制されています。
GLMは、北京を拠点とするZ.ai(Zhipu AIとも呼ばれる)のLLMファミリーで、最先端の性能を目指しています。同社はGLM-4.5で画期的な進歩を遂げました。これは2025年7月下旬の最初のリリース当時、教育機関向けベンチマーク全体で、DeepSeekやQwenの主力モデルを含む世界トップクラスのオープン・モデルに匹敵するものでした。
IBM Graniteは、企業のユースケース向けに最適化されたオープンソースLLMシリーズで、主に小規模で実用的、効率的なモデルに重点を置いています。Graniteは2023年9月に発売されてから、2024年10月にGranite 3.0がリリースされて、同等規模の主要オープン・モデルに匹敵する性能を発揮しました。
2025年10月に発売されたGranite 4は、従来のトランスフォーマー・モデルと比較して、特に大規模なワークロードにおいて優れた速度とメモリ効率を実現する新しいハイブリッドMamba2-Transformerアーキテクチャーを導入しました。
すべてのGraniteモデルは、標準のApache 2.0ライセンスの下でオープンソース化されており、エンタープライズ向けの安全なデータに基づいてトレーニングされています。2025年10月、GraniteシリーズはISO-42001認証を取得した最初の主要オープン・モデル・ファミリーとなりました。
GPT-OSSはOpenAIのオープン・ウェイト言語モデルで、2025年8月に標準のApache 2.0ライセンスの下でリリースされました。2019年のGPT-2リリース以来、同社にとって初のオープンLLMです。
どちらのGPT-OSSモデルも、モデルの重みを4ビット量子化してトレーニングされており、同等サイズの従来モデルと比較して速度が大幅に向上し、メモリ要件が削減されています。
Kimiは北京に拠点を置くMoonshot AIが開発したオープンモデルのシリーズです。
Kimiモデルは変更されたMITライセンスの下でリリースされ、月間アクティブ・ユーザー数が1億人を超えるか、月間収益が2,000万米ドルを超える製品の「ユーザー・インターフェースに『Kim K2』を目立たせること」をユーザーに義務付けています。
MetaのLlamaモデル(当初はLLaMAと表記され、「Large Language modelMeta AI」の略)は、オープンなLLMの歴史に欠かせないものでした。Llamaの初期リリースは、LLM方法論の民主化に役立ち、トレーニングからアーキテクチャー、サイズ・バリエーションに至るまで、LLM開発の多くの標準的な慣行に情報を提供し、大きな影響を与えました。
Meta社は「オープンソース」という用語をよく使用しますが、LlamaモデルはカスタムLlamaライセンスの下でリリースされ、使用、帰属、アクセスに制約があります。そのため、オープンソース・イニシアチブは、Metaのこの用語の使用を批判しています。
上海を拠点とするMiniMax Groupは、2025年1月に、初となるLLMであるMiniMax-Text-01と、付属するVLMであるMiniMax-VL-01をリリースしました。それ以来、彼らは中国で主要なLLM開発者の1社として有名になり、大規模モデルと長いコンテキスト・ウィンドウを優先してきました。
MiniMaxモデルは修正されたMITライセンスの下で提供されています。
Mistral AIは、クローズドソースの製品に加えて、評判の高いさまざまなオープン・モデルを提供しています。Mistralのオープン・モデルのほとんど(すべてではありません)は、標準Apache 2.0ライセンスの下でリリースされています。
大手ハードウェア・メーカーであるNVIDIAのオープンLLMシリーズは、その性能、研究論文、アーキテクチャー・イノベーションで広く評価されています。
Allen Institute for AI(「Ai2」)によって開発されたOlmoは、すべてのオーンソース・モデルの中で最も真に「オープン」なモデルのひとつです。Ai2は通常、標準的なApache 2.0のリリースと同時に、すべてのコード、重み、トレーニング・チェックポイント、関連データ・セットを公開しています。
PhiはMicrosoftのオープン・モデル・ラインであり、これまで小型モデルに重点を置いてきました。これらは標準のMITライセンスでリリースされています。
Alibaba社が開発したLLMのQwenシリーズは、業界で最も人気のあるオープン・モデルの1つです。モデル・ファミリーは、開発者のさまざまなニーズに合わせて、さまざまなモデル・サイズ、アーキテクチャー、および機能を提供します。
安全で意図を認識した開発を実現するAIパートナーであるBobと連携して、ソフトウェア・デリバリーを加速させましょう。
IBM watsonx Orchestrateを使用すると、スケーラブルなAIアシスタントとエージェントを簡単に設計し、反復的なタスクを自動化し、複雑なプロセスを簡素化できます。
IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。
1. 「Elon Musk reins in Grok AI bot to stop election misinformation」、 The Register、2024年8月28日
2. 「Musk’s xAI chatbot Grok keeps randomly responding about ‘white genocide’ in South Africa」、 CNBC、2025年5月14日
3. 「Elon Musk’s AI chatbot, Grok, started calling itself ‘MechaHitler’」、 NPR、2025年7月9日
4. @MarioNawfal tweet、X(旧Twitter)、2025年2月18日
5. 「GPT-5.4 pro」、OpenAI、2026年3月12日アクセスのAPIドキュメント
6. 「Announcing Codestral 25.08 and the Complete Mistral Coding Stack for Enterprise」、 Mistral AI、2025年7月30日
7. Gemma、Google DeepMind、2026年3月12日アクセス
8. 「Alibaba-backed Moonshot releases new Kimi AI model that beats ChatGPT, Claude in coding — and it costs less」、 CNBC、2025年7月14日
9. 「5 Thoughts on Kimi K2 Thinking」Interconnects、2025年11月6日
10. Meta Llama:モデル・ページ(「最もダウンロードが多かったもの」で並べ替え)、Hugging Face、2026年3月11日アクセス
11. 「MiniMax M2.7: Early Echoes of Self-Evolution」、MiniMax、2026年3月18日
12. 「Introducing Mistral 3」、Mistral AI、2025年12月2日
13. Mistral AI:モデル・ページ(「最もダウンロードが多かったもの」で並べ替え)、Hugging Face、2026年3月11日