watsonx.ai での基盤モデルの選択
生成型AIプロジェクトからの推論に使用する基盤モデルを選択する際には、考慮すべき多くの要因があります。
例えば、コールセンターの問題報告を要約するソリューションの場合、次のような特性を持つ基盤モデルを希望するかもしれません
- 要約タスクのベンチマークで高いスコアを獲得
- 大量のテキストを処理できるため、コンテキストウィンドウの長さが大きい
- 破損した物品の画像を解釈できるため、テキストと画像の両方の形式で入力を受け付ける
あなたとあなたの組織にとって、どの要素が最も重要かを見極める。
- モデルができるタスク
- マルチモーダル基礎モデル
- サポート言語
- モデルをカスタマイズするためのチューニングオプション
- ライセンスおよび知的財産補償条項
- サイズ、アーキテクチャ、およびコンテキスト ウィンドウの長さなどのモデル属性
あなたのニーズに最も合うモデルの短いリストができたら、どのモデルが一貫してあなたが望む結果を返すかを確認するためにモデルをテストすることができます。
お客様のユース・ケースをサポートする基盤モデル
開始するには、実行するタスクのタイプを実行できる基盤モデルを見つけます。
以下の表は、 IBM watsonx.ai の基盤モデルでサポートされるタスクのタイプを示しています。 チェックマーク(✓)は、列見出しに記載されたタスク基盤モデルサポートされていることを示します。 一部のタスクでは、リンクをクリックするとそのタスクのサンプルプロンプトに移動できます。
| モデル | チャット API からの会話 |
ツールとの対話 チャットAPIから |
検索補強世代(RAG) | サンプル |
|---|---|---|---|---|
| granite-4-h-small | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
• チャット API• ツール呼び出し |
| granite-4-h-tiny | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
• チャット API• ツール呼び出し |
| granite-4-h-micro | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
• チャット API• ツール呼び出し |
| granite-3-1-8b-base | ✓ | ✓ | RAG より Prompt Lab |
- チャットAPI |
| granite-3-3-2b-instruct | ✓ | RAG from Prompt Lab |
- Q&A - チャット API |
|
| granite-3-3-8b-instruct | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- Q&A | |
| granite-7b-lab | ✓ | RAG from Prompt Lab |
- 要約 - Chat API |
|
| granite-8b-japanese | RAG from Prompt Lab |
- Q&A - 翻訳 |
||
| granite-20b-multilingual | ✓ | RAG from Prompt Lab |
- 翻訳 - Chat API |
|
| granite-3-2-8b-instruct | ✓ | ✓ | RAG from Prompt Lab |
- チャットAPI |
| granite-3-8b-instruct | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- コード - チャット API - ツール・コール |
| granite-guardian-3-8b | ✓ | • 分類 | ||
| granite-3b-code-instruct | - コード - チャット API |
|||
| granite-8b-code-instruct | ✓ | - コード - チャット API |
||
| granite-20b-code-instruct | ✓ | - コード - チャット API |
||
| granite-20b-code-base-schema-linking | - コード | |||
| granite-20b-code-base-sql-gen | - コード | |||
| granite-34b-code-instruct | ✓ | - コード - チャット API |
||
| granite-vision-3-3-2b | ✓ | - 画像付きチャット例 - Chat API |
||
| allam-1-13b-instruct | RAG from Prompt Lab |
- 分類 - 翻訳 |
||
| codellama-34b-instruct-hf | - コード | |||
| codestral-2501 | - コード | |||
| deepseek-r1-distill-llama-8b | ✓ | - Q&A | ||
| deepseek-r1-distill-llama-70b | ✓ | - Q&A | ||
| eurollm-1-7b-instruct | ✓ | - Q&A - 翻訳 - Chat API |
||
| eurollm-9b-instruct | ✓ | - Q&A - 翻訳 - チャット API |
||
| gpt-oss-20b | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- チャットAPI |
| gpt-oss-120b | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- チャットAPI |
| llama-4-maverick-17b-128e-instruct-int4 | ✓ | ✓ | ✓ • RAG( Prompt Lab ) |
• チャット • チャットAPI • 画像付きチャットの例 |
| llama-4-maverick-17b-128e-instruct-fp8 | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
• ダイアログ • チャット • チャットAPI • 画像付きチャットの例 |
| llama-3-3-70b-instruct | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- サンプルチャット - ツール呼び出しサンプル - チャットAPI |
| llama-3-2-11b-vision-instruct | ✓ | ✓ | RAG from Prompt Lab |
- 画像付きチャット例 - チャットAPI - ツール呼び出しサンプル |
| llama-3-2-90b-vision-instruct | ✓ | ✓ | RAG from Prompt Lab |
- 画像付きチャット例 - チャットAPI - ツール呼び出しサンプル |
| llama-3-1-8b | RAG from Prompt Lab |
- ダイアログ | ||
| llama-3-1-8b-instruct | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- ダイアログ - チャット API - ツールコール |
| llama-3-1-70b | ✓ | RAG from Prompt Lab |
- ダイアログ | |
| llama-3-1-70b-instruct | ✓ | ✓ | RAG より AutoAI |
- ダイアログ - チャット API - ツールコール |
| llama-3-405b-instruct | ✓ | ✓ | RAG from Prompt Lab |
- ダイアログ - チャット API - ツールコール |
| llama-3-70b-instruct | RAG from Prompt Lab |
- ダイアログ - チャット API - ツールコール |
||
| llama-3-8b-instruct | RAG より Prompt Lab |
- Dialog - チャット API |
||
| llama-2-13b-chat | ✓ | RAG from Prompt Lab |
- ダイアログ | |
| llama-guard-3-11b-vision | ✓ | RAG from Prompt Lab |
- 分類 - 画像を使ったチャット例 - チャット API |
|
| ministral-8b-instruct-2410 | ✓ | RAG from Prompt Lab |
- 分類 - 抽出 - 要約 - 翻訳 |
|
| mistral-large-2512 | ✓ | - RAG より Prompt Lab |
• 分類 • 抽出 • 要約 • コード • 翻訳 • チャットAPI |
|
| mistral-large-instruct-2407 (献呈) | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- 分類 - 抽出 - 要約 - コード - 翻訳 - チャットAPI - ツール呼び出し |
| mistral-large-instruct-2411 | ✓ | RAG from Prompt Lab |
- 分類 - 抽出 - 要約 - コード - 翻訳 - チャット API |
|
| ミストラル・ミディアム | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- Chat API - 画像を使ったチャットの例 |
| mistral-nemo-instruct-2407 | RAG from Prompt Lab |
- 分類 - 抽出 - 生成 - 要約 - コード - 翻訳 |
||
| mistral-small-3-1-24b-instruct-2503 | ✓ | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- チャット API - 画像を使ったチャットの例 - ツールコール |
| mixtral-8x7b-base | - RAG より Prompt Lab |
- 分類 - 抽出 - 生成 - 要約 - コード - 翻訳 |
||
| mixtral-8x7b-instruct-v01 | ✓ | - RAG from Prompt Lab - RAG from AutoAI |
- 分類 - 抽出 - 生成 - 要約 - コード - 翻訳 |
|
| mt0-xxl-13b | RAG from Prompt Lab |
- 分類 - Q&A |
||
| pixtral-12b | RAG from Prompt Lab |
- 分類 - 抽出 - 要約 - 画像例付きチャット |
||
| poro-34b-chat | ✓ | RAG from Prompt Lab |
- 翻訳 - Chat API |
- タスクの種類ごとにグループ化されたさまざまなプロンプトのサンプルを確認するには 、「プロンプトのサンプル」 を参照してください。
- To determine how well a foundation model can perform certain tasks, see 基盤モデルベンチマーク.
マルチモーダル基礎モデル
マルチモーダル基礎モデルは、多くのモダリティやデータタイプからの情報を処理し、統合することができる。 これらのモダリティには、テキスト、画像、音声、ビデオ、その他の形式の感覚入力が含まれる。
watsonx.aiから入手可能なマルチモーダル基礎モデルは、以下のタイプのタスクを実行できる:
- 画像からテキストへの変換
- 視覚的な質問への回答、図表の解釈、画像のキャプション付けなどに便利です。
以下の表は、テキスト入力とテキスト出力以外のモダリティをサポートする利用可能な基礎モデルの一覧です。
| モデル | 入力モダリティ | 出力モダリティ |
|---|---|---|
| llama-4-maverick-17b-128e-instruct-fp8 | イメージ、テキスト | テキスト |
| llama-3-2-11b-vision-instruct | イメージ、テキスト | テキスト |
| llama-3-2-90b-vision-instruct | イメージ、テキスト | テキスト |
| llama-guard-3-11b-vision | イメージ、テキスト | テキスト |
| pixtral-12b | イメージ、テキスト | テキスト |
ご使用の言語をサポートする基盤モデル
多くの基盤モデルは英語でのみうまく機能します。 ただし、一部のモデル作成者は、さまざまな言語のタスクでモデルをファイン・チューニングしたり、複数の言語でモデルのパフォーマンスをテストしたりするために、事前トレーニング・データ・セットに複数の言語を組み込んでいます。 グローバル・オーディエンスのためのソリューション、または翻訳タスクを実行するソリューションを作成する予定の場合は、マルチリンガル・サポートを考慮して作成されたモデルを探してください。
以下の表に、 watsonx.aiの基盤モデルで英語に加えてサポートされる自然言語をリストします。 多言語基盤モデルでサポートされる言語について詳しくは、基盤モデルのモデル・カードを参照してください。
watsonx リージョンが IBM Cloud のダラス・データセンターの場合は、モデルカードのリンクをたどってください。 それ以外の場合は、リソースハブでモデル名を検索してください。 このモデルは、地域やクラウドプラットフォームによっては利用できない場合がある。
| モデル | 英語以外の言語 |
|---|---|
| Granite 4 ( granite-4-h-small, granite-4-h-micro, granite-4-h-tiny ) | ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語。 これらの12言語以外の言語向けに、これらの Granite モデルを微調整することができます |
| Granite 3.1 (granite-3-1-8b-base) | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語 |
| Granite 3 granite-3-8b-base | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字) |
| granite-8b-japanese | 日本語 |
| granite-20b-multilingual | ドイツ語、スペイン語、フランス語、およびポルトガル語 |
| Granite インストラクター (, ) 3.3granite-3-3-2b-instruct granite-3-3-8b-instruct | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語 |
| Granite インストラクター 3.2 ( granite-3-2-8b-instruct ) | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字) |
| Granite インストラクター 3.1 ( granite-3-8b-instruct ) | 英語、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字) |
| allam-1-13b-instruct | アラビア語 |
| EuroLLM モデルを指導する | ブルガリア語、クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エストニア語、フィンランド語、フランス語、ドイツ語、ギリシャ語、ハンガリー語、アイルランド語、イタリア語、ラトビア語、リトアニア語、マルタ語、ポーランド語、ポルトガル語、ルーマニア語、スロバキア語、スロベニア語、スペイン語、スウェーデン語、アラビア語、カタロニア語、中国語、ガリシア語、ヒンディー語、日本語、韓国語、ノルウェー語、ロシア語、トルコ語、ウクライナ語 |
| jais-13b-chat | アラビア語 |
| ラマ4 ( llama-4-maverick-17b-128e-instruct-fp8 ) | アラビア語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語。 |
| Llama 3.3 llama-3-3-70b-instruct, llama-3-3-70b-instruct-hf ) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
| Llama 3.2 (llama-3-2-1b-instruct、llama-3-2-3b-instruct)。 llama-3-2-11b-vision-instruct, llama-3-2-90b-vision-instruct, llama-guard-3-11b-vision もテキスト入力のみ) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
| Llama 3.1 ( llama-3-1-8b-instruct, llama-3-1-70b-instruct, llama-3-405b-instruct ) | 英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語 |
| mistral-large | 多言語対応(モデルカード参照) |
| mistral-large-instruct-2411, mistral-nemo-instruct-2407 | 複数の言語、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語。 |
| ミストラル・ミディアム ( mistral-medium-2505, mistral-medium-2508 ) | 多言語対応(モデルカード参照) |
| mistral-small-3-1-24b-instruct-2503 | 英語、フランス語、ドイツ語、ギリシャ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、マレー語、ネパール語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、セルビア語、スペイン語、スウェーデン語、トルコ語、ウクライナ語、ベトナム語、アラビア語、ベンガル語、中国語、ペルシア語など。 |
| mixtral-8x7b-base, mixtral-8x7b-instruct-v01 | フランス語、ドイツ語、イタリア語、スペイン語 |
| mt0-xxl-13b | 多言語対応(モデルカード参照) |
| poro-34b-chat | 英語とフィンランド語 |
チューニング可能なファウンデーション・モデル
基盤モデルとなる基礎モデルのパラメータ重みを変更するチューニング実験を実行し、特定のタスクに最適化された出力を生成するようモデルを導くことができます。
以下の表は、で提供される基盤モデル調整 IBMwatsonx.ai するために使用できる方法を示しています。 チェックマーク(✓)は、列見出しに記載されたチューニング方法が、 基盤モデルでサポートされていることを示します。
| モデル名 | LoRA 微調整 | QLoRA 微調整 |
|---|---|---|
| granite-3-1-8b-base | ✓ | |
| llama-3-1-8b | ✓ | |
| llama-3-1-70b-gptq | ✓ |
詳細については、 「チューニングするモデルの選択」 を参照してください。
モデルの種類と知財補償
使用する基盤モデル知的財産補償方針を確認してください。 一部のサードパーティの基盤モデル は、そのAIモデルの使用に起因する可能性のある知的財産権侵害について免責することを要求しています。
IBM が開発した、watsonx.ai から入手可能な基盤モデルは、IBM がハードウェアやソフトウェア製品に提供しているものと同様に、標準的な知的財産権保護を受けています。
IBMは、その標準的な知的財産の補償を、対象モデルによって生成される出力にも拡大しています。 対象モデルには、IBMが開発したものと、watsonx.aiから入手可能なサードパーティ製の基盤モデルがあります。 サードパーティの対象モデルを表4に示す。
以下の表は、異なる基盤モデルと補償方針について説明しています。 詳細は参考資料を参照のこと。
| 基礎モデルタイプ | 補償方針 | 基盤モデル | 詳細 | IBM クラウドの参考資料 | AWS マルチクラウドの参考資料 |
|---|---|---|---|---|---|
| IBM カバー・モデル | 上限なしのIBM補償 | - IBM Granite - IBM スレート板 |
watsonx.ai から入手できる IBM 開発の基盤モデル。 | サービス内容をご覧ください | サービス内容をご覧ください |
| サードパーティモデル | 上限IBM補償 | ミストラル市販モデル | watsonx.ai から入手可能な、サードパーティがカバーするモデル。 | サービス内容をご覧ください | サービス内容をご覧ください |
| 非 IBM 製品 | IBM による補償はない | 各種 | watsonx.ai から入手可能なサードパーティのモデルは、関連する義務や制限を含め、それぞれのライセンス条項に従うものとします。 | モデル情報を参照。 | サービス内容をご覧ください |
| カスタム・モデル | IBM による補償はない | 各種 | watsonx.ai で使用するためにインポートするファンデーション モデルは、クライアントのコンテンツです。 | お客様は、モデルおよび出力の選択および使用、ならびに第三者のライセンス条件、義務および制限の遵守について、単独で責任を負うものとします。 | サービス内容をご覧ください |
サードパーティモデルライセンス条項の詳細については、 サードパーティ基盤モデル をご覧ください。
モデルの選択に関するその他の考慮事項
| モデル属性 | 考慮事項 |
|---|---|
| コンテキストの長さ | コンテキスト・ウィンドウ長、 コンテキスト・ウィンドウ、または 最大シーケンス長と呼ばれることもあります。コンテキスト長は、入力プロンプト内のトークン数に、生成される出力内のトークン数を加えた最大許容値です。 watsonx.aiでモデルを使用して出力を生成する場合、生成される出力内のトークンの数は最大トークン数パラメーターによって制限されます。 |
| コスト | 基盤モデルの使用コストは、リソース単位で測定されます。 リソースユニットの価格は、 基盤モデル価格帯のレートに基づいています。 |
| 微調整済み | 基盤モデルが事前学習された後、多くの基盤モデルが特定のタスク、例えば分類、情報抽出、要約、指示への応答、質問への回答、または双方向のチャットへの参加などに向けて微調整されます。 計画した使用法に類似したタスクの微調整を行うモデルは、通常、お客様のユース・ケースに適合するように微調整されていないモデルよりも、ゼロ・ショット・プロンプトを使用する方が適しています。 微調整されたモデルの結果を改善する 1 つの方法は、そのモデルを微調整するために使用されたデータ・セットのプロンプトと同じ形式でプロンプトを構成することです。 |
| 調整された命令 | Instruction-tuned は、命令を含むプロンプトでモデルが微調整されたことを意味します。 モデルが命令チューニングされている場合、通常は、指示があるプロンプトに例がない場合でも、それらのプロンプトに適切に応答します。 |
| IP の補償 | ライセンス条項に加えて、モデルの知的所有権の補償ポリシーを確認してください。 詳しくは、モデルの種類と知的財産権の補償をご覧ください。 |
| ライセンス | 一般に、各基盤モデルには、モデルの使用方法を制限する異なるライセンスが付属しています。 モデル・ライセンスを検討して、計画したソリューションにモデルを使用できることを確認します。 |
| モデル・アーキテクチャー | モデルのアーキテクチャーは、モデルの動作に影響します。 変換プログラム・ベースのモデルは、通常、以下のいずれかのアーキテクチャーを持ちます。 Encoder-only: 入力シーケンスを embeddings と呼ばれる表現ベクトルに変換することにより、センテンス・レベルで入力テキストを理解します。 エンコーダーのみのモデルの一般的なタスクには、分類とエンティティー抽出が含まれます。 デコーダーのみ: 入力シーケンスからの推論によって、ワード単位で出力テキストを生成します。 デコーダーのみのモデルの一般的なタスクには、テキストの生成と質問への回答が含まれます。 エンコーダー・デコーダー: どちらも入力テキストを認識し、入力テキストに基づいて出力テキストを生成します。 エンコーダー・デコーダー・モデルの一般的なタスクには、翻訳と要約が含まれます。 |
| 地域別の可用性 | watsonx サービスと同じ IBM Cloud リージョンのデータ・センターで使用可能なモデルを処理できます。 |
| サポートされるプログラミング言語 | すべての基盤モデルがプログラミングのユース・ケースに適しているわけではありません。 コードの要約、変換、生成、またはその他の処理を行うソリューションの作成を計画している場合は、モデルの事前トレーニング・データ・セットに含まれているプログラミング言語とファイン・チューニングアクティビティーを検討して、そのモデルがユース・ケースに適合しているかどうかを判別してください。 |