サードパーティ基盤モデル
IBM watsonx.ai のサードパーティの基盤モデルコレクションから選ぶことができる。
watsonx.ai:では以下のモデルが利用可能です:
- allam-1-13b-instruct
- codellama-34b-instruct-hf
- codestral-2501
- deepseek-r1-distill-llama-8b
- deepseek-r1-distill-llama-70b
- eurollm-1-7b-instruct
- eurollm-9b-instruct
- gpt-oss-20b
- gpt-oss-120b
- llama-4-maverick-17b-128e-instruct-fp8
- llama-4-maverick-17b-128e-instruct-int4
- llama-3-3-70b-instruct
- llama-3-2-11b-vision-instruct
- llama-3-2-90b-vision-instruct
- llama-guard-3-11b-vision
- llama-3-1-8b
- llama-3-1-8b-instruct
- llama-3-1-70b
- llama-3-1-70b-instruct
- llama-3-1-70b-gptq
- llama-3-405b-instruct
- llama-2-13b-chat
- llama-2-70b-chat
- ministral-8b-instruct-2410
- mistral-large-2512
- mistral-large
- mistral-large-instruct-2407
- mistral-large-instruct-2411
- mistral-medium-2505
- mistral-medium-2508
- mistral-nemo-instruct-2407
- mistral-small-3-2-24b-instruct-2506
- mistral-small-3-1-24b-instruct-2503
- mixtral-8x7b-base
- mixtral-8x7b-instruct-v01
- poro-34b-chat
これらのモデルのさまざまな展開方法について、またモデルの価格とコンテクスト・ウィンドウの長さに関する情報の概要については、サポートされている財団モデルをご覧ください。
IBM 基盤モデル詳細については、 IBM 基盤モデル を参照のこと。
モデルの選び方
サポートされているタスクや言語など、モデル選びに役立つ要素を確認するには、 モデルの選択と Foundationモデルのベンチマークを参照してください。
非推奨の基盤モデルは、非推奨警告アイコンで強調表示 されます。 モデルの廃止および撤回に関する詳細については、を 基盤モデルサイクル参照してください。
基礎モデルの詳細
watsonx.ai の基盤モデル、自然言語とプログラミング言語の両方について、さまざまなユースケースをサポートしている。 これらのモデルができるタスクの種類を確認するには、プロンプトのサンプルを確認し、試してみてください。 オンデマンド・デプロイ基盤モデル価格詳細については、 オンデマンド・デプロイ・モデルの時間課金料金をご覧ください。
watsonx リージョンが IBM Cloud のダラス・データセンターの場合は、モデルカードのリンクをたどってください。 それ以外の場合は、リソースハブでモデル名を検索してください。 このモデルは、地域やクラウドプラットフォームによっては利用できない場合がある。
allam-1-13b-instruct
allam-1-13b-instruct 基盤モデル、国立人工知能センターが提供し、サウジアラビアのデータ・人工知能庁がサポートしているアラビア語と英語のバイリンガル大規模言語モデルで、会話タスクをサポートするようにファイン・チューニングいる。 ALLaM シリーズは、アラビア語の言語技術を向上させるために設計された強力な言語モデルのコレクションです。 これらのモデルは、 Llama-2 の重みで初期化され、アラビア語と英語の両方でトレーニングを受ける。
- 使用法
- アラビア語のQ&A、要約、分類、生成、抽出、翻訳をサポート。
- size
- 130億パラメータ
- API価格ティア
- クラス 2. 価格の詳細は表3を参照。
- 使用可能
- フランクフルト・データセンターのマルチテナント・ハードウェア上に配置された IBMが提供。
- フランクフルトのデータセンターを除き、専用利用の場合はオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- アラビア語(現代標準アラビア語)、英語
- インストラクション・チューニング情報
- allam-1-13b-instruct は、 モデルに基づいている。これは、英語とアラビア語の合計3兆個のトークン(初期化時から見られるトークンも含む)に対して事前に訓練された Allam-13b-base 基盤モデルである。 アラビア語データセットには、クリーニングと重複排除を行った後のトークンが5,000億個含まれている。 追加データは、オープンソースのコレクションとウェブクロールから収集される。 allam-1-13b-instruct の基盤モデル、400万組のアラビア語と600万組の英語のプロンプトとレスポンスのペアのキュレーションセットでファイン・チューニングいる。
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- Llama 2コミュニティライセンスと ALLaMライセンス
- 詳細情報
- 以下のリソースをお読みください:wx
codellama-34b-instruct-hf
Meta の Llama 2 に基づくプログラムコード生成モデル。 Code Llama はコードを生成し、議論するためにファイン・チューニング。
- 使用法
- Code Llama を使用して、自然言語入力に基づいてコードを生成したり、コードを説明したり、コードを完成させてデバッグしたりするプロンプトを作成します。
- size
- 340億パラメータ
- API価格ティア
- 価格の詳細は表5を参照
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- サンプルを使って実験する:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):16,384
- 注:新しいトークン、つまりリクエストごとに基盤モデル生成されるトークンの上限は、8,192個に制限されています。
- 対応自然言語
- 英語
- サポートされるプログラミング言語
- codellama-34b-instruct-hf Python、C++、Java、PHP、Typescript(Javascript)、C#、Bashなど、多くのプログラミング言語をサポートして基盤モデル。
- インストラクション・チューニング情報
- インストラクションファイン・チューニング版には、自然言語によるインストラクション入力と期待されるアウトプットが与えられ、自然言語で有用かつ安全な回答を生成するようモデルを導いた。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- 使用許諾条件
- 詳細情報
- 以下の資料をお読みください:
codestral-2501
codestral-2501 基盤モデル、 Mistral AI によって開発された最先端のコーディングモデルである。 このモデルは、オリジナルの codestral-22b モデルに基づいており、より効率的なアーキテクチャと改良されたトークナイザーを備えている。 codestral-2501、コード生成とコード補完のタスクは、オリジナルモデルの約2倍の速さで実行される。
- 使用法
codestral-2501 は、低レイテンシー、高頻度のユースケース向けに最適化されており、フィルインザミドル(FIM)、コード修正、テストケースの生成などのタスクをサポートしている。
- size
220億パラメータ
- API価格ティア
料金の詳細については、 表3 およびデプロイ・オン・デマンド・モデルの時間課金料金をご覧ください。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):256,000 注:
- 最大新規トークン、つまりリクエストごとに基盤モデル生成されるトークンは、8,192個に制限されている。
- 対応自然言語
英語
- インストラクション・チューニング情報
codestral-2501 モデルは、 Python、Java、C、C++、 JavaScript,、Bashなどの一般的な言語を含む80以上のプログラミング言語に精通している。 このモデルは、Swiftや Fortran のような、より特殊な言語でもうまく機能する。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
DeepSeek-R1 蒸留モデル
Llama 3.1モデルをベースにした DeepSeek-R1 モデルの蒸留版は、 DeepSeek AIが提供しています。 DeepSeek-R1 モデルは、強力な推論機能を備えたオープンソースモデルです。 DeepSeek R1 モデルによって生成されたデータサンプルは、ベースとなる Llama モデルの微調整に使用されます。
deepseek-r1-distill-llama-8b と deepseek-r1-distill-llama-70b モデルは、 Llama 3.1 8B と Llama 3.3 70B モデルをそれぞれベースにした、 DeepSeek-R1 モデルの簡潔版です。
- 使用法
zero- または few-shot のプロンプトとともに一般的に使用され、要約、分類、推論、コード作業、数学などの指示に従う作業に優れています。
- 利用可能なサイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
8b: 小さい
70: 大きい
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
サンプルを使って実験する:
- トークン制限
8b および コンテキストウィンドウの長さ(入力+出力):131,072 70b:
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、32,768に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
DeepSeek-R1、その前段階として教師ありファイン・チューニング (SFT)なしの大規模強化学習(RL)を用いてモデルを学習する。 その後のRLとSFTの段階では、推論パターンを改善し、モデルを人間の好みに合わせることを目指します。 DeepSeek-R1-Distill モデルは、 によって生成されたサンプルを使用して、オープンソースのモデルに基づいて DeepSeek-R1ファイン・チューニングれる。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
8b: ライセンス
70b: ライセンス
- 詳細情報
以下の資料をお読みください:
EuroLLM 講師
EuroLLM シリーズのモデルは、Unified Transcription and Translation for Extended Reality (UTTER) プロジェクトと欧州連合によって開発された。 EuroLLM Instructのモデルは、欧州連合(EU)の24の公用語すべてと、商業的・戦略的に重要な11の国際言語を理解し、テキストを生成することに特化したオープンソースのモデルである。
- 使用法
一般的なインストラクションフォローや言語翻訳など、多言語の言語タスクに適しています。
- サイズ
- 1.7 億パラメータ
- 90億パラメータ
- API価格ティア
1.7b: 小さい
9b: 小さい
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
1.7b および コンテキスト・ウィンドウの長さ(入力+出力):4,096 9b:
- 対応自然言語
ブルガリア語、クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エストニア語、フィンランド語、フランス語、ドイツ語、ギリシャ語、ハンガリー語、アイルランド語、イタリア語、ラトビア語、リトアニア語、マルタ語、ポーランド語、ポルトガル語、ルーマニア語、スロバキア語、スロベニア語、スペイン語、スウェーデン語、アラビア語、カタロニア語、中国語、ガリシア語、ヒンディー語、日本語、韓国語、ノルウェー語、ロシア語、トルコ語、ウクライナ語。
- インストラクション・チューニング情報
モデルは、ウェブデータ、並列データ、ウィキペディア、Arxiv、複数の書籍、アポロデータセットからサポートされている自然言語全体で4兆トークンに対して学習される。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
gpt-ossモデル
gpt-ossの基盤モデル、 gpt-oss-20b と gpt-oss-120b は、強力な推論、エージェントタスク、様々な開発者のユースケースのために設計された、 OpenAI’s オープンウェイトモデルである。 このモデルは、生産、汎用、高度な推論のために設計されており、様々な特殊なユースケースのためにファイン・チューニングことができる。
システム・プロンプトの推論レベルは、3つのレベルの中から自分のタスクに合ったものを設定できる:
- 低: 一般的な対話には速いレスポンス。
- ミディアム :スピードとディテールのバランス。
- 高い :深く詳細な分析。
- 使用法
- Q&A、要約、分類、生成、抽出、翻訳、関数呼び出し、コード生成・変換をサポート。
- size
- 200億パラメータ
- 1200億パラメータ
- 200億パラメータ
- API価格ティア
- 120b:
入力層:クラス8:クラス1。 価格の詳細は表3を参照。
20b および モデルをオンデマンドでデプロイする場合の料金の詳細については、 120b オンデマンドでデプロイするモデルの時間単位の課金料金を参照してください。 - 使用可能
- 120b: マルチテナント・ハードウェア上に配置された によって提供される。 IBM
- 20b と 専用にオンデマンドで展開する。 120b:
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 英語 The gpt-oss-120b は多言語理解をサポートします。
- インストラクション・チューニング情報
- 主に英語のテキストのみのデータセットで、STEM、コーディング、一般知識に重点を置いて事前学習。
- モデル・アーキテクチャ
- デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
ラマ 4 インストラクターモデル
Llama 4コレクションの基盤モデル、 Meta から提供されている。 llama-4-maverick-17b-128e-instruct-fp8 モデルはマルチモーダルモデルで、mixture-of-experts ( MoE ) アーキテクチャを使用し、テキストと画像の理解において最適化されたクラス最高のパフォーマンスを実現する。 llama-4-maverick-17b-128e-instruct-int4 モデルは、ベースモデルを量子化したもので、重みは INT4 データ型に変換されている。
Llama 4 Maverickモデルは、128のエキスパートを持つ170億アクティブパラメータ・マルチモーダルモデルである。
llama-4-maverick-17b-128e-instruct-fp8、一部のパラメータはサポートされて基盤モデル。 詳細は、 既知の問題と制限を参照。
- 使用法
チャットボットのように多言語のダイアログ出力を生成し、視覚認識、画像推論、キャプション付け、画像に関する一般的な質問への回答に最適化された、モデル固有のプロンプト形式を使用します。
- size
170億パラメータ
- API価格ティア
- llama-4-maverick-17b-128e-instruct-fp8: 価格の詳細は表3を参照。
- llama-4-maverick-17b-128e-instruct-fp8 および llama-4-maverick-17b-128e-instruct-fp8 を専用に使用する場合の料金の詳細については、 デプロイ・オン・デマンド・モデルの時間課金料金をご覧ください。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
アラビア語、英語、フランス語、ドイツ語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語。
- インストラクション・チューニング情報
Llama 4は、より広範な200の言語コレクションで事前学習された。 Llama 4のMaverickモデルは、一般に公開されている情報および Meta からライセンス供与された情報から、約22兆トークンのマルチモーダルデータに対して事前にトレーニングされた。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.3 70B Instruct
Meta Llama 3.3多言語大規模言語モデル(LLM)は、700億のパラメータを持つ事前学習および命令チューニングされた生成モデル(テキストイン/テキストアウト)です。
llama-3-3-70b-instruct は、好評の Llama 3.1 70B インストラクター 基盤モデル改訂版である。 Llama 3.3の基盤モデル、コーディング、ステップバイステップの推論、ツールの呼び出しに優れている。 Llama 3.3モデルは小型ながら、 Llama 3.1 405b モデルと同等の性能を発揮するため、開発者にとって最適な選択肢となります。
- 使用法
チャットボットのように多言語のダイアログ出力を生成します。 モデル固有のプロンプト形式を使用。
- size
700億パラメータ
- API価格ティア
第13類
価格の詳細は表3を参照。
- 使用可能
モデルの量子化バージョンは、マルチテナント・ハードウェア上に配置された IBMによって提供されている。
このモデルには2つのバージョンがあり、オンデマンドで専用に使用することができる:
- llama-3-3-70b-instruct-hf: オリジナルバージョンは でメタによって公開された。 Hugging Face
- llama-3-3-70b-instruct: 4GPUではなく2GPUで展開できる量子化バージョン。
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.3は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.2 Vision Instruct
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-3-2-11b-vision-instructと llama-3-2-90b-vision-instructモデルは、文書レベルの理解、チャートやグラフの解釈、画像のキャプションのような画像イン、テキストアウトのユースケースのために構築されています。
- 使用法
チャットボットのようなダイアログ出力を生成し、分類、オブジェクト検出と識別、画像からテキストへの転写(手書きを含む)、文脈に応じたQ&A、データ抽出と処理、画像比較、個人的な視覚支援を含むコンピュータ・ビジョン・タスクを実行できる。 モデル固有のプロンプト形式を使用。
- サイズ
- 110億パラメータ
- 900億パラメータ
- API価格ティア
- 11b:クラス9
- 90b:クラス10
価格の詳細は表3を参照。
11b モデルをオンデマンドで展開する場合の価格詳細は、 表5を参照。
- 使用可能
- 11b および マルチテナント・ハードウェア上に配置された によって提供される。 90b: IBM
- 11b モデルのみ:専用にオンデマンドで展開。
IBM が提供する llama-3-2-90b-vision-instruct基盤モデルデプロイメント非推奨となります。 基盤モデルライフサイクル を参照してください。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 11b:131,072
- 90b:131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
Llama 3.2 Visionモデルは、コアとなる大規模言語モデルの重みとは別に学習された画像推論アダプターの重みを使用する。 この分離はモデルの一般的な知識を保持し、事前学習時と実行時の両方でモデルをより効率的にする。 Llama 3.2 Vision のモデルは、60億の画像とテキストのペアで事前学習され、 Llama 3.1 70B の基盤モデル事前学習するのに必要な計算リソースよりもはるかに少なくてすんだ。 Llama 3.2モデルも、入力が必要な場合にのみ画像推論用の計算リソースをより多く利用できるため、効率的に動作します。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
llama-guard-3-11b-vision
Meta Llama 3.2の基礎モデルのコレクションは'Metaによって提供される。 llama-guard-3-11b-visionは、テキストのみのLlama-Guard-3モデルをマルチモーダルに進化させたものである。 このモデルは、ユーザー入力(プロンプト分類)に含まれる画像やテキストコンテンツを安全か安全でないかの分類に使用できる。
- 使用法
モデルを使用して、画像からテキストへのプロンプトで画像とテキストの安全性をチェックする。
- size
- 110億パラメータ
- API価格ティア
クラス 9. 価格の詳細は表3を参照。
- 使用可能
マルチテナント・ハードウェア上に配置された IBMが提供。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。 モデルに提出した画像に対してカウントされるトークンは、コンテキストウィンドウの長さには含まれません。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語はテキスト入力のみ。 画像が入力に含まれている場合のみ英語。
- インストラクション・チューニング情報
コンテンツの安全性分類のために微調整された事前学習済みモデル。 安全でないと分類されるコンテンツの種類については、モデルカードを参照してください。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3 1ベース
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基盤モデルである llama-3-1-8b と llama-3-1-70b は、ツールの使用をサポートする多言語モデルであり、全体的に推論機能が強化されている。
- 使用法
長文テキストの要約や、多言語会話エージェントやコーディングアシスタントに使用できます。
Llama 3.1モデル・ファミリーから、微調整を目的とした以下の基盤モデル使用することができます:
- llama-3-1-8b
- llama-3-1-70b-gptq
- サイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):
- 8b: 131,072
- 70b: 131,072
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3.1 Instruct
Meta Llama 3.1の基礎モデルのコレクションは'Metaによって提供される。 Llama 3.1の基礎モデルは、多言語対話のユースケースに最適化された、事前学習とインストラクションチューニングが施されたテキストのみの生成モデルです。 このモデルは、人間のフィードバックによる教師ありの微調整と強化学習を使って、人間の「親切」と「安全」の嗜好に合わせる。
llama-3-405b-instruct モデルは、 Meta'これまでで最大のオープンソース基盤モデルである。 基盤モデル、合成データ生成器、学習後のデータランキング判定器、またはより推論に適した派生モデルの専門能力を向上させるモデル教師/監督者としても使用できます。
- 使用法
チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- サイズ
- 80億パラメータ
- 700億パラメータ
- 4050億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 405b:クラス3(入力)、クラス7(出力)
マルチテナントデプロイメント価格詳細については、 表3を参照してください。
デプロイ・オン・デマンド・モデルの価格詳細については、 表5を参照のこと。
- 使用可能
- 405b: IBM がマルチテナントハードウェア上に展開して提供。
- 8b 70b のみ:専用にオンデマンドで展開。
IBM が提供する llama-3-405b-instruct基盤モデルデプロイメント非推奨となりました。 基盤モデルライフサイクル を参照してください。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
8b: 131,072
70b: 131,072
405b:16,384
- モデルは131,072のコンテキストウィンドウ長をサポートしているが、モデルがレスポンスを生成する時間を短縮するため、ウィンドウは16,384に制限されている。
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は4,096個に制限されている。
- 対応自然言語
英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語
- インストラクション・チューニング情報
Llama 3.1は、一般に公開されているソースからの15兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、2500万以上の合成生成例が含まれる。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 3 Instruct
Meta Llama 3 ファミリーの基盤モデル、 Meta Llama 3 で構築され、 Meta Hugging Face で提供される、アクセス可能でオープンな大規模言語モデルです。 Llama 3の基礎モデルは、様々なユースケースをサポートできるように細かく調整された言語モデルです。
- 使用法
チャットボットのようなダイアログ出力を生成する。
- サイズ
- 80億パラメータ
- 700億パラメータ
- API価格ティア
- 8b:クラス1
- 70b:クラス2
- 使用可能
- IBM がマルチテナントハードウェア上に展開(シドニーリージョンのみで 70b )。
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 8b:8,192
- 70b:8,192
注:新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの最大数は、4,096個に制限されています。
- 対応自然言語
英語
- インストラクション・チューニング情報
Llama 3 誤判定率を減らし、アライメントを改善し、 基盤モデル出力の多様性を増加させる、事後トレーニング手順の改善を特徴とする。 その結果、推論能力、コード生成能力、命令追従能力が向上した。 Llama 3 より多くのトレーニングトークン( )があり、その結果、言語理解力が向上します。 15T
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
Llama 2 Chat
Llama 2 Chat モデルは、 Meta より Hugging Face にて提供されています。 微調整されたモデルはチャット生成に役立つ。 モデルは、一般に公開されているオンラインデータを使って事前に学習され、人間のフィードバックから強化学習を使って微調整される。
130億パラメータまたは700億パラメータバージョンのモデルを使用することができます。
- 使用法
チャットボットのようなダイアログ出力を生成する。 モデル固有のプロンプト形式を使用。
- size
- 130億パラメータ
- 700億パラメータ
- API価格ティア
専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
- 使用可能
- 13b
- 専用にオンデマンドで展開
- 70b
- 専用にオンデマンドで展開
IBM が提供する基盤モデル基盤デプロイメント非推奨となりました。 基盤モデルライフサイクル を参照してください。
- 13b
- 試してみる
サンプルを使って実験する:
- トークン制限
コンテキストウィンドウの長さ(入力+出力)
- 13b:4,096
- 70b:4,096
- 対応自然言語
英語
- インストラクション・チューニング情報
Llama 2は、一般に公開されているソースからの2兆トークンのデータで事前学習された。 ファインチューニングデータには、一般に公開されているインストラクションデータセットと、人間が注釈をつけた100万以上の新しい例が含まれている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
ministral-8b-instruct
ministral-8b-instruct 基盤モデル、 Mistral AI によって開発されたインストラクションファイン・チューニングモデルである。 ministral-8b-instruct モデルは、オンデバイス・コンピューティング、ローカル・インテリジェンス、アット・ザ・エッジのユースケース向けに最適化されている。 このモデルは、エッジデバイス上で実行され、プライバシー優先の推論を必要とする重要なアプリケーションに適している。
- 使用法
翻訳、関数呼び出し、テキスト理解や変換を含む推論タスク、インターネットレススマートアシスタント、ローカルアナリティクス、自律ロボット工学に適している。
- size
80億パラメータ
- API価格ティア
価格の詳細は表3を参照。 専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
ご注意: This foundation model has an additional access fee that is applied per hour of use.- 使用可能
- 専用にオンデマンドで展開
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、その他数十ヶ国語。
- サポートされるプログラミング言語
ministral-8b-instruct モデルは、いくつかのプログラミング言語で学習されている。
- インストラクション・チューニング情報
ministral-8b-instruct 基盤モデル、多言語データとコードデータの大部分で学習される。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
以下の資料をお読みください:
mistral-large-2512
mistral-large-2512 モデル(別名 Mistral Large 3)は、 Mistral AIによって開発された大規模言語モデルである。 mistral-large-2512基盤モデルは、粒度の細かい専門家混合(MiXE)アーキテクチャを備えた、最先端のオープンウェイト汎用マルチモーダルモデルである。 このモデルは指示処理向けにポストトレーニングされ、信頼性と長文脈理解を目的に設計されている。 本製品は、生産グレードのアシスタント、検索支援システム、科学的なワークロード、および複雑な企業ワークフロー向けに設計されています。 このモデルには大きなコンテキスト・ウィンドウがあり、 検索拡張生成 (RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
テキスト理解、変換、コード生成などの複雑な多言語推論タスクに適しています。 モデルのコンテキストウィンドウが大きいため、プロンプトを表示する際には、max tokensパラメータを使ってトークンの上限を指定してください。
- API価格ティア
- 入力階層:クラス1
- 出力階層: クラス2
価格の詳細については、 表3を参照してください。
専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供
- 専用にオンデマンドで展開
- 試してみる
- トークン制限
コンテキストウィンドウ長(入力+出力):256,000
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。
- サポートされるプログラミング言語
この mistral-large-2512 モデルは、Java、C、C++、 JavaScript, Bash、 Python Swift、およびを含む80以上の Fortran プログラミング言語で訓練されています。
- インストラクション・チューニング情報
基盤モデルmistral-large-2512 モデルは、テキスト、コードベース、様々な分野の数学的データなど、多様なデータセットで事前学習されています。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-large
Mistral Large 2 Mistral-Large-Instruct-2407 としても知られる、 によって開発された大規模言語モデル群である。 Mistral AI mistral-large 基盤モデル、英語、フランス語、スペイン語、ドイツ語、イタリア語の文法と文化的背景を理解し、流暢である。 基盤モデル、他の何十もの言語も理解することができる。 このモデルには大きなコンテキスト・ウィンドウがあり、 検索拡張生成 (RAG)のユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができる。 mistral-large 基盤モデル、コードの生成、レビュー、コメント、関数の呼び出しなど、プログラム的なタスクに効果的で、JSON形式で結果を生成できる。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
テキスト理解、変換、コード生成などの複雑な多言語推論タスクに適しています。 モデルのコンテキストウィンドウが大きいため、プロンプトを表示する際には、max tokensパラメータを使ってトークンの上限を指定してください。
- API価格ティア
このモデルをオンデマンドでデプロイする際の価格の詳細については、 表5を参照してください。
ご注意: This foundation model has an additional access fee that is applied per hour of use.- 使用可能
- 専用にオンデマンドで展開
このモデルは、リソースハブでは以下のように表示される:
- マルチテナント・ハードウェア上に配置された IBM によって提供される: mistral-large
- 専用にオンデマンドで展開: mistral-large-instruct-2407
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語、中国語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド語、その他多数の言語。
- サポートされるプログラミング言語
mistral-largeモデルは、Python、Java、C、C++、JavaScript,Bash、Swift、Fortranを含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-large の基盤モデル、様々なドメインからのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-large-instruct-2411
Mistral AI の mistral-large-instruct-2411 基盤モデル、 Mistral Large 2 ファミリーに属する。 このモデルは、推論、知識、コーディングに特化しています。 このモデルは、 Mistral-Large-Instruct-2407 基盤モデル機能を拡張し、長いプロンプトコンテキスト、システムプロンプト命令、および関数呼び出し要求の優れた処理を含む。
- 使用法
mistral-large-instruct-2411 基盤モデル、多言語に対応し、コーディングに習熟し、エージェント中心であり、 検索拡張生成タスクや、大きな文脈を持つプロンプトを処理する必要があるその他のユースケースを支援するために、システムのプロンプトに従う。
- size
123億のパラメータ
- API価格ティア
価格の詳細は表5を参照。
ご注意: This foundation model has an additional access fee that is applied per hour of use.- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
- サポートされるプログラミング言語
mistral-large-instruct-2411 基盤モデル、 Python、Java、C、C++、 JavaScript, Bash、Swift、 Fortran を含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-large-instruct-2411 基盤モデル、 Mistral AI の Mistral-Large-Instruct-2407 基盤モデル拡張したものである。 トレーニングにより、モデルの推論能力が向上した。 また、モデルをより慎重かつ的確な反応ができるように微調整し、解決策を見つけられない場合や、確信を持って回答できるだけの十分な情報がない場合を認識できるようにすることで、 ハルシネーションを減らすことにも重点的に取り組みました。
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-medium-2505
ミストラル・ミディアム3は、 Mistral AI によって開発されたミディアム言語モデルのファミリーです。 ミストラルのミディアムモデルには大きなコンテキストウィンドウがあり、 検索拡張生成 (RAG)ユースケースで送信するプロンプトに、大きな文書をコンテキスト情報として追加することができます。
mistral-medium-2505基盤モデルは、多くの言語の文法と文化的文脈を流暢に理解し、習得しています。 mistral-medium-2505 モデルは視覚入力を処理でき、プログラミング、数学的推論、文書理解、対話において効果を発揮する。
- 使用法
複雑な多言語推論タスク、長い文書理解、コード生成、関数呼び出し、エージェント型ワークフローに適しています。
- API価格ティア
価格の詳細は表3を参照。
提供されたミストラル・ミディアムモデルを推論するための価格は、乗数によって割り当てられるものではない。 以下の特別価格帯が使用されます
- 入力階層Mistral Large
- 出力レベルMistral Large
専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
- 使用可能
- 2505: マルチテナントハードウェア上で IBM 提供され、専用利用のためにオンデマンドでデプロイされます。
- 2508: 専用利用のためのオンデマンド展開。
試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
アラビア語、ペルシャ語、ウルドゥー語、ヘブライ語、トルコ語、インドネシア語、ラオス語、マリシアン語、タイ語、タガログ語、ベトナム語、ヒンディー語、ベンガル語、グジャラート語、カンナダ語、マラーティー語、ネパール語、パンジャブ語、タミル語、テルグ語、ブルトン語、カタロニア語、チェコ語、デンマーク語、ギリシャ語、フィンランド語、クロアチア語、オランダ語、ノルウェー語、ポーランド語、ルーマニア語、スウェーデン語、セルビア語、ウクライナ語、フランス語、ドイツ語、スペイン語、ポルトガル語、イタリア語、日本語、韓国語、ロシア語、中国語。
- サポートされるプログラミング言語
mistral-mediumモデルは、 Python、Java、C、C++、 JavaScript, Bash、Swift、 Fortran を含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-medium 基盤モデル、様々なドメインのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください:
mistral-nemo-instruct-2407
Mistral AI の mistral-nemo-instruct-2407 基盤モデル、 NVIDIA との共同作業で構築された。 Mistral NeMo、推論、世界知識、コーディングの正確さにおいて、特にこのサイズのモデルとしては非常に優れた結果を出している。
- 使用法
- Mistral NeMoモデルは多言語で、関数呼び出しについて学習される。
- size
- 120億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 複数の言語に対応し、特に英語、フランス語、ドイツ語、スペイン語、イタリア語、ポルトガル語、中国語、日本語、韓国語、アラビア語、ヒンディー語に強い。
- サポートされるプログラミング言語
- Mistral NeMoモデルは、いくつかのプログラミング言語で学習されている。
- インストラクション・チューニング情報
- Mistral NeMo高度な微調整とアライメントの段階を経た。
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
mistral-small-3-2-24b-instruct-2506
ミストラル・スモール 3.2 基盤モデルは、によって開発されたミストラル・スモール 3.1Mistral AI を基盤としています。 mistral-small-3-2-24b-instruct-2506 は命令の順序追従性や関数呼び出しを改善し、反復的または無限の出力の発生を減少させる。 このモデルは指示ファイン・チューニング施されており、テキスト処理性能、指示順守、会話支援、画像理解、マルチモーダル理解、高度な推論が向上しています。 エージェンシーアプリケーションをサポートするように構築されており、システムプロンプトへの準拠と、JSON出力生成機能付きのコール機能を備えています。
開始するための詳細情報は、ウェブサイト Mistral AI 上の 「 watsonx.ai 」ページをご覧ください。
- 使用法
- 会話エージェントや機能呼び出しに最適です。
- size
- 240億パラメータ
- API価格ティア
- 専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- サンプル・プロンプト
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):131,072
- 対応自然言語
- 英語、フランス語、ドイツ語、ギリシャ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、マレー語、ネパール語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、セルビア語、スペイン語、スウェーデン語、トルコ語、ウクライナ語、ベトナム語、アラビア語、ベンガル語、中国語、ペルシア語、その他多数。
- サポートされるプログラミング言語
- mistral-small-3-2-24b-instruct-2506 モデルは、 Python、Java、C、C++、 JavaScript,、Bash、Swift、 Fortran を含む80以上のプログラミング言語で訓練されています。
- インストラクション・チューニング情報
- mistral-small-3-2-24b-instruct-2506基盤モデルは、テキスト、コードベース、様々な分野の数学的データなど多様なデータセットで事前学習されています。
- モデル・アーキテクチャ
- デコーダのみ
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
mistral-small-3-1-24b-instruct-2503
Mistral Small 3.1 の基盤モデル、 Mistral AI によって開発された Mistral Small 3 を基に構築されており、テキスト性能を損なうことなく、視覚理解と長いコンテキスト機能を強化しています。 mistral-small-3-1-24b-instruct-2503、テキストパフォーマンス、指示フォロー、会話アシスト、画像理解、マルチモーダル理解、高度な推論がファイン・チューニングいる。 エージェンシーアプリケーションをサポートするように構築されており、システムプロンプトへの準拠と、JSON出力生成機能付きのコール機能を備えています。
さらに詳しいスタートアップ情報については、「Mistral AIウェブサイトのwatsonx.aiページを参照のこと。
- 使用法
会話エージェントや機能呼び出しに最適です。
- API価格ティア
価格の詳細は表3を参照。 専用利用の料金詳細については、 表5 およびデプロイ・オン・デマンド・モデルの時間課金料金を参照。
- 使用可能
- マルチテナント・ハードウェア上に配置された IBMが提供。
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):131,072
注。
- 最大新規トークン、つまり、リクエストごとに基盤モデルによって生成されるトークンは、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、ギリシャ語、ヒンディー語、インドネシア語、イタリア語、日本語、韓国語、マレー語、ネパール語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、セルビア語、スペイン語、スウェーデン語、トルコ語、ウクライナ語、ベトナム語、アラビア語、ベンガル語、中国語、ペルシャ語、その他多数の言語。
- サポートされるプログラミング言語
mistral-small-3-1-24b-instruct-2503 モデルは、 Python、Java、C、C++、 JavaScript, Bash、Swift、 Fortran を含む80以上のプログラミング言語で学習されている。
- インストラクション・チューニング情報
mistral-small-3-1-24b-instruct-2503 の基盤モデル、様々なドメインからのテキスト、コードベース、数学データなどの多様なデータセットで事前に訓練されている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mixtral-8x7b-base
mixtral-8x7b-base 基盤モデル Mistral AI によって提供されている。 The mixtral-8x7b-base foundation model is a generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。
- size
46.46.7億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mixtral-8x7b-instruct-v01
mixtral-8x7b-instruct-v01 基盤モデル Mistral AI によって提供されている。 The mixtral-8x7b-instruct-v01 foundation model is a pretrained generative sparse mixture-of-experts network that groups the model parameters, and then for each token chooses a subset of groups (referred to as 専門家) to process the token. その結果、各トークンは470億のパラメーターにアクセスできるが、推論に使用するアクティブパラメーターは130億にとどまり、コストとレイテンシーが削減される。
- 使用法
分類、要約、生成、コード作成と変換、言語翻訳など、多くのタスクに適しています。 モデルのコンテキストウィンドウが異常に大きいため、モデルにプロンプトを出す際には、max tokensパラメータを使ってトークンの上限を指定してください。
- size
46.46.7億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):32,768
注:最大新規トークン数、つまり、リクエストごとに基盤モデルによって生成されるトークン数は、16,384に制限されています。
- 対応自然言語
英語、フランス語、ドイツ語、イタリア語、スペイン語
- インストラクション・チューニング情報
Mixtral 基盤モデルはインターネットデータで事前学習済みです。 Mixtral 8x7B Instruction 基盤モデルは、指示に従うように微調整されています。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
mt0-xxl-13b
mt0-xxl-13b モデルは、 BigScience が Hugging Face で提供しています。 このモデルは、英語、英語以外の言語、多言語プロンプトを使用した言語生成および翻訳タスクをサポートするように最適化されている。
使用法:zero-または「few-shotプロンプトでの一般的な使用。 翻訳タスクの場合、翻訳してほしいテキストの終わりを示すピリオドを入れてください。
- size
- 130億パラメータ
- API価格ティア
- 価格の詳細は表5を参照。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- 以下のサンプルで実験してみよう:
- 対応自然言語
- 多言語
- トークン制限
- コンテキスト・ウィンドウの長さ(入力+出力):4,096
- 対応自然言語
- モデルは108言語の多言語データで事前学習され、46言語の多言語データで微調整され、多言語タスクを実行する。
- インストラクション・チューニング情報
- BigScienceはそのコードとデータセットの詳細を公表している。
- モデル・アーキテクチャ
- エンコーダー・デコーダー
- 使用許諾条件
- Apache 2.0ライセンス
- 詳細情報
- 以下の資料をお読みください:
pixtral-12b
Pixtral 12B は、 Mistral AI によって開発されたマルチモーダルモデルです。 pixtral-12b 基盤モデル、自然画像と文書の両方を理解するように訓練されており、自然な解像度と縦横比で画像を取り込むことができるため、画像処理に使用するトークンの数に柔軟性がある。 基盤モデル、長い文脈ウィンドウで複数のイメージをサポートします。 このモデルは、イメージ・イン、テキスト・アウトのマルチモーダルなタスクに効果的で、インストラクション・フォローに優れている。
- 使用法
図表の理解、文書に関する質問への回答、マルチモーダル推論、および指示に従うこと。
- size
120億パラメータ
- API価格ティア
- 専用利用の料金詳細については、 デプロイ・オン・デマンド・モデルの時間課金料金をご覧ください。
- 使用可能
- 専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):128,000
新しいトークン、つまりリクエストごとに財団モデルによって生成されるトークンの上限は、8,192個に制限されている。
- 対応自然言語
英語
- インストラクション・チューニング情報
pixtral-12bモデルは、インターリーブされた画像とテキストデータで学習され、ゼロから学習された4億パラメータのビジョンエンコーダを持つMistral Nemoモデルをベースにしている。
- モデル・アーキテクチャ
デコーダのみ
- 使用許諾条件
- 詳細情報
以下の資料をお読みください:
poro-34b-chat
Poro 34b チャットはチャットのユースケースをサポートするように設計されており、フィンランド語と英語の両方で指示に従うためのトレーニングが用意されています。 PoroはSilo AIが TurkuNLP、High Performance Language Technologies(HPLT)と共同で開発した。
- 使用法
チャットボットのようにダイアログ出力を生成するためにモデルを使用します。
- size
340億パラメータ
- API価格ティア
価格の詳細は表5を参照。
- 使用可能
専用にオンデマンドで展開。
- 試してみる
- トークン制限
コンテキスト・ウィンドウの長さ(入力+出力):2,048
- 対応自然言語
英語、フィンランド語
- インストラクション・チューニング情報
Poro-34b-Chat 英語とフィンランド語の両方の指示に従うデータセットを使用して、基本 Poro-34b モデルの教師ありファイン・チューニング (SFT) を通じて開発されました。
- モデル・アーキテクチャ
デコーダー
- 使用許諾条件
補償の上限に関する契約上の保護に関する情報を含む利用規約については、利用規約をご覧ください。
- 詳細情報
- 以下の資料をお読みください: