IBM watsonxモデルは、エンタープライズ向けに設計され、ビジネス分野とユースケースに合わせて最適化されています。AIスタジオであるIBM® watsonx.aiを通じて、IBMが開発した費用対効果の高いエンタープライズ・グレードの基盤モデル、オープンソース・モデル、およびサードパーティーのプロバイダーが供給するモデルを使用可能にすることで、お客様やパートナーが人工知能(AI)を最小限のリスクで、より迅速に拡張して運用できるように支援します。ワークロードが存在する場所に、オンプレミスとハイブリッドクラウドのいずれの環境にもAIモデルをデプロイできます。
IBMは、エンタープライズ・グレードの基盤モデルを提供するために、差別化されたアプローチを採用しています。
IBM watsonx基盤モデル・ライブラリーでは、企業独自モデル、オープンソース・モデル、サード・パーティー・モデルのライブラリーから、貴社のビジネス・ニーズや地域の利益、リスク・プロファイルに最も適したモデルを柔軟に選択できます。
IBM Graniteは、デコーダーのみのTransformerアーキテクチャーに基づく大規模な言語基盤モデルの主力シリーズです。 Graniteの言語モデルは、インターネット、教育機関、各種規定、法律、金融にまたがり信頼性の高いエンタープライズ・データでトレーニングされています。
これらのモデルは、コンテンツの生成、要約、分類、インサイトの抽出、検索拡張生成(RAG)などの一般的なユースケース全体で一貫したパフォーマンスの向上を実現します。
IBM watsonx.aiに導入されている、IBMが開発しオープンソース化した埋め込みモデルを使用して検索拡張生成、セマンティック検索、文書比較のタスクを実行します。
10億以下から340億パラメーターまで、Apache 2.0でオープンソース化された適切なモデルを選択できます。
コストのためにパフォーマンスを犠牲にする必要はありません。Graniteの性能は、企業向けのさまざまなタスクで同等モデルを上回っています。
リスクと損害の検知機能、透明性、知的財産の保護を包括的に兼ね備え、責任あるAIを構築できます。
ニーズに最適な生成基盤モデルを選択してください。 用途に適したモデルの候補を選択したら、プロンプト・エンジニアリング手法を使用してモデルを体系的にテストし、どのモデルが一貫して望ましい成果を返すかを確認します。
granite-3-2b-instruct (v3.1)
IBM
Q&A、要約、分類、生成、抽出、RAG、コーディング・タスクをサポートします。
128k
0.10
granite-3-8b-instruct (v3.1)
IBM
Q&A、要約、分類、生成、抽出、RAG、コーディング・タスクをサポートします。
128k
0.20
granite-guardian-3-8b (v3.1)
IBM
HAP/PII、ジェイルブレイク、バイアス、暴力、その他の有害なコンテンツの検出をサポートします。
128k
0.20
granite-guardian-3-2b (v3.1)
IBM
HAP/PII、ジェイルブレイク、バイアス、暴力、その他の有害なコンテンツの検出をサポートします。
128k
0.10
granite-20b-multilingual
IBM
Q&A、要約、分類、生成、抽出、翻訳、RAGタスクをフランス語、ドイツ語、ポルトガル語、スペイン語、英語でサポートします。
8192
0.60
Granite.13b.chat
IBM
Q&A、要約、分類、生成、抽出、RAGタスクをサポートします。
8192
0.60
Granite.13b.instruct
IBM
Q&A、要約、分類、生成、抽出、RAGタスクをサポートします。
8192
0.60
granite-34b-code-instruct
IBM
自然言語プロンプトからコードを生成、説明、翻訳することによる、コードに適したタスク固有モデルです。
8192
0.60
granite-20b-code-instruct
IBM
自然言語プロンプトからコードを生成、説明、翻訳することによる、コードに適したタスク固有モデルです。
8192
0.60
granite-8b-code-instruct
IBM
自然言語プロンプトからコードを生成、説明、翻訳することによる、コードに適したタスク固有モデルです。
128k
0.60
granite-3b-code-instruct
IBM
自然言語プロンプトからコードを生成、説明、翻訳することによる、コードに適したタスク固有モデルです。
128k
0.60
granite-8b-japanese
IBM
Q&A、要約、分類、生成、抽出、翻訳、RAGタスクを日本語でサポートします。
4096
0.60
llama-3-3-70b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語でサポートします。
128k
0.71
llama-3-2-90b-vision-instruct
メタ
画像キャプション、手書きを含む画像からテキストへの文字起こし(OCR)、データの抽出と処理、コンテキストQ&A、オブジェクト識別をサポートします
128k
2.00
llama-3-2-11b-vision-instruct
メタ
画像キャプション、手書きを含む画像からテキストへの文字起こし(OCR)、データの抽出と処理、コンテキストQ&A、オブジェクト識別をサポートします
128k
0.35
llama-guard-3-11b-vision
メタ
画像フィルタリング、HAP/PII検知、有害なコンテンツ検知をサポートします
128k
0.35
llama-3-2-1b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語でサポートします。
128k
0.10
llama-3-2-3b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンディー語、スペイン語、タイ語でサポートします。
128k
0.15
llama-3-405b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンズー語、スペイン語、タイ語でサポートします。
128k
インプット:5.00/アウトプット:16.00
llama-3-1-70b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンズー語、スペイン語、タイ語でサポートします。
128k
1.80
llama-3-1-8b-instruct
メタ
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAGタスクを英語、ドイツ語、フランス語、イタリア語、ポルトガル語、ヒンズー語、スペイン語、タイ語でサポートします。
128k
0.60
llama-3-8b-instruct
メタ
8192
0.60
llama-3-70b-instruct
メタ
RAG、生成、要約、分類、Q&A、抽出、翻訳、コード生成タスクをサポートします。
8192
1.80
allam-1-13b-instruct
SDAIA
Q&A、要約、分類、生成、抽出、RAG、翻訳をアラビア語でのサポートします。
4096
1.80
codellama-34b-instruct
メタ
自然言語プロンプトからコードを生成および翻訳することによる、コードに適したタスク固有モデルです。
16384
1.80
pixtral-12b
Mistral AI
画像キャプション、手書きを含む画像からテキストへの文字起こし(OCR)、データの抽出と処理、コンテキストQ&A、オブジェクト識別をサポートします
128k
0.35
mistral-large-2
Mistral AI
Q&A、要約、生成、コーディング、分類、抽出、翻訳、RAG タスクを英語、フランス語、ドイツ語、イタリア語、スペイン語でサポートします。
128k*
インプット:3.00/アウトプット:10.00
Mistral-Small-24B-Instruct-2501
Mistral AI
数十言語で翻訳タスク、エージェント・ワークフロー、RAGなどをサポートすることで、応答時間を短縮しています。
32768
0.35
mixtral-8x7b-instruct
Mistral AI
Q&A、要約、分類、生成、抽出、RAG、コード生成タスクをサポートします。
32768
0.60
jais-13b-chat(アラビア語)
core42
Q&A、要約、分類、生成、抽出、翻訳タスクをアラビア語でサポートします。
2048
1.80
flan-t5-xl-3b
Q&A、要約、分類、生成、抽出、RAGタスクをサポートします。プロンプト・チューニングでご利用いただけます。
4096
0.60
flan-t5-xxl-11b
Q&A、要約、分類、生成、抽出、RAGタスクをサポートします。
4096
1.80
flan-ul2-20b
Q&A、要約、分類、生成、抽出、RAGタスクをサポートします。
4096
5.00
elyza-japanese-llama-2-7b-instruct
ELYZA
Q&A、要約、RAG、分類、生成、抽出、翻訳タスクをサポートします。
4096
1.80
* 表示されている価格は参考値であり、国によって異なる場合があり、適用される税金や関税は含まれておらず、地域で提供される製品の在庫状況によって異なります。
granite-embedding-107m-multilingual
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
granite-embedding-278m-multilingual
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
slate-125m-english-rtrvr-v2
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
slate-125m-english-rtrvr
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
slate-30m-english-rtrvr-v2
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
slate-30m-english-rtrvr
IBM
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
all-mini-l6-v2
Microsoft社
検索拡張生成、セマンティック検索、文書比較タスク。
256
0.10
all-minilm-l12-v2
OS-NLP-CV
検索拡張生成、セマンティック検索、文書比較タスク。
256
0.10
multilingual-e5-large
Intel社
検索拡張生成、セマンティック検索、文書比較タスク。
512
0.10
* 表示されている価格は参考値であり、国によって異なる場合があり、適用される税金や関税は含まれておらず、地域で提供される製品の在庫状況によって異なります。
IBMは、企業全体のイノベーションを推進するAIモデルの作成、導入、活用を、責任を持って行うことを重要視しています。IBM watsonx AIポートフォリオは、基盤モデルと生成AIの構築とテストのための、エンドツーエンドのプロセスを備えています。IBMが開発したモデルでは、重複を検索して削除し、URL不許可リスト、好ましくないコンテンツと文書の品質に関するフィルター、文章の分割、トークン化技術を採用し、すべてモデルが学習する前に実施します。
データの学習プロセスでは、モデル出力の不整合を防止し、教師ありの微調整を使用して、より適切な指示への追従を可能にし、モデルを使用してプロンプト・エンジニアリングによって企業タスクを完了できるようにします。IBMは、他のモダリティー、業界固有のコンテンツ、学習用の追加データの注釈など、さまざまな方向でGraniteモデルの開発を継続するとともに、IBMが開発したモデルに対して定期的かつ継続的なデータ保護措置を導入しています。
急速に変化する生成AIテクノロジーの状況を考慮すると、IBMのエンドツーエンドのプロセスは継続的に進化し、改善されることが期待されます。IBMは、基盤モデルの開発とテストに厳格に取り組んでいることの証として、IBMのハードウェア製品とソフトウェア製品に提供しているものと同様に、IBMが開発したモデルに対して標準の契約上の知的財産補償を提供しています。
さらに、他の一部の大規模言語モデルのプロバイダーとは異なり、補償に関するIBMの標準的なアプローチに一貫して、IBMは、IBMが開発したモデルを顧客が使用する場合、顧客にIBMを補償することを要求しません。また、IBMの補償義務に対するアプローチと一致して、IBMは、IBMが開発したモデルに対する補償責任に上限を設けません。
現在これらの規定下にあるwatsonxモデルは次のとおりです。
(1)エンコーダー専用モデルのSlateファミリー
(2)デコーダー専用モデルのGraniteファミリー
*モデルプロバイダーによってサポートされているコンテキストの長さですが、プラットフォーム上の実際のコンテキストの長さは制限されています。詳しくは資料をご覧ください。
推論はリソース単位で課金されます。1リソース単位は 1,000トークンです。入力トークンと完了トークンは同じ料金です。1,000トークンは通常、約750ワードです。
すべてのモデルがすべての地域で利用できるわけではありません。詳細については、資料を参照してください。
コンテキストの長さはトークンで表されます。
IBMの計画、方向性、意図は、IBMの裁量により、予告なく変更または撤回される場合があります。詳しくは料金体系をご覧ください。ソフトウェアの料金体系で特に明記がない限り、すべての機能、性能、潜在的な更新は、SaaSのみを対象とします。IBMは、SaaSとソフトウェアの機能や性能が同じであることを表明するものではありません。