10億以下から340億パラメーターまで、Apache 2.0でオープンソース化された適切なモデルを選択できます。
費用のために性能を犠牲にする必要はありません。Graniteは、さまざまな企業タスクにおいて、同等のモデル1を上回る性能を提供します。
リスクと損害の検知機能、透明性、知的財産保護を包括的に兼ね備え、責任あるAIを構築できます。
エージェント型ワークフロー、RAG、テキスト要約、テキスト分析と抽出、分類、コンテンツ生成のために設計され、ベースおよび命令チューニングされた言語モデルに新たに推論機能が搭載されました。
文書や画像を理解するためのビジョン・タスクに特化した事前トレーニング済みモデルで、さまざまなファイル・タイプや解像度に対応し、企業環境での効率的なデプロイメントのために設計されています。
コードの生成、説明、編集などのコード生成タスク向けに設計されたデコーダー専用モデルで、116のプログラミング言語で記述されたコードでトレーニングされています。
軽量で、時系列forecasting用に事前トレーニングされており、さまざまなハードウェア構成で効率的に実行できるように最適化されています。
Granite GuardianでAIを保護し、エンタープライズ・データ・セキュリティーを確保し、さまざまなユーザー・プロンプトやLLM応答にわたるリスクを軽減し、15以上の安全性ベンチマークで最高のパフォーマンスを発揮します。
NASAとIBMは、膨大な衛星データやリモート・センシング・データを使用して、地球観測用のAI基盤モデルを共同開発しました。
ユーザーの意図をより深く理解し、問い合わせに対する情報や情報源の関連性を高めるように設計されています。
第三世代からマルチリンガルのモデルとなったGraniteは、バージョンを上げるごとに日本語性能を大幅に向上させてきました。Granite3.1の日本語性能は同じ8Bクラスのllama-3.1-8bを大きく上回り、さらに推論機能を導入した最新リリースのGranite3.2では、Granite3.1に追加の強化学習ステップを導入したことにより、日本語の性能を含めたその他の分野でもさらなる性能向上を実現しました。モデル全体としてだけでなく、thinking(推論)機能を使用したタスクにおける日本語性能についても、llama-3.1-8bを凌駕していたGranite3.1からさらなる向上を見せています。
Graniteに推論機能を適用することで、一般的なパフォーマンスと安全性はそのままに、複雑な指示に従う能力が大幅に向上しました。その一方で、同等のモデルではこれらの領域で能力低下が見られています。
Granite-3.2-8B-Instruct
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-7B
ArenaHard
55.23
| 17.17 |
10.36
Alpaca-Eval-2
61.16
21.85
15.35
IFEval
73.57
66.50
59.10
| MMLU |
66.93
45.80
50.72
| PopQA |
28.08
13.25
9.94
| TruthfulQA |
66.37
47.43
47.14
BigBenchHard
65.60
65.71
65.04
DROP
50.73
44.46
42.76
GSM8K
83.09
72.18
78.47
HumanEval
89.47
67.54
79.89
HumanEval+
86.88
62.91
78.43
AttaQ
85.99
42.87
42.45
* 表示されている価格は参考値であり、国によって異なる場合があり、適用される税金や関税は含まれておらず、地域で提供される製品の在庫状況によって異なります。
「CrushBank銀行では、IBMのオープンで効率的なAIモデルが、パフォーマンス、コスト効率、拡張性の適切なバランスを実現し、エンタープライズAIに真の価値をもたらす様子を目の当たりにしてきました。Granite 3.2では、新たに推論機能が搭載され、さらに性能が進化しました。当行では、新しいエージェント型ソリューションを開発する際に、これらの機能を活用できることを楽しみにしています」。
David Tan氏
CrushBank銀行
CTO
IBM DoclingとオープンソースのGranite 3.1を使用して、さまざまなファイル・タイプに対し、文書で質問応答を実行します。
質問に回答するAIエージェントを開発する方法をご覧ください。
このチュートリアルでは、IBM Granite-3.0-8B-Instructを使用します。カスタム関数呼び出しを実行するためのモデルがwatsonx.aiで利用できるようになりました。
事前トレーニング済みモデルを複数の方法で量子化して、モデルのサイズを表示し、タスクでのパフォーマンスを比較します。
GraniteのTinyTimeMixer(TTM)モデルを利用した学習に基づいて、将来を予測します。
テキストを構造化された表現に変換して、意味的に正しいSQLクエリーを生成します。
PythonでGraniteモデルをプロンプト・チューニングし、ポジティブおよびネガティブな顧客レビューを含む合成データ・セットを使用します
graniteのクックブック全体を見る
Red Hat Enterprise Linux AIとwatsonxを使用して、オープンソースのGraniteモデルでAIを自信を持って大規模に本番環境に導入できます。ツール呼び出し機能、12言語対応、思考連鎖推論、マルチモーダル・アダプターなどの機能を使用して、よりj迅速に組み込めます。
最新のGraniteモデルは、新たな推論機能、ビジョン・サポート・モデル、ワンランク上の効率性により、低コストで競争上の優位性を獲得できます
専門家の混合 - エピソード40では、パネルはDeepSeek R1の誤解を取り上げ、モデルの蒸留について説明し、オープンソースの競争状況のランドスケープを分析しています。
厳選されたAIトピック、トレンド、調査内容をメールで直接お届けします。
DeepSeek-R1は、数学やコーディングのタスクにおける特定のAIベンチマークにおいてOpenAIのo1と同様の性能を発揮するバーチャル・アシスタントで、トレーニングに使用されるチップの数がはるかに少なく、使用コストが約96%安価であると、DeepSeek社は説明しています。
IBMは、企業全体のイノベーションを推進するAIモデルの作成、導入、活用を、責任を持って行うことを重要視しています。IBMのAIとデータのプラットフォームwatsonxは、基盤モデルと生成AIの構築とテストのための、エンドツーエンドのプロセスを備えています。IBMが開発したモデルでは、重複を検索して削除し、URL不許可リスト、好ましくないコンテンツと文書の品質に関するフィルター、文章の分割、トークン化技術を採用し、すべてモデルが学習する前に実施します。
データの学習プロセスでは、モデル出力の不整合を防止し、教師ありの微調整を使用して、より適切な指示への追従を可能にし、モデルを使用してプロンプト・エンジニアリングによって企業タスクを完了できるようにします。IBMは、他のモダリティー、業界固有のコンテンツ、学習用の追加データの注釈など、さまざまな方向でGraniteモデルの開発を継続するとともに、IBMが開発したモデルに対して定期的かつ継続的なデータ保護措置を導入しています。
急速に変化する生成AIテクノロジーの状況を考慮すると、IBMのエンドツーエンドのプロセスは継続的に進化し、改善されることが期待されます。IBMは、基盤モデルの開発とテストに厳格に取り組んでいることの証として、IBMのハードウェア製品とソフトウェア製品に提供しているものと同様に、IBMが開発したモデルに対して標準の契約上の知的財産補償を提供しています。
さらに、他の一部の大規模言語モデルのプロバイダーとは異なり、補償に関するIBMの標準的なアプローチに一貫して、IBMは、IBMが開発したモデルを顧客が使用する場合、顧客にIBMを補償することを要求しません。また、IBMの補償義務に対するアプローチと一致して、IBMは、IBMが開発したモデルに対する補償責任に上限を設けません。
現在これらの規定下にあるwatsonxモデルは次のとおりです。
(1)エンコーダー専用モデルのSlateファミリー
(2)デコーダー専用モデルのGraniteファミリー
* 業界に合わせてカスタマイズされた小規模なAIモデルがより大きなメリットをもたらす仕組み
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html
1Performance of Granite models conducted by IBM Research against leading open models across both academic and enterprise benchmarks - https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models