大きいことが必ずしも良いとは限らない:ハイブリッドAIパターンが小規模言語モデルを実現する方法

複数の青、ピンク、紫の立方体

大規模言語モデル(LLM)が一般用語として定着するにつれ、人々はそれらにアクセスするアプリの利用方法を発見しています。最新の AI ツールは、生成、作成、要約、翻訳、分類、さらには会話まで行うことができます。生成AI分野のツールは、既存の成果物から学習した後、プロンプトへの応答を生成できます。

これまであまりイノベーションが見られなかった領域は、最先端領域と制約のあるデバイスです。一部のバージョンのAIアプリは、言語翻訳機能が組み込まれたモバイルデバイスでローカルに実行されていますが、LLMがクラウド・プロバイダー以外で価値を生み出す段階には達していません。

ただし、モバイルデバイス上の生成AI機能に革新をもたらす可能性のある小規模なモデルもあります。これらのソリューションをハイブリッドAIモデルの観点から検証してみましょう。

The DX Leaders

AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

ご登録いただきありがとうございます。

ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

LLMの基本

LLMは、この新しいパラダイムを強化する特別なクラスのAIモデルです。自然言語処理 (NLP) がこの機能を可能にします。LLM をトレーニングするために、開発者はインターネットを含むさまざまなソースからの膨大な量のデータを使用します。処理されるパラメーターの数は数十億に及びます。

LLMは幅広いトピックに精通していますが、その知識はトレーニングを受けたデータのみに限定されます。つまり、それらは必ずしも「最新」または正確ではないということです。LLMは規模が大きいため、通常はクラウドでホストされ、多数のGPUを搭載した強力なハードウェアのデプロイメントが必要になります。

つまり、プライベートまたは専有のビジネスデータから情報をマイニングしようとしている企業は、LLMをそのまま使用することはできません。特定の質問に答えたり、要約を作成したり、概要を作成したりするには、公開LLMにデータを組み込むか、独自のモデルを作成する必要があります。独自のデータをLLMに追加する方法は、検索拡張生成(RAGパターン)として知られています。これは、LLM に外部データを追加する生成AI設計パターンです。

AI Academy

ユースケースに適したAIモデルの選択

AIモデルに関しては、大きいほど良いというわけではありません。ここでは、お客様のビジネス・ニーズに適したモデルをどのように見つけるかを学習します。その後、ガイドブックを活用して、学習したことを実践にお役立てください。

小さいほど良いか?

通信会社、医療会社、石油・ガス会社など、特定の分野で事業を展開する企業は、明確な焦点を持っています。生成AI のシナリオとユースケースからメリットを享受することはできますが、より小規模なモデルの方が適しています。

たとえば、通信会社の場合、一般的な用途としては、コンタクト センターのAIアシスタント、サービス提供におけるパーソナライズされたオファー、顧客体験を強化するためのAI搭載チャットボットなどがあります。通信会社がネットワークの性能を向上させ、5Gネットワークのスペクトル効率を高め、ネットワーク内の特定のボトルネックを特定するのに役立つユースケースには、(パブリックLLMではなく)企業自身のデータが最適です。

ここで「小さい方が良い」という考えに至ります。現在、LLM と比較してサイズが「小さい」小規模言語モデル (SLM) が存在します。SLMは数百億のパラメーターでトレーニングされ、LLMは数千億のパラメーターでトレーニングされます。さらに重要なのは、SLMが特定のドメインに関連するデータでトレーニングされることです。広範なコンテキスト情報を持っていない場合もありますが、選択した領域では非常にうまく機能します。

これらのモデルはサイズが小さいため、クラウドではなく企業のデータセンターでホストすることもできます。SLMは1つのGPUチップ上で大規模に実行され、年間のコンピューティング・コストを数千ドル節約できることもあります。しかし、チップ設計の進歩により、クラウドでのみ実行可能なものと企業のデータセンターでのみ実行可能なものの区別は曖昧になってきています。

コスト、データ・プライバシー、データ主権のいずれの理由であっても、企業はこれらのSLMをデータセンターで実行したいと考えるかもしれません。ほとんどの企業は、データをクラウドに送信することを好みません。もう1つの重要な理由はパフォーマンスです。エッジの生成AIは、できるだけデータの近くで計算と推論を実行するため、クラウド・プロバイダーを介するよりも高速で安全です。

SLMは必要な計算能力が少なく、リソースに制約のある環境やモバイルデバイスへのデプロイメントにも理想的であることは注目に値します。

オンプレミスの例としては、LLMをホストするIBM Cloudへの安全な高速接続を備えた IBM Cloud® Satellite ロケーションが挙げられます。通信事業者は、これらの SLM を自社の基地局でホストし、自社のクライアントにもこのオプションを提供できます。これはすべてGPUの使用を最適化することにかかっており、データが移動しなければならない距離が減少することで、結果として帯域幅が向上します。

どこまで小さくできるか?

これらのモデルをモバイル・デバイス上で実行できるかどうかという最初の疑問に戻りましょう。モバイルデバイスとは、ハイエンドスマートフォン、自動車、さらにはロボットさえもを指す可能性があります。デバイスメーカーは、LLM を実行するにはかなりの帯域幅が必要であることを発見しました。Tiny LLMは、モバイルや医療機器上でローカルに実行できる小規模なモデルです。

開発者は、低ランク適応などの手法を使用して、これらのモデルを作成します。これにより、ユーザーはトレーニング可能なパラメータの数を比較的少なく抑えながら、独自の要件に合わせてモデルをファイン・チューニングできるようになります。実際、GitHubにはTinyLlamaプロジェクトもあります。

半導体メーカーは、画像拡散と知識蒸留を通じて軽量化された大規模言語モデル(LLM)を実行できるチップを開発しています。システム・オン・チップ(SOC)とニューロ・プロセシング・ユニット(NPU)は、エッジ・デバイスの生成AIタスクの実行を支援します。

これらのコンセプトの一部はまだ実用化されていませんが、ソリューションアーキテクトは現在何が可能なのかを検討する必要があります。SLMは、LLMと連携し、現実的なソリューションとなる可能性があります。企業は、既存の小規模で専門的なAIモデルを業界用に使用することも、パーソナライズされた顧客体験を提供するために独自のモデルを作成することもできます。

ハイブリッドAIがその答えとなるか

SLMをオンプレミスで実行することは実用的であり、モバイル・エッジ・デバイス上で動作する小規模なLLMも魅力的ですが、モデルがいくつかのプロンプトに応答するために大規模なデータコーパスを必要とする場合はどうしたらよいでしょうか。

ハイブリッドクラウド・コンピューティングは、両方の長所を提供します。AIモデルにも同じことが当てはまるでしょうか?

小規模なモデルでは不十分な場合、ハイブリッドAIモデルはパブリッククラウドでLLMにアクセスするオプションを提供できます。そのようなテクノロジーを有効にすることは理にかなっています。これにより、企業はドメイン固有のSLMを使用して自社のデータを安全に保ち、必要に応じてパブリッククラウド内のLLMにアクセスできるようになります。SOCを搭載したモバイル・デバイスの機能が向上するにつれて、これが生成AIワークロードを分散するより効率的な方法であると思われます。

IBM®は最近、オープンソースの Mistral AI モデルがwatson™プラットフォーム上で利用可能になったと発表しました。このコンパクトなLLMは、実行に必要なリソースは少なくて済みますが、従来のLLMと比べて効果が高く、性能も優れています。IBMはまた、高度に厳選された信頼できる基盤モデル・ファミリーの一部として、 Granite 7Bモデルをリリースしました。

私たちの主張は、企業は(複数のプロバイダーから簡単にアクセスできる独自の汎用LLMを構築するのではなく)コアコンピテンシーを差別化し、データからの洞察を活用するために、社内の企業データを使用して小規模なドメイン固有のモデルを構築することに重点を置くべきだということです。

大きければ良いというものではない

通信会社は、このハイブリッドAIモデルを採用することでメリットが得られる企業の代表的な例です。消費者でも提供者でもあるため、ユニークな役割を担っています。同様のシナリオは、医療、石油掘削会社、物流会社、その他の業種にも当てはまる可能性があります。通信事業者は生成生成AIを有効活用する準備ができているのでしょうか?彼らが大量のデータを持っていることはわかっていますが、そのデータに適合する時系列モデルを持っているでしょうか?

AIモデルに関しては、IBMはそれぞれのユースケースに対応するためのマルチモデル戦略を採用しています。特殊なモデルは、インフラストラクチャー要件が低い汎用モデルよりも優れたパフォーマンスを発揮するため、大きいほど良いというわけではありません。

 

著者

Ashok Iyengar

Executive Cloud Architect

Praneet Adusumilli

Distributed Infrastructure and Network Management Research

Master Inventor

関連ソリューション
基盤モデル

watsonxプラットフォームにある基盤モデルのIBMライブラリーを探索し、ビジネスに合わせて自信を持って生成AIを拡張します。

watsonx.aiをご覧ください。
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

ビジネスに合わせて生成AIを確実に拡張できるように、IBM watsonxプラットフォームにあるIBMライブラリーの基盤モデルの詳細を学びましょう。

watsonx.aiをご覧ください。 IBM Granite AIモデルの詳細はこちら