AIゲートウェイは、大規模言語モデル(LLM)やその他のAIサービスを含む人工知能(AI)ツールの連携、展開、管理をエンタープライズ環境で容易にする専用ミドルウェア・プラットフォームです。
AIサービスが社内で構築された独自のツールであるか、クラウド経由でアクセスされるサードパーティ・モデルとして導入されているかにかかわらず、ゲートウェイは、アプリケーションとAIモデルをつなぎ、エコシステム内のすべてのAIツールにガバナンスとセキュリティー・ポリシーを一貫して適用する、統一された軽量層を提供します。
従来のアプリケーション・プログラミング・インターフェース(API)ゲートウェイはクライアントとバックエンド・サービス間のデータ交換を可能にしますが、AIゲートウェイはAIワークロード固有の課題に対処するように設計されています。これらは、標準APIゲートウェイの機能を拡張して、マルチモデルのアクセスと統合、インテリジェントなAIワークロード・ルーティング、動的な負荷分散、トークン消費の追跡とレート制限、セキュリティー・ポリシーの適用などを行います。
エンタープライズAIワークロードでは、たとえば、特にディープラーニングや大規模モデルのトレーニングの場合、膨大な計算負荷をサポートできる高度なAIインフラストラクチャーが必要になることがあります。既存のエンタープライズ・システムでは、実稼働規模のAIモデルを管理するために企業が必要とする高帯域幅と低レイテンシーのアクセスを提供するのが困難な場合があります。
AIゲートウェイは、開発チームが複雑なAI駆動型アーキテクチャーをより簡単に管理できるようにします。これらは、AIベースのAPIを使用して、アプリケーションとAIシステム間のデータ、指示、ポリシーの流れを調整し、すべてのAIモデルのやり取りに統一されたエントリー・ポイントを提供します。この機能により、チームはモデルごとに個別のインターフェースに依存するのではなく、単一のペインからさまざまなモデルとAIワークフローの使用方法とアクセス方法を制御できます。
そのため、AIゲートウェイはAIモデル・エコシステムへのアクセスを簡素化するのに役立ちます。モデルの連携に伴う摩擦を軽減し、エンタープライズ規模のAI導入のための一元化されたガバナンス構造を構築するのに役立ちます。
AIゲートウェイは、AIシステムとエンドユーザー・アプリケーションの間のブリッジとして機能し、AIモデルのデプロイメントとガバナンスを一元化します。
電子商取引プラットフォーム上のカスタマー・サポート・ツールを想像してみてください。このツールは、大規模な言語モデル(ユーザーのクエリーに応答するため)、感情分析モデル(ユーザーの気分を判断するため)、および画像認識モデル(ユーザーがやり取りの間に送信する写真の添付ファイルを分析するため)を使用します。APIゲートウェイは、モデルとプラットフォームの間に配置され、バックエンド・タスクの完了を調整および簡素化します。
たとえば、ユーザーが購入の証拠として製品の画面を添付して購入クエリーを送信すると、アプリケーションはメッセージと写真をAIゲートウェイのエンドポイントに転送します。ゲートウェイは、テキスト部分をLLMに、製品の画面を画像認識モデルにルーティングして応答させます。また、メッセージを感情分析モデルに送信して、ユーザーが不満を感じているのか、怒っているのかを判断します。
その過程で、AIゲートウェイは、すべてのリクエストが確実に認証され、機密データや個人データが漏洩しないようにします。ゲートウェイは最終的に、各モデルの結果を標準化された形式でマージしてからクライアントに返します。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
AIゲートウェイはAIシステムとアプリケーションの間の橋渡しとして機能し、AIモデルのガバナンスを一元化し、断片化され一貫性のないガードレールの適用をチームが排除できるようにします。しかし、これらの機能を提供するために、AIゲートウェイは一連の機能を実行する必要があります。
次のようなものがあります。
AIゲートウェイは、複数のAIモデルとそれらを使用するアプリケーション間のシームレスな連携を可能にするために、統一された標準API形式を採用しています。基本的に、ゲートウェイはさまざまなAIプロバイダーの多様なモデルの連携を簡素化するのに役立ちます。正規定義により、AI APIを複数のベンダーにマッピングできるため、どのAIモデルやツールが導入されても、アプリケーションは常に一貫したAPIサーフェスで動作します。
AIゲートウェイは、入ってくるアプリケーション・リクエストをフィールド化し、プロトコル変換を自動化し、モデル・プロバイダーのAPI間の差異をマスクする中央制御プレーンを作成するので、開発者はクエリーを手動で再フォーマットする必要がありません。アクセス制御、オブザーバビリティー、コンプライアンス・プロトコル、使用状況の追跡、その他のモデル管理手法を一元化します。
モデル管理とオーケストレーションとは、同じ環境内に存在する複数のAIモデルの体系的な監視、調整、展開を指します。これらのプロセスには、エンドツーエンドのライフサイクル管理(バージョン管理、導入、ロールバック、更新などのタスクを含む)、リソース割り当て、エラー管理、スケーリングなどがあり、モデルが統合AIシステムの一部としてシームレスに連携できるよう支援します。
ゲートウェイがAIモデルのスムーズな提供と運用を促進するので、開発者は手動での導入や古いモデルについて心配する必要がありません。AIゲートウェイは、データ要求のルーティング、認証の管理、モデル、データ・ソース、アプリケーション全体でポリシーを適用する中央アクセス・ポイントとしても機能します。
たとえば、ゲートウェイは動的なモデル選択を可能にし、ユースケースやシステム条件に基づいてAIリクエストを自動的に選択し、最適なモデルにルーティングします。
AIゲートウェイは、AIモデルおよびそれらが処理するAI関連トラフィックのパフォーマンス、使用状況、健全性を継続的に追跡し、リアルタイムでの可視性を提供します。ゲートウェイは、リクエスト数、応答時間、エラー率、コストの累積などのメトリクスを、ユーザー単位やアプリケーション単位などの詳細レベルで監視します。
ゲートウェイはAIのトラフィック・ハブとして機能するので、複数のAIモデルやサービスの監視を統合し、システムのパフォーマンスの全体像を1つの場所(多くの場合、ダッシュボード)に集約できます。各AIの要求と応答の詳細なログ(プロンプト、モデル・アウトプット、期間、トークンの使用数など)を維持し、より迅速なトラブルシューティング、より徹底したコンプライアンス監査、より強力な説明責任対策を実現できるよう開発者を支援します。
さらに、AIゲートウェイは、オブザーバビリティー・ツール( OpenTelemetryなど)やセキュリティー・オーケストレーション、自動化、応答プラットフォームと連携して、問題発生時のアラートおよびインシデント検知ワークフローを自動化できます。
データ統合は、データベース、クラウド・プラットフォーム、アプリケーション、その他のシステムなど、さまざまなデータソースからデータを抽出、変換、ロードし、中央のデータウェアハウスやデータレイクに取り込むことで、フォーマットを標準化し、サイロを解消するプロセスです。
AIゲートウェイを使用すると、開発者はデータ・ソースを接続し、それらを統合されたパイプラインにマージして、予測分析やビジネス・インテリジェンスを実現できます。ゲートウェイを使用すると、構造化データと非構造化データの両方を準備してAIモデルにフィードし、受信要求を前処理してデータ形式を正規化し、より正確なモデル・トレーニングと推論生成が可能になります。
また、機械学習(ML) 機能を使用して、データフローを最適化し、異常を検知し、変化するデータ・パターンにパイプラインを適応させることもできます。
AIツールは、セキュリティーとコンプライアンスに重大なリスクをもたらすおそれがあります。AIゲートウェイは、ユーザー、アプリケーション、AIモデル間のすべてのデータ・トラフィックに対して、一元的なアクセス制御と自動化されたセキュリティー・ポリシーを提供することで、これらのリスクに対抗します。
AIゲートウェイは、APIキーなどのツールを使用して、ユーザー・プロファイルとネットワーク・アクティビティーを基にアクセスを制限することで、誰がどのデータまたはAIモデルにアクセスできるかを厳密に管理します。また、すべてのAI関連トラフィックはゲートウェイを通過する必要があります。
転送中および保存中の両方のデータに対して強力な暗号化プロトコルを適用し、不正アクセスや悪用リスクを最小限に抑えます。AIゲートウェイは、ディープ・パケット検査や検知などの機能を使用して、ネットワーク・アクティビティーをリアルタイムで監視し、悪意のあるアクティビティーを特定してブロックします。
AIゲートウェイはまた、企業が規制基準へのコンプライアンス維持を支援する複数の機能を備えています。ゲートウェイは、個人情報(PII)や機密データがモデルに到達する前や組織から離れる前に、そのデータを精査できます。また、ルールベースのフィルタリングとコンテンツ評価により、ゲートウェイは適切なデータのみがAIモデルによって確実に処理されるよう支援します。
AIとMLにおける推論とは、トレーニングされたAIモデルがパターンを認識し、これまでに見たことのない情報から結論を導き出す能力です。処理は、トレーニングされたAIモデルを導入して(AI APIやその他のインターフェースを使用して)公開することで、運用環境での推論の要求を処理できるようにするプロセスです。
AIゲートウェイは、モデル対応ルーティングを使用して、推論要求を適切なモデル・インスタンスに誘導します。この機能により、リアルタイム推論とバッチ推論の両方が可能になり、モデルが重要度に基づいてタスクの優先順位を付けられます。
スケーラブルなサービス提供を容易にするため、ゲートウェイはAIワークロードに合わせてカスタマイズ可能なロード・バランシングを提供します。これは、レイテンシーに敏感なアプリケーションや高スループットのアプリケーションに特に有用です。また、新しいモデルバージョンの段階的なロールアウトを管理し、微調整されたモデルを基盤サービスにマッピングすることで、更新やロールバックを容易にします。
これらの機能を使用することで、開発者はチャットボットから意思決定サポートに至るまで、数多くのアプリ機能に低遅延で信頼性の高いAIのアウトプットを出すことができます。
APIゲートウェイとAIゲートウェイはいずれも、クライアントとバックエンド・サービス間のトラフィックを管理するミドルウェア層ですが、目的、機能、扱うワークロードの種類には大きな違いがあります。
従来のAPIゲートウェイは、従来のAPIトラフィックを管理および保護するための単一のエントリー・ポイントとして機能する管理ツールです。トラフィック管理、ロギング、セキュリティーの実施、バージョン管理などの重要な横断的機能を実現し、APIの管理と拡張を容易にします。
APIゲートウェイはデータ要求をルーティングし、標準のWebまたはマイクロサービスAPIのすべての認証、承認、レート制限、キャッシュ、負荷分散、プロンプト管理、および基本的なセキュリティー・プロセスを処理します。また、サービス統合の責任も取り除かれるため、開発者は基盤となるネットワークやセキュリティー・インフラストラクチャーを管理しなくても、APIやマイクロサービスを公開できます。
AIゲートウェイは本質的に、AIモデルとサービスに特化したAPIゲートウェイです。AI要求フローを管理し、AIサービスの相互作用(要求の再試行やモデルのフォールバックなど)を調整します。これらは、AIワークロードおよびLLM、生成AI(生成AI)、AIエージェント、その他のAIシステムとのやり取りのための特別設計された制御層を提供します。
AIゲートウェイは、基本的なルーティングやセキュリティー機能に加え、プロンプトと応答の意味論的検査、マルチモーダル・トラフィック処理(テキスト、音声、画像)、動的なポリシー調整とコスト管理サービス、データ・マスキング(プライバシー遵守のため)など、高度な機能を提供します。
多くの最新のコンピューティング環境では、APIゲートウェイとAIゲートウェイの両方が使用されています。しかし、APIゲートウェイとは異なり、AIゲートウェイは、AI駆動のアプリケーション、ワークフロー、環境に固有のデータ管理、セキュリティー、オブザーバビリティー、およびコスト管理のニーズに対応するよう設計されています。
展開モデルとは、AIゲートウェイがさまざまなインフラストラクチャー設定でAIモデルとサービスを管理するさまざまな方法を指します。これらは、AIゲートウェイが実行される場所と、AIワークロードのトラフィック・ルーティング、セキュリティー、スケーリング、ガバナンスの処理方法に影響します。
展開モデルの例は次のとおりです。
グローバルに展開されているこのゲートウェイは、クラウド・プロバイダーのグローバル・インフラストラクチャーを使用して、データセンターまたはモデルのエンドポイントにデータ要求を動的にルーティングし、最良の可用性と最小のレイテンシーを実現します。
AIゲートウェイは、データ処理が地域的な境界内で行われ、地域のデータ・レジデンシーとプライバシー規制に準拠するように、特定のデータ・ゾーンまたは地理的領域に展開されます。
ゲートウェイは予約された処理能力で実行され、 AIモデル推論要求に対して高い予測可能なスループットを実現します。この展開アプローチは、大規模で一貫した需要があるワークロードに最適です。
AIゲートウェイは、適切なモデル・バックエンドに要求をルーティング、負荷分散し、変換することで、基盤となる展開の複雑さを除去し、さまざまなクラウドやベンダーによってホストされているAIモデルへの統一されたアクセスを可能にします。
小型で軽量のAIゲートウェイは、特定のアプリケーションまたはサービスとともに展開され、ネットワーク・ホップを削減し、サービスごとのカスタマイズ・ポリシーを可能にする分散型展開モデルを作成します。マイクロゲートウェイはマイクロサービス・アーキテクチャーで頻繁に使用されます。
2層ゲートウェイ展開では、主な中央ゲートウェイが特定のサービスまたはチームに近い追加のマイクロ・ゲートウェイと連携します。このアプローチにより、拡張性が向上し、トラフィックがローカライズされますが、メイン・ゲートウェイからの一元化されたポリシー制御とオブザーバビリティーは引き続き提供されます。
AIゲートウェイは、同じコンテナまたはポッド( Kubernetes環境)内のAIモデル・サービスとともにサイドカー・プロキシとして展開されます。サイドカー展開では、ゲートウェイをAIサービスと緊密に結合し、ルーティング、セキュリティー、監視をサービスごとにきめ細かく制御できます。
AIツールやサービスに依存することには、いくつかの重大なリスクが伴います。
AIツールは、外部ソースからのデータへのアクセス、ワークフローを展開し、アプリケーションやサービスとのやり取りをAPIに大きく依存しています。また、APIが連携されるたびに、攻撃者に侵入ポイントとなる可能性があります。AIベースの機能は、予測可能なAPIの使用パターンに必ずしも従うとは限らないため、独自データや機密データを意図せず公開し、攻撃対象領域を大幅に拡大する可能性があります。
実際、侵害された、または誤って構成された1つのAPIエンドポイントによって、複数のバックエンド・システムや機密データセットへのアクセスが許可され、サイバー犯罪者がアーキテクチャー内を横方向に移動して権限を昇格できるようになります。
さらに、ほとんどのAIツールはLLM(OpenAIのGPTモデルやAnthropicのClaudeモデルなど)上で実行されるため、LLMプロバイダーから脆弱性を引き継ぐ可能性があります。攻撃者が悪意のある命令をプロンプトや信頼できるデータソース(設定ファイル、ドキュメンテーション、サポート・チケットなど)に埋め込んだ場合、ツールがプロンプトを処理する際に、知らないうちに有害なアクションを実行してしまいかねません。
AIゲートウェイは、開発チームがこれらのリスクや課題に対処するのを支援します。これにより、次のことが可能になります。
AIゲートウェイ自体は新しいテクノロジーであり、開発者はその効果を最大化する新しい方法を見つけています。
たとえば、(自律走行車や正常性ケア機器に使用されるような)レイテンシーに敏感でデータがローカライズされたワークロードをサポートするために、開発者はネットワークのエッジでのAIゲートウェイの導入を選択するようになってきています。エッジ展開は、ローカル推論生成を可能にするエッジに最適化された軽量AIツールに依存しており、チームはシステムの応答性を維持しながら、クラウドサービスをエッジサーバーにオフロードできます。
セマンティック・キャッシングは、LLM搭載アプリケーションのレイテンシーの短縮、コストの削減、容量の拡張によりAIゲートウェイを改善します。正確な過去の応答のみを再利用する従来のキャッシングとは異なり、セマンティック・キャッシング・ツールは、埋め込みベクトルを使用してクエリーの背後にある意味を理解します。埋め込まれたベクトルにより、AIゲートウェイは意味的に類似した質問に対する応答を認識して再利用できるようになり(表現が異なっていても)、LLM API への冗長な呼び出しを回避して応答を高速化できます。
モデルのフェイルオーバーは、チームがAIゲートウェイのメリットを最大限に活用するのにも役立ちます。モデルのフェイルオーバー構成によって冗長性がもたらされるため、1つのモデルがダウンしたり、動作が遅くなったりしても、ゲートウェイはAI要求を効果的にルーティングし続けることができます。
プライマリーのAIモデルが利用できなくなったり、エラーを返した場合、AIゲートウェイはフェイルオーバー機能を使用して、トラフィックをバックアップ・モデルやセカンダリー・モデルに自動で切り替えることができます。このプロセスにより、1つのモデルの問題がエンドユーザー体験を妨げることを防ぎます。
AIゲートウェイは検索拡張生成(RAG)により、LLMを現在の外部情報源に接続できるよう支援するオーケストレーション層を提供します。RAGにより、LLMの固定トレーニング・データだけに依存するのではなく、モデルはまず外部の知識ベース、ドキュメント、データベースから関連するコンテキストを取得し、応答を生成する前にこのデータでLLMプロンプトを補強できるようになります。そのため、RAG対応AIゲートウェイは、モデルが静的なトレーニング・データと動的な知識の間のギャップを埋め、より正確で関連性の高い応答を生成できるよう支援します。
さらに、AIゲートウェイを使用すると、エージェント型AIツールの導入に関連するリスクを軽減できます。
AIエージェントは、LLM、自然言語処理(NLP)、MLを使用して、ユーザーや他のシステムに代わってワークフローを自律的に設計し、タスクを実行し、プロセスを実行します。これにより、エージェントが DevOps エンジニアやチームと協力して、人間がより迅速に目標を達成できるよう支援する、人間参加型の開発手法が実現します。ただし、エージェント型AIは、エージェント側の許可されていない、有害かもしれないアクションを通じて「シャドーAI」に加担し、サイバー犯罪者の攻撃対象領域を大幅に拡大する可能性もあります。
AIゲートウェイは、複雑で分散した展開全体でセキュリティー・プロトコル、データ・プライバシー制限、規制遵守を適用でき、AIエージェントのAPIアクセス、認証、承認プロセスの制御に役立ちます。また、AIゲートウェイはエージェント型AIをより観測しやすくするため、企業がエージェント型AIの導入によって生じるシャドーAIの問題や実行可能なコストを軽減するのにも役立ちます。
AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。
業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。