AIエージェントは私たちの周りにたくさんいます。こうしたシステムは、限られた人間の介入で自律的にタスクを実行しますが、多くの場合、私たちがほとんど気付かない形でタスクを実行します。
自律走行車を考えてみましょう:自律走行車は周囲を感知し、状況を評価し、リアルタイムで瞬時に判断を下します。人々が乗り越えるのは、誰かが考えられるすべてのシナリオをハードコードするからではなく、シグナルを継続的に解釈し、環境の変化に合わせて適応するからです。
同じレベルのインテリジェンスをエンタープライズ・データ・プログラムに導入することを想像してみてください。数千のデータセット。何百万ものレコード。何十億ものデータ駆動型な意思決定が行われています。
エージェント型データ管理(ADM)が、このレベルのオーケストレーションを可能にします。AI搭載エージェントの意思決定機能を通じて、企業はデータの処理、管理、利用方法を改革し始めている。
IBMニュースレター
AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。
ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。
エージェント型データ管理では、AIエージェントを使用して企業全体のデータ・プログラムを調整および最適化します。1これには以下が含まれます。
厳格なワークフローに頼る代わりに、ADMは専門的なエージェントを用いてデータライフサイクルの各段階にインテリジェンスをもたらします。システムは意図を解釈し、関わるデータやポリシーを判断し、状況の変化に応じて自動的に運用を適応させます。
これらの機能の多くは、エージェント内部の推論レイヤーを提供する大規模言語モデル(LLM)によって実現されます。LLMは自然言語処理を使用して意図を解釈し、それを調整されたデータストラテジーに変換します。これは、ChatGPTやGoogle Geminiなどのツールがプロンプトを解釈する方法に似ています。メタデータ、データ・リネージュ、機械学習、ビジネスルールを活用して、どのデータが関連性があるか、どのように検証・管理されるべきか、どのように下流のアナリティクスに備えるべきかを決定します。
そこからエージェント型システムがデータ・タスクを完了するために必要な手順を説明します。これには、ソースへのアクセスやポリシーの適用、ワークロードの最適化、ストレージの動作の管理、そして最終的には信頼できる出力の作成が含まれる場合があります。
エージェント型データ管理が従来のデータ管理と異なる点は、自己適応型であり、コンテキストに基づいて進化することです。ワークフローを固定された成果物として扱うのではなく、シグナルから継続的に学習し、状況の変化に応じて調整します。
例えば、サプライチェーン・マネージャーは、「受信するフィードを監視し、重複レコードが発生したときに解決する」という指示を与えることができます。新しい注文が届くと、AI駆動型システムはその意図を解釈してリアルタイムで計画を適応させ、記録を統合し、不一致にフラグを立て、状況の変化に応じてエージェントに作業を委任します。
まだ新しいアプローチではありますが、組織はすでにADMを使用して、次のような方法でデータの信頼性と運用効率を向上させています。
企業は、これまで以上に多くのシステムでより多くのデータを生成しています。しかし、ボリュームが増加し、アーキテクチャーのハイブリッド化と分散化が進むにつれ、多くの組織は、複雑なデータを信頼できるリアルタイムの洞察に変えることに依然として苦労しています。実際、76%の企業が、データにアクセスするのが難しすぎるという理由で、データを参照せずに意思決定したことがあると認めています。
従来のデータ管理アプローチは、手動による人間の介入に大きく依存しており、スキーマの変更、メトリックの進化、または運用ロジックの変化に対する適応が遅くなります。エージェント型データ管理は、レガシーなアプローチでは対応できない体系的なプレッシャーに対応するため、勢いを増しています。
ハイブリッドクラウド、マルチクラウド、分散型データウェアハウスは、維持が困難な依存関係の連鎖を生み出します。データセットやアプリケーション・プログラミング・インターフェース(API)が日々進化する中で、手作業によるプロセスは拡張することが難しいです。
データの需要が爆発的に増加する中、中央集権的なデータチームは、依然として手作業による統合と配信に依存しているため、ペースを維持するのに苦労しており、組織全体の意思決定がますます遅くなっています。
最新のデータ・プログラムは、手動アプローチでは修正できない構造データの課題にも直面しています。50%以上の組織が3つ以上のデータ統合ツールに依存しており、断片化されたワークフローやチーム間で一貫性のないロジックを生み出しています。この断片化は、より広範な問題につながります。品質チェックが遅すぎたり、システム間でガバナンス・ルールがずれたり、リネージュの破損が検出されず、セマンティックな定義の同期が取れていなかったりします。現実には、77%の組織がこのような複雑性を管理する人材に欠けています。
こうしたプレッシャーはデータチームに直接影響を及ぼします。エンジニアは、データの問題の発見に時間の10~30%、その解決に残りの10~30%を費やしています。これは、エンジニア1人あたり年間770時間以上、または40,000米ドル以上の無駄な労働力に相当します。一方、アナリストやビジネスユーザーは、統合タスクがサイロ化されていたり、滞っていたりするため、必要なデータが得られるまで平均1~4週間も待たされます。
エージェント型データ管理は、企業がデータの正確性、品質、整合性を大規模に確保する方法の転換を意味する。組織は、すべての変換をスクリプト化したり、厳格なルールを維持したりするのではなく、AIエージェントを導入して、パイプライン作成を拡張し、データオペレーションを合理化し、ボトルネックを削減し、手動介入を大幅に削減しながら高品質のデータを維持できます。全体のライフサイクルにおいてより効率的なオペレーションと信頼できるデータを得られるため、データチームは作業のやり直しではなく、ストラテジーに集中できます。
エージェント・データ管理は4つのコア・コンポーネントを統合し、それぞれがAIモデル、エージェント、セマンティック・テクノロジーの調整されたレイヤーによって実現されます。
ユーザーがプロンプトまたはリクエストを提供すると、エージェントはその推論機能を使用して意図を解釈します。必要なデータ資産、ガバナンス・ルール、意味論的な考慮事項、検証、運用手順を概説した計画を策定します。他のエージェントは、この計画をそれぞれのドメインから評価し、アクションを開始する前に必要なモデル、ビジネス・ルール、リネージュ、依存関係、カタログメタデータを確認します。
このオーケストレーションにより、チームがデータライフサイクル全体にわたってプロセスを手動でつなぎ合わせる必要性が大幅に減り、分析用のデータまでの時間が短縮され、データ運用をビジネスの目的に合わせて調整できます。エージェントは、データ・ストラテジーとガバナンスのポリシーを提案された計画に直接組み込むことで、曖昧さを明らかにし、仮定を検証することもできます。
次に、AIエージェントが計画で定義された作業を行います。システム全体のデータにアクセスして解釈し、ガバナンスと品質チェックを適用し、ストレージの動作を管理し、データ処理を実行し、アウトプットをダウンストリームで使用できるように準備します。エージェントはまた、コストやレイテンシーを最適化し、システムが故障したときにオペレーションを適応させ、データエコシステム全体の依存関係をマッピングすることができます。
あまりにも多くの部分が移動している中、AIエージェントは、スキーマが進化したり、ワークロードがシフトしたりしても、データオペレーションの信頼性を維持できるよう支援します。データライフサイクル全体で反復する時間のかかるタスクを削減し、エンタープライズ・データ・イニシアチブの拡張性を向上させます。
従来のメタデータ・システムは、フィールド、形式、スキーマ定義を取得することで構造を記述します。対照的に、ベクトル・データベースはセマンティックレイヤーとして機能し、データ要素がどのように関連し、どのような文脈で使われるかを表現することで意味を捉えることができます。1つは形の輪郭を描きます。もう一方はその質感を明らかにします。
ベクトル・データベースは、メトリクス、データセット、ビジネス用語を数学的なベクトルとして表現する埋め込みを保管します。これにより、エージェント・システムは、スキーマが同じままの場合でも、類似性を測定し、意味論的関係を明らかにし、意味の変化を検知することができます。
セマンティック・レイヤーにより、次のことが可能になります。
効果的なガバナンスは、エージェント型データ管理の基盤です。これらのシステムは、手動レビューに頼るのではなく、データがライフサイクルを通じて動きのあるところを通って、ポリシー、品質、セキュリティー制御を継続的に適用します。実行中に検証ルールと整合性保護が適用され、企業データのエコシステム全体でアウトプットの正確性と信頼性が維持されます。
一部の組織では、パイプラインの動作と健全性をリアルタイムで監視する小規模な管理エージェントである軽量の「ガーディアン」エージェントをさらに導入して、オブザーバビリティーを維持し、下流のワークフローを損なう前に問題を表面化させます。この追加の監視により、自動化されたパイプラインの高速性と信頼性を維持し、企業のデータ管理標準に準拠させることができます。
これらのコンポーネントは、人間の意図、LLMベースのプランニング、AIによるオーケストレーションされた実行、継続的な検証を融合させた閉ループのワークフロー内で組み合わされます。典型的なやり取りは、次のようなものです。
しばしば競合するアプローチとして扱われますが、エージェントによるデータ管理は、実際にはマスターデータ管理(MDM)をよりダイナミックにすることで強化するものです。
MDMは、企業エンティティを定義し、ガバナンスルールを確立し、レコードシステム全体の一貫性を維持します。これにより、さまざまなソースからのデータを統合した、信頼できる唯一の情報源である「ゴールデン・レコード」の作成が可能になり、組織内の全員が同じ情報を使用して作業できるようになります。
ADMは、データの動きに応じて基盤を検証し、データプログラム全体に適用し、条件が変化したときに適応することで、これらの基盤を運用化します。
この2つのアプローチは、いくつかの重要な点で異なります。
MDMは、管理されたプロセスと定期的なスチュワードシップ・サイクルを通じて定義を更新します。ADMは、スキーマの更新や再定義されたメトリクスなどの変化をその都度検知し、ダウンストリーム・システムの整合性を維持するために再調整します。
MDMは、お客様、サプライヤー、製品などのキュレートされたドメイン内で権威ある記録を確立します。ADMはその責任をデータ・エコシステム全体に拡張し、その定義が運用システム、アプリケーション、分析環境全体で一貫して保たれるようにします。
MDMは保存データを管理し、マッチング、クレンジング、標準化を通じてレコードを最適化します。ADMは、移動中のデータを管理し、組織内のデータの流れにガードレール、リネージュチェック、セマンティック検証を適用します。
MDMはルールと人間による監視に依存しています。データ・スチュワードがマッピングを作成し、例外をレビューし、プロセスを更新します。ADMはインテント駆動型のオーケストレーションを使用します。インテリジェントなエージェントはビジネス目標を解釈し、計画を生成し、ワークフローを自律的に実行および検証します。
MDMはプロセスのペースで適応し、ガバナンス・ワークフローが完了した後にのみ変更を反映します。ADMは変化のペースで適応し、定義、データセット、ビジネス条件の進化に応じてロジックとパイプラインの動作を動的に調整します。
摩擦のないリアルタイムのビジネスの時代において、データ管理は、柔軟性に欠けたルールベースのワークフローから、適応性のある意図主導の行動へと移行しています。IBMの研究では、AI、データ準備状況、運用モデルに関する点で、この新しいデータ管理を形成する3つの大きな変化が指摘されています。
エージェント型AIは、静的なスクリプトから適応的でコンテキスト認識型の動作へとワークフローを動かします。パイプラインは、メタデータ、ビジネスルール、運用負荷、ガバナンスの制約の変化に対応し、状況が変化したときに中断するのではなく、実行パスを変更します。
このようなエージェント型アーキテクチャーでは、マルチエージェントシステムがモノリシックなプラットフォームに取って代わり、専門エージェントが取り込み、品質、リネージュ、最適化を処理し、監督エージェントが意図とポリシーの整合性を維持します。
エージェント型の運用モデルが成熟するにつれて、データエンジニアは手作業による変換から、自律システムの監視へと移行します。それはつまり、ガードレールを設計し、エージェントの意思決定を見直し、斬新なエッジが発生した場合にはそれを解決するということです。
このシフトにより、説明可能性がモデルの中核となります。推論トレース、監査可能なログ、ヒューマン・イン・ザ・ループのチェックポイントが、信頼性とコンプライアンスのために必要となります。
直感的なグラフィカル・インターフェースでスマートなストリーミング・データ・パイプラインを作成、管理できるため、ハイブリッド環境やマルチクラウド環境でのシームレスなデータ統合を促進します。
watsonx.dataを使用すると、オープンでハイブリッドな、管理されたデータ・ストアを通じて、データがどこに保存されていても、すべてのデータを使用して分析とAIを拡張できます。
IBM®コンサルティングと連携することで、企業データの価値を引き出し、ビジネス上の優位性をもたらす洞察を活用した組織を構築します。
1 「Can AI Autonomously Build, Operate and Use the Entire Data Stack?」IBM Research、2025年12月8日