成長するエージェントと停滞するエージェント

幾何学的な3D正方形と円のアイソメトリック図

あらゆる組織には問題解決者が必要です。ここでいうのは、自律的に行動し、非効率な企業にありがちな過剰な指示に煩わされず、行間を読み取ることができる自信を持ったオペレーターのことです。ソフトウェアがこの種の知能を示す場合「使える」と評価され、従業員であれば「できる」と表現されます。

それとは対照的に、行動や判断を後回しにし、決断が遅れがちなタイプもいます。多くの場合、情報が古かったり判断が遅れたりしてチームの作業を停滞させます。こうした状況では、オフィスで「自分でやるしかない」と思わず言いたくなることも珍しくありません。

このブログを読んでいる読者なら既にわかっていることかと思いますが、今後数年間で、何百万ものAIエージェントが構築・導入される見込みです。IBM Institute for Business Valueの調査によると、経営幹部の70%がエージェント型AIを今後の事業戦略で欠かせないと考えています。では、貴社が求めているのはどのタイプのエージェントでしょうか。問題を解決するエージェントでしょうか、それとも問題を生むエージェントでしょうか。

両者の違いは、よく知られた障害であるサイロにあります。パイロット運用の理想的な条件下では楽観的な判断をしやすいものの、企業全体で本番導入する段階になると、大企業特有の複雑さが進捗を妨げます。複雑に絡み合ったワークフロー、部分的なガバナンス、不統一なデータアクセスのせいで、すべてのエージェントで個別に対応が必要となってしまいます。本来、生産性を高めるはずだった仕組みがかえって大きな負担となるのです。これはAIの皮肉と呼べるでしょう。

エージェントを組織全体でスケールさせるには、すべてのエージェントを包括的に管理し、既存のツールと容易に連携できる一貫したガバナンス下に置く必要があります。管理がうまく機能すれば、プロセスは整い、サイロは解消され、AIの潜在能力が実際の成果につながります。しかし、管理だけではAI競争には勝てません。差を生むのはデータです。適切なデータがあれば、すべてのエージェント(POCテストケースだけでなく)がビジネスに精通し、自律的に行動できる信頼性を持つことができます。

結局のところ、一般的なデータからは一般的なAIしか生まれず、競合と同じ単調な結果しか得られません。さらに、データ管理が不十分な場合、AIは責任問題を引き起こす存在となり、人間よりも速く広くエラーを拡散させる可能性があります。

市場がAI向けのデータ準備の重要性を認識するまでに時間がかかり、この見落としが投資収益率(ROI)の不確定要素につながっています。この影響は、多くの組織がまだパイロット運用の段階にとどまっていることを示す統計にも表れています。実際、MITの報告によると、調査対象の組織のうちAIツールをワークフローに大規模に統合しているのはわずか5%に過ぎません。

データ再構築の大転換期

現在、多くの組織がデータ関連の取り組みに数十億ドルを投じることで、この状況は大きく改善されつつあります。IBM Institute for Business Valueの最新調査によると、2025年にはIT予算の約13%がデータ戦略に割り当てられており、2022年の4%から増加しています。同様に、調査対象の最高データ責任者の82%が、前年には存在しなかった役割の採用を進めていると報告しています。

目標はもちろん、AIに自社のビジネスを独自のものにする、信頼性の高い専有データを活用させることです。AIに対して自分自身や顧客が指示を出した際には、組織の目標や価値観、法規制に沿った、文脈に即した情報を返す必要があります。エージェント型AIでは、要求される水準はさらに高まります。エージェントを起動させ、自律的に意思決定を行い、明確な目標を追求させる場合、そのAIがビジネスや組織文化、すなわちデータを完全に理解していると信頼できることが不可欠です。

エージェントが成果を出すためには、高品質なデータが必要です。データ管理の専門家団体であるThe Data Management Associationは、高品質なデータを「正確で、完全、一貫性があり、適時、ユニークで有効なデータ」と定義づけています。さらにIBMは、第七のデータ品質指標として「均質性」を加えています。この指標は、異なる形式や種類のデータを統一して解釈可能にし、意味的な理解を高めるための品質基準です。

データ品質を維持することは容易ではありません。特にゼタバイト規模のデータ時代においては、手作業での品質保証は時間がかかり、ミスが起きやすく、また継続的な人材不足の中で必要な規模のデータ専門家を確保することも困難です。

組織は、データウェアハウスやデータレイク、統合ツールを積み重ねた不安定なデータスタックを構築することで、このギャップを埋めようとしてきました。しかし、パッチやダッシュボード、スクリプトを追加すると、さらに複雑さが増します。この場当たり的なアプローチは、技術的負債を常に、かつ予測不可能に増大させることが多くなります。IT担当者が単なる保守作業に追われると、イノベーションは後回しになり、生産性はデータ基盤の管理に浪費されてしまいます。

これからどこへ向かうのでしょうか。

強固なデータ基盤の構築

解決の鍵は、すべてのデータソースを連携・統合・管理するデータ層にあります。このデータ層は、組織の文脈や特徴を理解するAIエージェントにとっての情報源となります。この基盤があれば、エージェントは組織が信頼できる意思決定を下し、ワークフローの効率化、リスクの低減、生産性向上を実現できます。

メタデータはこのデータ層の「言語」です。メタデータによって、AIだけでなく分析やデータ・エンジニアリングといった従来型の処理でもデータが容易に活用できるようになります。しかし、手作業での分類は大量データには対応できません。自動タグ付けなら可能です。データを取り込む段階で自動的にタグ付けすることで、データの来歴や機密性、ビジネス上の意味を瞬時に整理できます。必要に応じて人が確認できる仕組みもあるため、リスクを抑えつつ、その後の検索やコンプライアンス対応などの作業を大幅に効率化できます。要するに、誰かが要求する前に、未加工の資産を管理されたコンテキスト付きの知識へと変換できるのです。

コンテキストによる影響力は甚大です。最終的には、より正確なAIと、より自信を持った意思決定につながります。しかし、適切な権限管理がなされていないデータは、資産ではなくリスクとなります。

アクセス権限はスプレッドシートに留めておくべきではありません。データとともに管理されるべきです。文書ストアからレイクハウス、さらにファイン・チューニング用のジョブへデータが移動する際には、権限も同時に引き継がれる必要があります。ポリシーが、個人の身元、役割、目的に応じて自動的に適用されると、適切な人が適切なタイミングで適切なデータにアクセスできるようになります。この仕組みにより、リスクを軽減し、偶発的な情報漏えいを防ぎ、コンプライアンス対応が場当たり的なものにならずに済みます。

強力なガバナンスは不可欠ですが、それだけでは十分ではありません。その下にあるアーキテクチャーが、管理体制が拡張できるか停滞するかを左右します。オープンかつハイブリッド設計は最適なアプローチです。多くの企業がすでに複数のクラウドやオンプレミス環境を横断しているためです。ストレージとコンピュートを分離すれば、高額な移行やそれに伴う業務中断を避けられます。Apache Icebergのようなオープンファイル形式により、アプリケーションとストレージを切り離し、データがどこにあってもツールが直接読み書きできるようになります。また、特定ベンダーのデータベースに依存することも防げます。柔軟性は「あれば尚よい」という特性ではなく、コストの暴走や優先度の変化に対応できない硬直したシステムに対する安全策です。実際、McKinsey社の調査によると、企業の4分の3が導入・保守コストの低減を理由に、今後数年間でオープンソースAI技術やオープンファイル形式の利用を増やす予定であると回答しています。

非構造化データは、もはや管理できない領域ではありません

非構造化データは依然として大きな未活用資産です。請求書、メール、ログ、画像、そしてこのブログでさえ、分析にほとんど活かされない貴重な洞察を秘めています。その理由は、システム間に散在し、互換性のない形式で保存され、整理されたラベルが付いていないためです。手作業での抽出は現実的ではありません。膨大な人的作業が必要で、ミスも発生しやすく、企業規模のデータ量には耐えられません。自動化こそが、企業レベルで秩序を実現する唯一の方法です。具体的には、エンティティーの特定、値の取得、ビジネスでの実際の表現や市場での見せ方を反映した意味情報の付加です。こうして、機械が処理でき、AIエージェントや人間も信頼できるスキーマが形成されます。

この豊富な情報を持つデータが、テキストからSQLへの変換、ベクトル検索、ハイブリッドクエリを組み合わせたリトリーバル層に流れ込むと、エージェントは推測をやめ、自信を持って推論し、行動できるようになります。一方、従来のRAGシステムは文脈理解に苦戦することが多く、エンタープライズ・グレードの推論には不向きです。統合的なアプローチを採用することで、エージェントは決定的に行動するために必要な深さと精度を得られます。

非構造化の混乱を構造化された明確さに変えることは出発点に過ぎません。実際に役立つのは知能です。それがなければ、最も整理されたデータであっても動かず眠ったままです。データ・インテリジェンスにより、すべての資産に来歴や変化の経緯、責任者といった物語が与えられます。カタログ化やリネージュは単なる整理作業ではなく、信頼の基盤です。品質スコアリングにより、エージェントが不安定な情報で推論することを防ぎます。定義が明確なデータプロダクトを公開することで、未加工のデータをチームが安心して利用できるサービスに変換できます。エージェントが数値を参照する場合、その出典はワンクリックで確認できるべきです。そして、定義が変更された場合は、次の意思決定が行われる前に、すべての依存システムが認識している必要があります。

しかし、知能だけでは不十分です。IBMの「2024年度版AIの活用」レポートによると、分断されたシステム間の統合を含むデータの複雑性は、AIを組織全体で活用できる状態にする上で最大の障壁のひとつであることがわかっています。データに依存するエージェントやその他のシステムには、一度きりではなく継続的な統合が欠かせません。統合によって、データは処理の過程で標準化され、価値が付加され、ガバナンスが適用され、利用可能な状態に整えられます。パイプラインは実行ごとに変化に対応し、データのズレから学び、パフォーマンス、コスト、品質の最適化を行う必要があります。オブザーバビリティーも重要です。統合状況が可視化され、適切に対応できる状態であれば、エージェントを含む下流のシステムが、見えないエラーや古いロジックを引き継ぐことはありません。

統合と知能が連携すると、結果は自然に感じられます。それは偶然ではなく、基盤となるアーキテクチャーが意図的だからです。データ基盤が資産を接続し、意味を付与し、すべての動作(エージェントの操作も含む)にガバナンスを適用することで、精度が向上し、自信を持った意思決定を促します。これにより、有望なデモを信頼できるシステムに変え、パイロット運用から本番運用への移行もスムーズに行えるのです。

Lou Foglia

Associate Creative Director

IBM

出典

1. From AI projects to profits: How agentic AI can sustain financial returns、IBM Institute for Business Value、2025年6月9日。

2. The GenAI Divide: State of AI in Business 2025、MIT Nanda、2025年7月。

3. The AI multiplier effect: Accelerate growth with decision-ready data、IBM Institute for Business Value、2025年12月。

4. The Six Primary Dimensions for Data Quality Assessment、DAMA United Kingdom、2013年10月。

5. Data quality dimensions、IBM、2025年10月17日。

6. Open source technology in the age of AI、McKinsey & Company、the Mozilla Foundation、the Patrick J. McGovern Foundation、2025年4月。

7. AI in Action 2024、IBM、2024年。

次のステップ

IBM® watsonx OrchestrateおよびIBM watsonx.data信頼できるデータを基盤にしたAIエージェントの構築を支援します。

watsonx Orchestrateの詳細はこちら watsonx.dataの詳細はこちら