AIエージェントとは

2024年7月3日

共同執筆者

Anna Gutowska

AI Engineer, Developer Advocate

IBM

AIエージェントとは

人工知能(AI)エージェントとは、ワークフローを設計し、利用可能なツールを活用することで、ユーザーまたは別のシステムに代わってタスクを自律的に実行できるシステムまたはプログラムです。

AIエージェントは、意思決定、問題解決、外部環境とのやり取り、アクションの実行など、自然言語処理以外の幅広い機能を備えることができます。

AIエージェントは、さまざまなアプリケーションに展開可能で、ソフトウェア設計やITタスクの自動化からコード生成ツールや対話型アシスタントに至るまで、企業のさまざまな文脈における複雑なタスクを解決します。大規模言語モデル(LLM)の高度な自然言語処理技術を活用して、ユーザーの入力を段階的に理解・対応し、外部ツールを呼び出すタイミングを判断します。

AIアシスタントからAIエージェントへ

AIエージェントは、従来のAIアシスタントから一歩進んだAI技術として注目を集めています。

AIアシスタント(下図の「従来型のアシスタント」を参照)は、ユーザーの指示に従って単一のタスクをこなします。ルール・ベース型であり、どのようなインプットに対しどのようなアクションを行うかは事前に定義されています。例えば、チャットボットのように、1つの要求に対して1つの情報を取得したり、簡単な作業を行う反応的な働き方をします。

一方でAIエージェント(下図の「シングルエージェントのアシスタント」を参照)は、AIアシスタントより高度なソリューションであり、タスク・ベースで動作します。ユーザーの指示に単に従うのではなく、複数のステップを必要とするタスクについて、どのような作業を実行すればよいかを自律的に計画し、目標達成に向けプロアクティブに行動します。また、問題があれば解決するために自ら修正を加えながら進めます。

将来的には、複数のエージェントが相互的にやり取りをし、ユーザーのインプットに対し最適なタスクを定義し、結果を返していくあり方が期待されています(下図の「マルチエージェントのアシスタント」を参照)。

 

AIエージェントの仕組み

AI エージェントの中核となるのは、大規模言語モデル(LLM)です。このため、AIエージェントは、LLMエージェントとも呼ばれます。IBM® Granite™モデルなどの従来のLLMは、トレーニングに使用したデータに基づいて応答を生成し、知識と推論の制限によって制約されます。対照的に、エージェント・テクノロジーは、バックエンドでツールを呼び出すことで最新の情報を取得し、ワークフローを最適化し、サブタスクを自律的に作成することで、複雑な目標を達成します。

このプロセスにおいて、自律型エージェントは時間の経過とともにユーザーの期待に適応することを学習します。エージェントが過去のやりとりを記憶し、将来のアクションを計画する能力は、パーソナライズされた体験と包括的な対応を促進します。

1このツール呼び出しは、人間の介入なしで実行できるため、AIシステムを実世界で応用できる可能性が広がります。ユーザーが設定した目標を達成するためにAIエージェントが採用するアプローチは、次の3段階で構成されています:

  1. 目標の初期化と計画
  2. 利用可能なツールを使用した推論
  3. 学習と反省

 

        目標の初期化と計画

        AIエージェントは意思決定プロセスにおいて自律的ではありますが、人間が定義した目標と環境を必要とします。2 自律エージェントの動作を決定するのは、主に次の3つのグループです。

        • エージェントAIシステムを設計し、トレーニングを行う開発者チーム
        • エージェントを展開し、ユーザーにエージェントへのアクセスを提供するチーム
        • 達成すべき特定の目標をAIエージェントに提供し、使用できるツールを確立するユーザー

        ユーザーの目標とエージェントが利用可能なツールが与えられると、AIエージェントはタスクを分解してパフォーマンスを向上させます。3 基本的に、エージェントは、複雑な目標を達成するための特定のタスクとサブタスクの計画を作成します。

        単純なタスクの場合、計画は必須のステップではありません。その場合、エージェントは応答を繰り返し反映し、次のステップを計画することなく改善できます。

        利用可能なツールを使用した推論

        AIエージェントは、知覚した情報に基づいて動作します。多くの場合、AIエージェントは、複雑な目標内のすべてのサブタスクに対処するために必要な完全な知識ベースを持っていません。これを改善するために、AIエージェントは利用可能なツールを使用します。これらのツールには、外部データセット、Web検索、API、さらにはその他のエージェントが含まれます。これらのツールから欠落している情報を取得できたら、エージェントはナレッジベースを更新できます。これは、エージェントが行動計画を再評価し、自己修正することを意味します。

        このプロセスを説明するために、休暇を計画しているユーザーを想像してみます。ユーザーは、AIエージェントに、来年のどの週がギリシャでサーフィンをするのに最適な天候になる可能性が高いかを予測するというタスクを与えます。エージェントの中核となるLLMモデルは、気象パターンに特化していないため、過去数年間のギリシャの日次気象報告の外部データベースから情報を収集します。

        新しい情報を取得したにもかかわらず、エージェントはまだサーフィンに最適な気象条件を決定できないため、次のサブタスクを作成します。このサブタスクでは、エージェントはサーフィンに特化した外部エージェントと通信します。その際に、エージェントが高潮と雨のほとんどない、晴れた天候が最高の条件であることを学習したとします。

        エージェントは、ツールから学習した情報を組み合わせてパターンを特定できるようになりました。このツールによって、ギリシャの来年のどの週に高潮が発生し、天候が良くなり、雨になる可能性が低いか予測できます。その後、この調査結果がユーザーに表示されます。このようにツール間で情報を共有することで、AIエージェントは従来のAIモデルよりも汎用性を高めることができます。3

        学習と反省

        AIエージェントは、他のAIエージェントやヒューマン・イン・ザ・ループ(HITL)のようなフィードバック機構を通じて、回答の精度を向上させます。先ほどの前のサーフィンの例に戻りましょう。エージェントがユーザーへの応答を生成した後で、エージェントは学習した情報をユーザーのフィードバックとともに保存し、パフォーマンスを向上させて、将来の目標のためにユーザーの好みに合わせて調整します。

        目標を達成するために他のエージェントが使用された場合は、そのフィードバックも考慮される場合があります。マルチエージェント・フィードバックは、人間のユーザーが指示を与えるのに費やす時間を最小限に抑えるのに役立ちます。ユーザーは、エージェントの動作や内部状態の推測からフィードバックを提供して、結果を意図した目標とさらに一致させることもできます。2

        フィードバック機構は、AIエージェントの推論と精度を向上させるもので、一般に反復的改良と呼ばれています。3 同じ間違いを繰り返さないようにするために、AIエージェントは過去の障害の解決策に関するデータを知識ベースに保存することもできます。

        The DX Leaders

        AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。登録の際はIBMプライバシー・ステートメントをご覧ください。

        ご登録いただきありがとうございます。

        ニュースレターは日本語で配信されます。すべてのニュースレターに登録解除リンクがあります。サブスクリプションの管理や解除はこちらから。詳しくはIBMプライバシー・ステートメントをご覧ください。

        エージェント型AIチャットボットと非エージェント型AIチャットボット

        AIチャットボットは、自然言語処理(NLP)などの対話型AI技術を活用して、ユーザーの質問を理解し、応答を自動化します。これらのチャットボットはモダリティーであり、エージェントは技術的フレームワークです。

        非エージェントAIチャットボットとは、利用可能なツール、メモリ、推論のないチャットボットです。短期的な目標しか達成できず、事前に計画を立てることができません。広く知られているように、非エージェント・チャットボットは、応答するためにユーザーからの継続的な入力を必要とします。一般的なプロンプトに対する回答は、ユーザーの期待に沿うものである可能性が高いですが、ユーザーとそのデータに固有の質問に対しては、期待する結果は得られません。このようなチャットボットは記憶を持っていないため、応答が満足のいくものでなかった場合に、失敗から学ぶことができません。

        対照的に、エージェント型AIチャットボットは、時間の経過とともにユーザーの期待に適応することを学習し、よりパーソナライズされたエクスペリエンスと包括的な応答を提供します。人間の介入なしにサブタスクを作成し、さまざまな計画を検討することで、複雑なタスクを遂行することができます。必要に応じて、計画を自己修正および更新することもできます。エージェント型AIチャットボットは、非エージェント型とは異なり、ツールの評価を行い、利用可能なリソースを使用して情報のギャップを埋めます。

        オフィスでミーティングをするビジネスチーム

        IBMお客様事例

        お客様のビジネス課題(顧客満足度の向上、営業力強化、コスト削減、業務改善、セキュリティー強化、システム運用管理の改善、グローバル展開、社会貢献など)を解決した多岐にわたる事例のご紹介です。

        推論パラダイム

        AIエージェントを構築するための単一の標準アーキテクチャーはありません。複数ステップの問題を解決するためのパラダイムがいくつかあります。

        ReAct(推論とアクション)

        このパラダイムでは、エージェントに「考えさせて」、各アクションの実行後、ツールの応答ごとに計画を立てて、次に使用するツールを決定するように指示できます。この「Think-Act-Observe」ループは、問題を段階的に解決し、応答を繰り返し改善するために使用されます。

        プロンプト構造により、エージェントにゆっくりと推論させて、それぞれの「思考」を表示するように指示できます。4  エージェントの言語的推論により、応答がどのように作られるかについての洞察が得られます。このフレームワークでは、エージェントは新しい推論に基づいて文脈を継続的に更新します。これは、思考の連鎖プロンプトの一種として解釈できます。

        ReWOO(観察なしの推論)

        ReWOOは、ReActとは異なり、アクション・プランニングのツール出力への依存を排除し、エージェントは事前に計画を立てます。ユーザーから最初のプロンプトを受け取った時に、どのツールを使用するかを予測することで、ツールを重複して使用することを回避できます。実行前にユーザーが計画を確認できるため、人間中心の観点からは望ましいことです。

        ReWOOのワークフローは、3つのモジュールで構成されています。計画モジュールでは、エージェントはユーザーのプロンプトに基づいて次のステップを予測します。次の段階では、これらのツールを呼び出すことで、生成されたアウトプットの収集が必要になります。最後に、エージェントは初期計画とツールの出力を組み合わせて、応答を生成します。このように事前に計画を立てることで、トークンの使用量や計算の複雑さを大幅に減らすことができます。5

        AIエージェントの種類

        AIエージェントは、さまざまなレベルの機能を持たせるように開発できます。不必要な計算の複雑さを制限するという単純な目標には、シンプルなエージェントが適している場合があります。最も単純なエージェントから高度なエージェントまで、次の5つがあります:

        1. 単純条件反射エージェント
        2. モデルベース条件反射エージェント
        3. 目的ベース・エージェント
        4. 効用ベース・エージェント
        5. 学習エージェント

         

        1. 単純条件反射エージェント

        シンプルな反射エージェントは、現在の認識に基づいてアクションを基盤化する最も単純なエージェントです。メモリを保持せず、情報が欠落している場合は、他のエージェントとやり取りを行いません。このエージェントは、いわゆる反射またはルールのセットで機能します。これは、エージェントが、満たされた特定の条件に対応するアクションを実行するように事前にプログラムされていることを意味します。

        エージェントが準備ができていない状況に遭遇すると、適切に対応できません。このエージェントは、すべての必要な情報にアクセスできる完全に観測可能な環境においてのみ有効です。6

        例:毎晩決まった時間に暖房をオンにするサーモスタット。ここでの条件-動作ルールは、たとえば午後8時であれば、暖房が作動します。

        2. モデルベース条件反射エージェント

        モデルベースの反射エージェントは、世界の内部モデルを維持するために、現在の知覚と記憶の両方を使用します。エージェントが新しい情報を受け取ると、モデルが更新されます。エージェントの行動は、モデル、反射、過去の教訓、現在の状態に依存します。

        このエージェントは、単純条件反射エージェントとは異なり、メモリーに情報を保存することができ、部分的に観測可能で変化する環境に対応することができます。ただし、そのルールには限界があります。6

        例:ロボット掃除機。部屋を清掃する際に、家具などの障害物を感知し、その周りを清掃します。また、ロボットは、すでに清掃したエリアのモデルを保存して、繰り返しのループに陥らないようにします。

        3. 目的ベース・エージェント

        目的ベース・エージェントは、世界の内部モデルと、目的を持っています。エージェントは、目的を達成する動作シーケンスを検索し、それに基づいて行動する前に、アクションを計画します。この探索とプランニングにより、単純条件反射エージェントやモデル・ベース条件反射エージェントと比較して、有効性が高くなります。7

        例:目的地までの最短ルートを推奨するナビゲーション・システム。このモデルでは、目的地、つまり目的を達成するためのさまざまなルートが考慮されます。この例では、エージェントの条件-動作ルールは、より早いルートが見つかった場合に、そのルートを推奨するというものです。

        4. 効用ベース・エージェント

        効用ベース・エージェントは、目的を達成し、同時に効用や報酬を最大化する一連のアクションを選択します。効用は、効用関数を使用して計算されます。この機能は、一連の固定された基準に基づいて、アクションの有用性または、エージェントがどの程度「幸せ」になるかを測定する指標である、効用値を各シナリオに割り当てます。

        この基準には、目的に対する進捗状況、時間要件、計算の複雑さなどの要素などが含まれます。次に、エージェントは期待される効用を最大化するアクションを選択します。したがって、このエージェントは、複数のシナリオで目的の目標が達成され、最適なシナリオを選択する必要がある場合に役立ちます。7

        例:燃費を最適化し、渋滞に巻き込まれる時間や通行料を最小限に抑えられる、目的地までのルートを推奨するナビゲーション・システム。エージェントは、この一連の基準に基づいて効用を測定し、最も有利なルートを選択します。

        5. 学習エージェント

        学習エージェントは、他のエージェントと同じ機能を備えていますが、学習能力という点で独特です。新しいエクスペリエンスが、自律的に発生する初期の知識ベースに追加されます。この学習により、馴染みのない環境で業務を遂行する能力が強化されます。学習エージェントは、その推論において効用ベースまたは目的ベースの場合があり、次の4つの要素で構成されます。7

        • 学習:エージェントの教訓やセンサーを通して環境から学習することで、エージェントの知識を向上させます。
        • 批評:エージェントの応答の質がパフォーマンス基準を満たしているかどうかについて、エージェントにフィードバックを提供します。
        • パフォーマンス:学習時の行動を選択する責任を負います。
        • 問題ジェネレーター:取るべきアクションに関するさまざまな提案が作成されます。

        例:Eコマース・サイトでのパーソナライズされた推奨。エージェントは、メモリー内でユーザーのアクティビティーと好みを追跡します。この情報は、特定の商品やサービスをユーザーに推奨するために使用されます。このサイクルは、新しい推奨事項が作成されるたびに繰り返されます。ユーザーのアクティビティーは、学習目的で継続的に保存されます。これにより、時間の経過とともにエージェントの精度が向上します。

        AIエージェントのユースケース

        カスタマー・エクスペリエンス

        AIエージェントをWebサイトやアプリに統合することで、バーチャル・アシスタントとしての役割を果たしたり、メンタル・ヘルス・サポートを提供したり、インタビューやその他の関連タスクをシミュレートしたりすることで、顧客体験を向上させることができます。8 ユーザーが実装できるように、ノーコード・テンプレートが多数用意されており、AIエージェントの構築プロセスをさらに容易にしています。

        ヘルスケア

        AIエージェントは、現実世界のさまざまな用途に使用できます。マルチエージェント・システムは、このような環境における問題解決に特に役立ちます。救急患者の治療計画から薬物療法プロセスの管理まで、医療従事者はより急を要する作業に費やす時間と労力を節約できます。9

        緊急時の対応

        自然災害が発生した場合、AIエージェントは、ディープラーニング・アルゴリズムを使用して、救助を必要とするソーシャルメディア・サイトのユーザーの情報を取得できます。ユーザーの位置をマッピングできるため、より迅速に多くの人々を救助する活動を支援できます。したがって、AIエージェントは、平凡な仕事においても、命を救うような状況においても、人間の生活に大きな恩恵をもたらすことができます。10

        AIエージェントのメリット

        タスクの自動化

        生成AIの進歩により、 AIを活用したワークフローの最適化、つまりインテリジェントな自動化への関心が高まっています。AIエージェントは、人的資源を必要とする複雑なタスクを自動化できるAIツールです。目標を安価に、迅速に、大規模に達成できます。これらの進歩により、人間のエージェントは、AIアシスタントがタスクを作成・実行するための指示を与える必要がなくなりました。

        パフォーマンスの向上

        マルチエージェント・フレームワークは、単一のエージェントよりもパフォーマンスが高くなる傾向があります。11エージェントが利用できるアクション・プランが多いほど、より多くの学習と反省が行われるためです。関連分野に特化した他のAIエージェントの知識とフィードバックを取り入れたAIエージェントは、情報の統合に役立ちます。このAIエージェントのバックエンドでのコラボレーションと情報のギャップを埋める能力は、エージェント・フレームワークに固有のものであり、マルチエージェントが強力なツールである理由であり、人工知能における価値のある進歩です。

        応答の質

        AIエージェントは、従来のAIモデルよりも包括的で正確な、ユーザーに合わせてパーソナライズされた応答を返します。一般的に、応答の質が高くなるほど顧客体験は向上するため、ユーザーにとって非常に重要なことです。前述のように、他のエージェントと情報を交換し、外部ツールを活用して、メモリー・ストリームを更新することで実現できます。このような動作は、あらかじめプログラムされているものではなく、自ら現れるものです。12

        リスクと限界

        マルチエージェントの依存関係

        一部の複雑なタスクでは、複数のAIエージェントの知識が必要です。これらのマルチエージェント・フレームワークの実装には、誤動作のリスクがあります。同じ基盤モデル上に構築されたマルチエージェント・システムには、共通の落とし穴が生じる可能性があります。このような弱点があると、関連するすべてのエージェントがシステム全体で障害を起こしたり、脆弱性が悪質な攻撃に狙われる可能性があります。13 これは、基盤モデルの構築および徹底的なトレーニングとテスト・プロセスにおけるデータ・ガバナンスの重要性を浮き彫りにしています。

        無限フィードバック・ループ

        AIエージェントを使用する人間のユーザーにとってハンズオフの推論の便利さには、リスクも伴います。包括的な計画を作成したり、調査結果を振り返ったりすることができないエージェントは、同じツールを繰り返し呼び出して、無限フィードバック・ループに陥る可能性があります。こうしたループを避けるために、ある程度のリアルタイムでの人間によるモニタリングが行われることもあります。13

        計算の複雑さ

        AIエージェントをゼロから構築するには時間がかかり、莫大な計算コストがかかる場合があります。高性能なエージェントのトレーニングに必要なリソースは、膨大になる場合があります。さらに、タスクの複雑さによっては、エージェントがタスクを完了するまでに数日ほどかかる場合があります。 12

        ベスト・プラクティス

        アクティビティー・ログ

        マルチエージェントの依存関係への懸念に対処するために、開発者はエージェントのアクションのログへのアクセスをユーザーに提供することができます。14 アクションには、外部ツールの使用が含まれ、目的を達成するために利用された外部エージェントについて説明できます。この透明性により、ユーザーは反復的な意思決定プロセスに関する洞察を得ることができ、エラーを発見し、信頼を築く機会を得ることができます。

        中断

        AIエージェントが長期間にわたって実行されないようにすることをお勧めします。特に、意図しない無限フィードバック・ループ、特定のツールへのアクセスの変更、設計上の欠陥による誤動作などの場合です。そのための1つの方法が、中断可能性を実装することです。

        これを制御し続けるには、人間のユーザーに一連のアクションまたは操作全体を適切に中断する選択肢を許可する必要があります。AIエージェントを中断するかどうか、いつ中断するかを決定する際には、一定程度の慎重な対処が必要です。例えば、生命を脅かすような緊急事態において、欠陥のある薬剤を完全にシャットダウンするよりも、支援を継続させる方が安全である可能性があります。5

        一意のエージェント識別子

        エージェント・システムが悪用されるリスクを軽減するために、一意の識別子を使用できます。14 エージェントが外部システムにアクセスするために一意の識別子が必要であれば、エージェントの開発者、展開者およびユーザーの発信元を追跡することがより簡単になります。これは、エージェントによる悪用や意図しない危害が発生した場合に特に役立ちます。このレベルの説明責任により、AIエージェントがより安全に動作する環境を提供できます。

        人間による監督

        AIエージェントの学習プロセス、特に新しい環境での初期段階を支援するために、定期的に人間によるフィードバックを提供することが有効です。これにより、AIエージェントは期待される標準とパフォーマンスを比較して、調整することができます。フィードバックは、ユーザーの嗜好に対するエージェントの適応性を向上させるのに役立ちます。5

        それ以外では、AIエージェントが極めてインパクトの大きいアクションを取る前に、人間の承認を必要とすることがベスト・プラクティスです。たとえば、大量のメールの送信から金融取引まで、人間による確認を行うべきアクションはたくさんあります。7 このような高リスクの分野は、ある程度のレベルの人間による監視が推奨されます。

        関連ソリューション
        IBM watsonx.ai

        AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

        watsonx.aiをご覧ください。
        人工知能ソリューション

        業界屈指のAI(人工知能)の専門知識とIBM Watsonのソリューション製品群を活用して、大規模かつ信頼できるビジネスのためのAIを構築します。

        AIソリューションはこちら
        AIコンサルティングとサービス

        AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

        AIサービスはこちら
        次のステップ

        AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

        watsonx.aiの詳細はこちら デモを予約
        脚注

        1 Andrew Zhao、Daniel Huang、Quentin Xu、Matthieu Lin、Yong-Jin Liu、Gao Huang『Expel: Llm agents are experiential learners』Proceedings of the AAAI Conference on Artificial Intelligence、Vol. 38, No. 17, pp. 19632-19642、2024年https://ojs.aaai.org/index.php/AAAI/article/view/29936

        Yonadov Shavit、Sandhini Agarwal、Miles Brundage、Steven Adler、Cullen O’Keefe、Rosie Campbell、Teddy Lee、Pamela Mishkin、Tyna Eloundou、Alan Hickey、Katarina Slama、Lama Ahmad、Paul McMillan、Alex Beutel、Alexandre Passos、David G. Robinson『Practices for Governing Agentic AI Systems』 OpenAI、2023年、https://arxiv.org/pdf/2401.13138v3

        3 Tula Masterman、Sandi Besen、Mason Sawtell、Alex Chao『The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey』arXiv preprint、2024年、https://arxiv.org/abs/2404.11584

        4 Gautier Dagan、Frank Keller、Alex Lascarides『Dynamic Planning with a LLM』arXiv preprint、2023年、https://arxiv.org/abs/2308.06391

        Binfeng Xu、Zhiyuan Peng、Bowen Lei、Subhabrata Mukherjee、Yuchen Liu、Dongkuan Xu『ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models』arXiv preprint、2023年、https://arxiv.org/abs/2305.18323

        6 Sebastian Schmid、Daniel Schraudner、Andreas Harth『Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation』IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion、pp. 93-98、2021年、https://ieeexplore.ieee.org/document/9599196

        7 Veselka Sasheva Petrova-Dimitrova『Classifications of intelligence agents and their applications』Fundamental Sciences and Applications、Vol. 28, No. 1、2022年

        8 Lei Wang、Chen Ma、Xueyang Feng、Zeyu Zhang、Hao Yang、Jingsen Zhang、Zhiyuan Chen、Jiakai Tang、Xu Chen、Yankai Lin、Wayne Xin Zhao、Zhewei Wei、Jirong Wen『A survey on large language model based autonomous agents』Frontiers of Computer Science、Vol. 18, No. 6、2024年、https://link.springer.com/article/10.1007/s11704-024-40231-1

        Jaya R. Haleema、Haleema, N. C. S. N. Narayana『Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information』Cybernetics and Information Technologies、Vol. 12, No. 3, pp.140-156、2013年、https://sciendo.com/article/10.2478/cait-2013-0031

        10 Jingwei Huang、Wael Khallouli、Ghaith Rabadi、Mamadou Seck『Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data』International Journal of Critical Infrastructures、Vol. 19, No. 2, pp. 124-139、2023年、https://arxiv.org/abs/2106.07114

        11 Junyou Li、Qin Zhang、Yangbin Yu、Qiang Fu、Deheng Ye『More agents is all you need』arXiv preprint、2024年、https://arxiv.org/abs/2402.05120

        12 Joon Sung Park、Joseph O'Brien、Carrie Jun Cai、Meredith Ringel Morris、Percy Liang、Michael S. Bernstein『Generative agents: Interactive simulacra of human behavior』Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology、pp. 1-22、2023年https://dl.acm.org/doi/10.1145/3586183.3606763

        13 Alan Chan、Carson Ezell、Max Kaufmann、Kevin Wei、Lewis Hammond、Herbie Bradley、Emma Bluemke、Nitarshan Rajkumar、David Krueger、Noam Kolt、Lennart Heim、Markus Anderljung『Visibility into AI Agents』The 2024 ACM Conference on Fairness, Accountability, and Transparency、pp. 958-973、2024年、https://arxiv.org/abs/2401.13138

        14 Devjeet Roy、Xuchao Zhang、Rashi Bhave、Chetan Bansal、Pedro Las-Casas、Rodrigo Fonseca、Saravan Rajmohan『Exploring LLM-based Agents for Root Cause Analysis』arXiv preprint、2024年、https://arxiv.org/abs/2403.04123