يشير وكيل الذكاء الاصطناعي (AI) إلى نظام أو برنامج قادر على أداء المهام بشكل مستقل نيابة عن مستخدم أو نظام آخر من خلال تصميم سير عمله واستخدام الأدوات المتاحة.
يمكن أن تشمل وكلاء الذكاء الاصطناعي مجموعة واسعة من الوظائف تتجاوز معالجة اللغة الطبيعية، مثل صنع القرار، وحل المشكلات، والتفاعل مع البيئات الخارجية، وتنفيذ الإجراءات.
يمكن نشر هؤلاء الوكلاء في مجموعة متنوعة من التطبيقات لمعالجة المهام المعقدة عبر سياقات مؤسسية مختلفة، بدءًا من تصميم البرمجيات وأتمتة تقنية المعلومات ووصولًا إلى أدوات توليد الأكواد والمساعدين الحواريين. وهم يستخدمون تقنيات متقدمة في معالجة اللغة الطبيعية الخاصة بالنماذج اللغوية الكبيرة (LLMs) لفهم مدخلات المستخدم والاستجابة لها بشكل متسلسل، إضافةً إلى تحديد التوقيت المناسب لاستدعاء الأدوات الخارجية.
في جوهر وكلاء الذكاء الاصطناعي توجد نماذج لغوية كبيرة (LLMs). لهذا السبب، غالبًا ما يشار إلى وكلاء الذكاء الاصطناعي باسم وكلاء النماذج اللغوية الكبيرة. تنتج النماذج اللغوية الكبيرة التقليدية، مثل نماذج ™IBM® Granite، استجاباتها بناءً على البيانات المستخدمة لتدريبها وهي مقيدة بحدود المعرفة والاستدلال. وعلى النقيض من ذلك، تستخدم تقنية الوكلاء استدعاء الأدوات على الواجهة الخلفية للحصول على أحدث المعلومات وتحسين سير العمل وإنشاء مهام فرعية بشكل مستقل لتحقيق أهداف معقدة.
في هذه العملية، يتعلم الوكيل المستقل التكيف مع توقعات المستخدم بمرور الوقت. تشجع قدرة الوكيل على تخزين التفاعلات السابقة في الذاكرة وتخطيط الإجراءات المستقبلية على تقديم تجربة شخصية واستجابات شاملة.1 يمكن تحقيق أداة الاستدعاء هذه دون تدخل بشري وتوسيع إمكانيات التطبيقات الواقعية لأنظمة الذكاء الاصطناعي هذه. يتألف النهج الذي يتبعه وكلاء الذكاء الاصطناعي في تحقيق الأهداف التي يحددها المستخدمون من هذه المراحل الثلاث:
على الرغم من أن وكلاء الذكاء الاصطناعي يتمتعون بالاستقلالية في عمليات اتخاذ القرارات، إلا أنهم يحتاجون إلى أهداف وبيئات يحددها البشر.2 هناك ثلاثة عوامل رئيسية تؤثر على سلوك الوكيل المستقل:
بالنظر إلى أهداف المستخدم والأدوات المتاحة للوكيل، يقوم وكيل الذكاء الاصطناعي بعد ذلك بإجراء تحليل المهام لتحسين الأداء.3 وبشكل أساسي، يضع الوكيل خطة تتضمن مهامًا رئيسية وفرعية محددة لتحقيق الهدف المعقد.
بالنسبة للمهام البسيطة، لا يُعد التخطيط خطوة ضرورية. وبدلاً من ذلك، يمكن للوكيل إعادة تقييم استجاباته بشكل متكرر وتحسينها دون التخطيط لخطواته التالية.
يبني وكلاء الذكاء الاصطناعي أفعالهم على المعلومات التي يدركونها. في كثير من الأحيان، لا يمتلك وكلاء الذكاء الاصطناعي القاعدة المعرفية الكاملة اللازمة لمعالجة جميع المهام الفرعية ضمن هدف معقد. ولعلاج هذه المشكلة، يستخدم وكلاء الذكاء الاصطناعي الأدوات المتاحة لهم، والتي قد تشمل مجموعات بيانات خارجية، وعمليات بحث على الويب، وواجهات برمجة التطبيقات (APIs)، وحتى وكلاء آخرين. بعد استرداد المعلومات المفقودة من هذه الأدوات، يمكن للوكيل تحديث قاعدة المعرفة الخاصة به، مما يعني أنه في كل خطوة، يعيد الوكيل تقييم خطة عمله وتصحيح مساره ذاتيًا.
للمساعدة في توضيح هذه العملية، تخيل مستخدمًا يخطط لإجازته. يكلف المستخدم وكيل ذكاء اصطناعي بالتنبؤ بأي أسبوع في العام المقبل من المحتمل أن يشهد أفضل طقس لرحلة ركوب الأمواج في اليونان. ونظرًا لأن النموذج اللغوي الكبير (LLM) في صميم الوكيل غير متخصص في أنماط الطقس، يقوم الوكيل بجمع المعلومات من قاعدة بيانات خارجية تحتوي على تقارير الطقس اليومية لليونان على مدار السنوات العديدة الماضية.
على الرغم من الحصول على هذه المعلومات الجديدة، لا يزال الوكيل غير قادر على تحديد الظروف الجوية المثلى لركوب الأمواج، ومن ثمَّ يتم إنشاء المهمة الفرعية التالية. في هذه المهمة الفرعية، يتواصل الوكيل مع وكيل خارجي متخصص في ركوب الأمواج. لنفترض أنه من خلال هذا التفاعل، يتعلم الوكيل أن المد والجزر المرتفع والطقس المشمس مع أمطار قليلة أو معدومة يوفران أفضل الظروف لركوب الأمواج.
يمكن للوكيل الآن دمج المعلومات التي تعلمها من أدواته لتحديد الأنماط. ويمكنه التنبؤ بأي أسبوع في العام المقبل في اليونان من المحتمل أن يشهد مدًا وجزرًا مرتفعًا وطقسًا مشمسًا مع فرصة منخفضة لهطول الأمطار. ثم تُقدَّم هذه النتائج إلى المستخدم. هذا التشارك في المعلومات بين الأدوات هو ما يتيح لوكلاء الذكاء الاصطناعي أن يكونوا متعددي الأغراض أكثر من نماذج الذكاء الاصطناعي التقليدية.3
يستخدم وكلاء الذكاء الاصطناعي آليات التعليقات، مثل وكلاء الذكاء الاصطناعي الآخرين والتفاعل البشري في الحلقة (HITL)، لتحسين دقة ردودهم. دعونا نعود إلى مثال ركوب الأمواج السابق لتوضيح ذلك. بعد أن يقوم الوكيل بتكوين استجابته للمستخدم، يقوم بتخزين المعلومات المكتسبة إلى جانب تعليقات المستخدم بهدف تحسين الأداء والتكيف مع تفضيلات المستخدم لتحقيق الأهداف المستقبلية.
وإذا تم الاستعانة بوكلاء آخرين لتحقيق الهدف، فيمكن استخدام تعليقاتهم أيضًا. قد تكون التعليقات الصادرة عن عدة وكلاء مفيدة بشكل خاص في تقليل الوقت الذي يقضيه المستخدمون البشريون في تقديم التوجيه. ومع ذلك، يمكن للمستخدمين أيضًا تقديم ملاحظاتهم بالتوازي مع الإجراءات التي يتخذها الوكيل واستدلالاته الداخلية لضمان مواءمة النتائج بشكل أفضل مع الهدف المنشود.2
تعمل آليات التعليقات على تحسين استدلال وكيل الذكاء الاصطناعي ودقته، وهو ما يشار إليه عادةً باسم التنقيح التكراري.3 ولتجنب تكرار الأخطاء نفسها، يمكن لوكلاء الذكاء الاصطناعي أيضًا تخزين البيانات حول حلول العقبات السابقة في قاعدة معرفية.
تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي تقنيات الذكاء الاصطناعي الحواري مثل معالجة اللغة الطبيعية (NLP) لفهم أسئلة المستخدم وأتمتة الردود عليها.تعتبر روبوتات المحادثة هذه وسيلة اتصال في حين أن الوكيل عبارة عن إطار عمل تكنولوجي.
إن روبوتات المحادثة المدعومة بالذكاء الاصطناعي غير المعتمدة على الوكلاء هي تلك التي تفتقر إلى الأدوات والذاكرة وقدرات الاستدلال. فهي قادرة فقط على تحقيق أهداف قصيرة المدى دون القدرة على التخطيط المسبق. وكما هو معروف، تعتمد روبوتات المحادثة غير المعتمدة على الوكلاء على مدخلات المستخدم المستمرة لتقديم الاستجابات. يمكنها إنتاج ردود على الطلبات الشائعة التي تتماشى غالبًا مع توقعات المستخدم، ولكنها تعاني في التعامل مع الأسئلة الفريدة التي تعتمد على بيانات المستخدم الخاصة. ونظرًا لأنها لا تحتفظ بذاكرة، فإنها تعجز عن التعلم من أخطائها في حال كانت استجاباتها غير مرضية.
وفي المقابل، تتعلم روبوتات المحادثة التفاعلية المدعومة بالذكاء الاصطناعي التكيف مع توقعات المستخدم بمرور الوقت، مما يوفر تجربة أكثر تخصيصاً واستجابات شاملة. يمكنهم إكمال المهام المعقدة عن طريق إنشاء مهام فرعية دون تدخل بشري والنظر في خطط مختلفة.كما يمكن تصحيح هذه الخطط ذاتيًا وتحديثها حسب الحاجة. على عكس روبوتات المحادثة غير التفاعلية، تقوم روبوتات المحادثة التفاعلية المدعومة بالذكاء الاصطناعي بتقييم أدواتها واستخدام الموارد المتاحة لها لسد فجوات المعلومات.
لا توجد بنية معيارية واحدة لبناء وكلاء الذكاء الاصطناعي، إذ توجد عدة نماذج لحل المشكلات متعددة الخطوات.
من خلال هذا النموذج، يمكننا توجيه الوكلاء إلى "التفكير" والتخطيط بعد كل إجراء يُتخذ ومع كل استجابة للأداة لتحديد الأداة التي يجب استخدامها بعد ذلك.تُستخدم هذه الحلقات التكرارية من التفكير والتنفيذ والملاحظة لحل المشكلات خطوة بخطوة وتحسين الاستجابات بشكل مستمر وتدريجي.
"من خلال بنية التوجيه، يمكن ضبط الوكلاء للتفكير بشكل متأنٍ واستعراض كل "فكرة" على حدة. يوفّر الاستدلال اللفظي للوكيل رؤى حول كيفية صياغة الإجابات. في هذا الإطار، يقوم الوكلاء بتحديث سياقهم باستمرار بناءً على الاستدلال الجديد، مما يمكن اعتباره شكلًا من أشكال توجيه سلسلة الأفكار."
"على عكس ReAct، تُلغي طريقة ReWOO الحاجة إلى الاعتماد على مخرجات الأدوات في تخطيط الإجراءات، إذ يضع الوكلاء خطتهم مسبقًا. وبهذا، يتم تجنّب الاستخدام غير الضروري للأدوات من خلال التنبؤ بالأدوات المطلوبة فور تلقّي الموجِّه الأولي من المستخدم. يُعدّ هذا النهج أكثر ملاءمة من منظور يركز على الإنسان، حيث يمكن للمستخدم تأكيد الخطة قبل تنفيذها."
يتكون مهام سير العمل ReWOO من ثلاث وحدات. في وحدة التخطيط، يتوقع الوكيل خطواته التالية بناءً على موجه المستخدم. تستلزم المرحلة التالية جمع المخرجات الناتجة عن استدعاء هذه الأدوات. وأخيرًا، يقوم الوكيل بإقران الخطة الأولية مع مخرجات الأداة لصياغة استجابة. يمكن لهذا التخطيط المسبق أن يقلل بشكل كبير من استخدام الرمز المميز والتعقيد الحسابي، بالإضافة إلى تداعيات فشل الأداة الوسيطة.5
يمكن تطوير وكلاء الذكاء الاصطناعي بمستويات مختلفة من القدرات. قد يكون الوكيل البسيط مفضلًا لتحقيق الأهداف المباشرة للحد من التعقيد الحاسوبي غير الضروري. وبالترتيب من الأبسط إلى الأكثر تقدمًا، هناك خمسة أنواع رئيسية من الوكلاء.
وكلاء الاستجابة البسيطة هم أبسط أشكال الوكلاء الذين يبنون إجراءاتهم على الإدراك الحالي. لا يمتلك هذا الوكيل أي ذاكرة، ولا يتفاعل مع وكلاء آخرين عند افتقاده للمعلومات. يعمل هؤلاء الوكلاء بناءً على مجموعة من القواعد المعروفة باسم "الاستجابات" أو "القواعد"، مما يعني أن الوكيل مبرمج مسبقًا لتنفيذ إجراءات محددة تتوافق مع شروط معينة عند استيفائها.
إذا واجه الوكيل موقفًا لم يكن مستعدًا له، فلن يتمكن من الاستجابة بشكل مناسب. لا يكون هؤلاء الوكلاء فعالين إلا في البيئات القابلة للملاحظة بالكامل، مما يتيح الوصول إلى جميع المعلومات الضرورية.6
مثال
: منظم الحرارة الذي يشغل نظام التدفئة تلقائيًا في وقت محدد كل ليلة. تنص القاعدة التي تربط بين الشرط والإجراء هنا، على سبيل المثال، على أنه إذا كانت الساعة 8 مساءً، فسيتم تفعيل نظام التدفئة.يستخدم وكلاء الاستجابة القائمة على نموذج كلاً من إدراكهم الحالي وذاكرتهم الحالية للحفاظ على نموذج داخلي للعالم. ومع استمرار الوكيل في تلقي معلومات جديدة، يتم تحديث النموذج. تعتمد إجراءات الوكيل على نموذجه واستجاباته والمبادئ السابقة وحالته الحالية.
يمكن لهؤلاء الوكلاء، على عكس وكلاء الاستجابة البسيطة، تخزين المعلومات في الذاكرة ويمكنهم العمل في بيئات قابلة للملاحظة والتغيير جزئيًا. ومع ذلك، فإنهم لا يزالوا مقيدين بمجموعة القواعد المفروضة عليهم.6
مثال: مكنسة كهربائية روبوتية. أثناء قيامها بتنظيف الغرفة المتسخة، تستشعر العوائق مثل الأثاث وتتكيف معها. كما تقوم المكنسة الروبوتية بتخزين نموذج للمناطق التي قامت بتنظيفها بالفعل لتجنب التكرار غير الضروري في التنظيف.
يمتلك الوكلاء القائمون على الهدف نموذجًا داخليًا للعالم، بالإضافة إلى هدف أو مجموعة من الأهداف. يقوم هؤلاء الوكلاء بالبحث عن تسلسلات الإجراءات التي تحقق أهدافهم، مع التخطيط لها مسبقًا قبل تنفيذها. يسهم هذا البحث والتخطيط في تعزيز فعاليتهم مقارنةً بوكلاء الاستجابة البسيطة والوكلاء القائمة على النماذج.7
مثال: نظام ملاحة يوصي بأسرع طريق إلى وجهتك. يأخذ النموذج في الاعتبار المسارات المختلفة المؤدية إلى وجهتك، أو بعبارة أخرى، هدفك. في هذا المثال، تنص القاعدة- التي تربط بين الشرط والإجراء المفروضة على الوكيل- على أنه إذا تم العثور على مسار أسرع، فإن الوكيل يوصي بذلك المسار بدلاً من المسار الأصلي.
يختار الوكلاء القائمون على المنفعة تسلسل الإجراءات الذي يحقق الهدف ويعمل أيضًا على زيادة المنفعة أو المكافأة. يتم حساب المنفعة باستخدام الدالة النفعية. تقوم هذه الدالة بتعيين قيمة منفعة، وهي مقياس يحدد مدى فائدة الفعل أو مدى "رضا" الوكيل، لكل سيناريو بناءً على مجموعة من المعايير الثابتة.
يمكن أن تتضمن المعايير عوامل مثل التقدم نحو الهدف أو متطلبات الوقت أو التعقيد الحاسوبي. ثم يختار الوكيل بعد ذلك الإجراءات التي تزيد من المنفعة المتوقعة. ومن ثَمَّ، فإن هؤلاء الوكلاء مفيدون في الحالات التي تحقق فيها سيناريوهات متعددة الهدف المنشود، حيث يكون من الضروري اختيار السيناريو الأمثل.7
مثال: نظام ملاحة يوصي بالطريق إلى وجهتك يعمل على تحسين كفاءة استهلاك الوقود وتقليل الوقت المستغرق في حركة المرور وتكلفة الرسوم. يقيس هذا الوكيل المنفعة من خلال هذه المجموعة من المعايير لتحديد المسار الأكثر ملاءمة.
يمتلك وكلاء التعلُّم القدرات نفسها التي تتمتع بها أنواع الوكلاء الأخرى، لكنهم يتميزون بقدرتهم الفريدة على التعلُّم. تتم إضافة التجارب الجديدة إلى قاعدة معارفهم الأولية، ويتم ذلك بشكل مستقل. يعزز هذا التعلم قدرة الوكيل على العمل في بيئات غير مألوفة. قد يعتمد وكلاء التعلُّم في استدلالاتهم على تحقيق المنفعة أو تحقيق الهدف، ويتألفون من أربعة عناصر رئيسية.7
مثال: التوصيات المخصصة على مواقع التجارة الإلكترونية. يتتبع هؤلاء الوكلاء نشاط المستخدم وتفضيلاته في ذاكرتهم. تُستخدم هذه المعلومات للتوصية بمنتجات وخدمات معينة للمستخدم. تتكرر هذه الدورة مع كل مجموعة جديدة من التوصيات، حيث يتم تخزين نشاط المستخدم باستمرار لأغراض التعلم، مما يساعد الوكيل على تحسين دقته بمرور الوقت.
يمكن دمج وكلاء الذكاء الاصطناعي في مواقع الويب والتطبيقات لتعزيز تجربة العملاء من خلال عملهم كمساعدين افتراضيين، حيث يقدمون الدعم النفسي، ومحاكاة المقابلات، وغير ذلك من المهام ذات الصلة.8 هناك العديد من القوالب التي لا تتطلب تعليمات برمجية ينفذها المستخدم، مما يجعل عملية إنشاء وكلاء الذكاء الاصطناعي أسهل من أي وقت مضى.
يمكن استخدام وكلاء الذكاء الاصطناعي في مختلف تطبيقات الرعاية الصحية في العالم الحقيقي. وقد تكون الأنظمة متعددة الوكلاء مفيدة على نحو خاص لحل المشكلات في بيئات الرعاية الصحية، حيث توفر هذه الأنظمة وقت وجهد المهنيين الطبيين من أجل المهام الأكثر إلحاحًا، بدءًا من تخطيط العلاج للمرضى في قسم الطوارئ وانتهاءً بإدارة عمليات الدواء.9
في حالة الكوارث الطبيعية، يمكن لوكلاء الذكاء الاصطناعي استخدام خوارزميات التعلم العميق لاسترداد معلومات المستخدمين على مواقع التواصل الاجتماعي الذين يحتاجون إلى الإنقاذ. ويمكن تعيين مواقع هؤلاء المستخدمين لمساعدة خدمات الإنقاذ على إنقاذ المزيد من الأشخاص في وقت أقل.لذلك، يمكن لوكلاء الذكاء الاصطناعي أن يسهموا بشكل كبير في تحسين حياة الإنسان، سواء في المهام اليومية أو في حالات الطوارئ وإنقاذ الأرواح.10
في ظل التطورات المستمرة في مجال الذكاء الاصطناعي التوليدي، هناك اهتمام متزايد بتحسين سير العمل باستخدام الذكاء الاصطناعي أو الأتمتة الذكية. وكلاء الذكاء الاصطناعي هم أدوات الذكاء الاصطناعي التي يمكنها أتمتة المهام المعقدة التي تتطلب موارد بشرية.وهذا يترجم إلى تحقيق الأهداف بشكل غير مكلف وسريع وعلى نطاق واسع.في المقابل، تعني هذه التطورات أن الوكلاء البشريين لا يحتاجون إلى توفير التوجيه لمساعد الذكاء الاصطناعي لإنشاء مهامه والتنقل فيها.
تميل أطر العمل متعددة الوكلاء إلى التفوق على الوكلاء الفرديين11، وذلك لأن توفر عدد أكبر من خطط العمل لوكيل الذكاء الاصطناعي يعزز التعلم والتفكير. يمكن لوكيل ذكاء اصطناعي يدمج المعرفة والتعليقات من وكلاء ذكاء اصطناعي آخرين متخصصين في مجالات ذات صلة أن يكون فعالًا في تجميع المعلومات. يتميز هذا التعاون الخلفي بين وكلاء الذكاء الاصطناعي، إلى جانب قدرتهم على سد فجوات المعلومات، بكونه خاصًا بأطر العمل الفاعلة، مما يجعلها أداة قوية وإضافة جوهرية إلى مجال الذكاء الاصطناعي.
يوفر وكلاء الذكاء الاصطناعي استجابات أكثر شمولًا ودقةً وتخصيصًا للمستخدم مقارنةً بنماذج الذكاء الاصطناعي التقليدية. وهذا عامل جوهري بالنسبة لنا كمستخدمين، إذ إن الاستجابات عالية الجودة تؤدي عادةً إلى تحسين تجربة العملاء. وكما هو موضح سابقًا، أصبح ذلك ممكنًا من خلال تبادل المعلومات مع وكلاء آخرين، واستخدام أدوات خارجية، وتحديث تدفق الذاكرة. هذه السلوكيات تظهر تلقائيًا وليست مبرمجة مسبقًا12.
تتطلب بعض المهام المعقدة الاستفادة من معرفة عدة وكلاء ذكاء اصطناعي. وعند تنفيذ أطر العمل متعددة الوكلاء، قد تنشأ مخاطر الأعطال. قد تواجه أنظمة الوكلاء المتعددين المعتمدة على نماذج الأساس نفس التحديات والمشكلات المشتركة. وقد تؤدي هذه نقاط الضعف إلى فشل شامل لجميع الوكلاء المرتبطين على مستوى النظام أو إلى التعرض لهجمات معاكسة13. وهذا يبرز أهمية حوكمة البيانات في بناء نماذج الأساس، وكذلك في عمليات التدريب والاختبار الشاملة.
على الرغم من أن الراحة التي يوفرها الاستدلال التلقائي للمستخدمين البشريين المعتمدين على وكلاء الذكاء الاصطناعي تُعد ميزة كبيرة، إلا أنها تأتي أيضًا مع مخاطرها الخاصة. فقد يقع الوكلاء، الذين يفتقرون إلى القدرة على وضع خطة شاملة أو تقييم النتائج التي توصلوا إليها، في فخ استخدام نفس الأدوات بشكل متكرر، مما قد يؤدي إلى دوامات لا نهائية من التعليقات المتكررة. ولتجنب هذه التكرارات غير الضرورية، يمكن الاستعانة بمستوى معين من المراقبة البشرية في الوقت الفعلي13.
يستغرق بناء وكلاء الذكاء الاصطناعي من الصفر وقتًا طويلًا وقد يكون مكلفًا للغاية من الناحية الحسابية. كما أن الموارد اللازمة لتدريب وكيل عالي الأداء يمكن أن تكون ضخمة ومكثفة. بالإضافة إلى ذلك، وبحسب تعقيد المهمة، قد يستغرق تنفيذ المهام عدة أيام12.
لمعالجة المخاوف المرتبطة بتبعيات الوكلاء المتعددين، يمكن للمطورين إتاحة الوصول للمستخدمين إلى سجل إجراءات الوكيل14. قد تتضمن هذه الإجراءات استخدام أدوات خارجية بالإضافة إلى توضيح الوكلاء الخارجيين الذين تم الاستعانة بهم لتحقيق الهدف. توفر هذه الشفافية للمستخدمين رؤية واضحة لعملية صنع القرار التكرارية، كما تمنحهم فرصة لاكتشاف الأخطاء وتعزيز الثقة.
يوصى بمنع وكلاء الذكاء الاصطناعي من العمل لفترات طويلة جدًا. على وجه الخصوص، في حالات حلقات التعليقات اللانهائية غير المقصودة، أو التغييرات في الوصول إلى أدوات معينة، أو العطل بسبب عيوب في التصميم. إحدى الطرق لتحقيق ذلك هي تنفيذ قابلية المقاطعة.
يتطلب الحفاظ على التحكم في هذا السياق إتاحة خيار المقاطعة المرنة للمستخدمين البشريين، سواء لتسلسل الإجراءات أو للعملية بالكامل. يتطلب اتخاذ قرار بشأن مقاطعة وكيل الذكاء الاصطناعي وتحديد التوقيت المناسب لذلك تفكيرًا دقيقًا، إذ إن بعض عمليات الإنهاء قد تُلحق ضررًا أكثر من نفعها. على سبيل المثال، قد يكون من الأكثر أمانًا السماح لوكيل معيب بمواصلة المساعدة في حالة طوارئ مهددة للحياة بدلاً من إيقافه تمامًا5.
للتخفيف من مخاطر استخدام الأنظمة العميلة للاستخدام الخبيث، يمكن استخدام معرّفات فريدة.14 إذا كانت هذه المعرفات مطلوبة للوكلاء للوصول إلى الأنظمة الخارجية، فسيكون هناك سهولة أكبر في تتبع مصدر مطوري الوكيل وناشريه ومستخدمه.ويعد ذلك مفيدًا بشكل خاص في حال وقوع استخدام خبيث أو تسبب الوكيل في ضرر غير مقصود. كما أن هذا المستوى من المساءلة سيسهم في توفير بيئة أكثر أمانًا لعمل وكلاء الذكاء الاصطناعي.
للمساعدة في عملية تعلم وكلاء الذكاء الاصطناعي، خاصة في مراحلهم المبكرة في بيئة جديدة، قد يكون من المفيد تقديم تعليقات بشرية من حين لآخر. يسمح ذلك لوكيل الذكاء الاصطناعي بمقارنة أدائه بالمعيار المتوقع وتعديله وفقًا لذلك. وهذا النوع من التعليقات مفيد في تحسين قدرة الوكيل على التكيف مع تفضيلات المستخدم.5
وبصرف النظر عن ذلك، فإنه من الأفضل الاشتراط المسبق لموافقة بشرية قبل أن يتخذ وكيل الذكاء الاصطناعي إجراءات ذات تأثير كبير. على سبيل المثال، ينبغي أن تخضع الإجراءات، مثل إرسال رسائل البريد الإلكتروني الجماعية والتداول المالي، لتأكيد بشري مسبق.7 إذ يُوصى بتطبيق مستوى معين من المراقبة البشرية في مثل هذه المجالات عالية المخاطر.
1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu, and Gao Huang, "Expel: Llm agents are experiential learners," Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936 (محتوى الرابط موجود خارج موقع ibm.com).
2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G. Robinson, “Practices for Governing Agentic AI Systems,” OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3 (محتوى الرابط موجود خارج موقع ibm.com).
3 Tula Masterman, Sandi Besen, Mason Sawtell, Alex Chao, “The Landscape of Emerging AI AgentArchitectures for Reasoning, Planning, and Tool Calling: A Survey,” arXiv preprint, 2024, https://arxiv.org/abs/2404.11584 (محتوى الرابط موجود خارج موقع ibm.com).
4 Gautier Dagan, Frank Keller, and Alex Lascarides, "Dynamic Planning with a LLM," arXiv preprint, 2023. https://arxiv.org/abs/2308.06391 (محتوى الرابط موجود خارج موقع ibm.com).
5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu, and Dongkuan Xu, "ReWOO: Decoupling Reasoning from Observations for Efficient Augmented Language Models," arXiv preprint, 2023, https://arxiv.org/abs/2305.18323 (محتوى الرابط موجود خارج موقع ibm.com).
6 Sebastian Schmid, Daniel Schraudner, and Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation." IEEE International Conference on Autonomic Computing and Self-Organizing Systems Companion, pp. 93-98, 2021, https://ieeexplore.ieee.org/document/9599196 (محتوى الرابط موجود خارج موقع ibm.com).
7 Veselka Sasheva Petrova-Dimitrova, “Classifications of intelligence agents and their applications,” Fundamental Sciences and Applications, Vol. 28, No. 1, 2022.
8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei, and Jirong Wen, “A survey on large language model based autonomous agents,” Frontiers of Computer Science, Vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1 (محتوى الرابط موجود خارج موقع ibm.com).
9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, “Enhancing a Traditional Health Care System of an Organization for Better Service with Agent Technology by Ensuring Confidentiality of Patients’ Medical Information,” Cybernetics and Information Technologies, Vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031.
10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi, Mamadou Seck, “Intelligent Agent for Hurricane Emergency Identification and Text Information Extraction from Streaming Social Media Big Data,” International Journal of Critical Infrastructures, Vol. 19, No. 2, pp. 124-139, 2023, https://arxiv.org/abs/2106.07114.
11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu, and Deheng Ye. "More agents is all you need." arXiv preprint, 2024, https://arxiv.org/abs/2402.05120.
12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang, and Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior," Proceedings of the 36th Annual ACM Symposium on User Interface software and Technology, pp. 1-22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763.
13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, “Visibility into AI Agents,” The 2024 ACM Conference on Fairness, Accountability, and Transparency, pp. 958-973, 2024, https://arxiv.org/abs/2401.13138.
14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca, and Saravan Rajmohan, "Exploring LLM-based Agents for Root Cause Analysis," arXiv preprint, 2024, https://arxiv.org/abs/2403.04123.