مَن هم وكلاء الذكاء الاصطناعي؟

المؤلفين

Anna Gutowska

AI Engineer, Developer Advocate

IBM

مَن هم وكلاء الذكاء الاصطناعي؟

وكيل الذكاء الاصطناعي هو نظام يقوم بتنفيذ المهام بشكل مستقل من خلال تصميم سير عمل باستخدام الأدوات المتاحة.

يمكن لوكلاء الذكاء الاصطناعي أن يشملوا مجموعة واسعة من الوظائف تتجاوز معالجة اللغة الطبيعية، بما في ذلك اتخاذ القرار، وحل المشكلات، والتفاعل مع البيئات الخارجية، وأداء الإجراءات.

يعمل وكلاء الذكاء الاصطناعي على حل المهام المعقدة عبر تطبيقات المؤسسات المختلفة، بما في ذلك تصميم البرمجيات، وأتمتة تكنولوجيا المعلومات، وتوليد الأكواد، والمساعدة الحوارية.وهم يستخدمون تقنيات معالجة اللغة الطبيعية المتقدمة للنماذج اللغوية الكبيرة (LLMs) لفهم مدخلات المستخدم والاستجابة لها خطوة بخطوة وتحديد وقت استدعاء الأدوات الخارجية.

كيف يعمل وكلاء الذكاء الاصطناعي

في جوهر وكلاء الذكاء الاصطناعي توجد نماذج لغوية كبيرة (LLMs). لهذا السبب، غالبًا ما يُشار إلى وكلاء الذكاء الاصطناعي باسم وكلاء النماذج اللغوية الكبيرة. تُنتج النماذج اللغوية الكبيرة التقليدية، مثل ®IBM® Granite، استجاباتها على أساس البيانات المستخدمة لتدريبها وهي محدودة بحدود المعرفة والاستدلال. وعلى النقيض من ذلك، تستخدم تقنية الوكلاء استدعاء الأدوات على الواجهة الخلفية للحصول على أحدث المعلومات وتحسين سير العمل وإنشاء مهام فرعية بشكل مستقل لتحقيق أهداف معقدة.

في هذه العملية، يتعلم الوكيل المستقل التكيف مع توقعات المستخدم بمرور الوقت. تشجِّع قدرة الوكيل على تخزين التفاعلات السابقة في الذاكرة وتخطيط الإجراءات المستقبلية على تقديم تجربة شخصية واستجابات شاملة.1يمكن تحقيق استدعاء هذه الأدوات دون تدخل بشري، ما يوسِّع إمكانيات تطبيقات هذه الأنظمة الذكية في العالم الحقيقي. تحدِّد هذه المراحل الثلاث أو العناصر الوكيلية كيفية عمل الوكلاء:

تهيئة الهدف والتخطيط

رغم أن وكلاء الذكاء الاصطناعي يعملون بشكل مستقل في عمليات اتخاذ القرار، إلا إنهم يحتاجون إلى أهداف وقواعد محددة مسبقًا يضعها البشر.2 توجد ثلاثة مؤثرات رئيسية على تصرفات الوكلاء المستقلين:

  • فريق المطورين الذين يصممون ويدربون نظام الذكاء الاصطناعي الوكيل
  • الفريق الذي ينشر الوكيل ويوفر للمستخدم إمكانية الوصول إليه.
  • المستخدم الذي يزود وكيل الذكاء الاصطناعي بأهداف محددة لإنجازها ويحدد الأدوات المتاحة لاستخدامها.

بالنظر إلى أهداف المستخدم والأدوات المتاحة للوكيل، يقوم وكيل الذكاء الاصطناعي بعد ذلك بإجراء تحليل المهام لتحسين الأداء.3 بشكل أساسي، يقوم الوكيل بإنشاء خطة من المهام والمهام الفرعية المحددة لإنجاز الهدف المعقد.

بالنسبة للمهام البسيطة، التخطيط ليس خطوة ضرورية. وبدلاً من ذلك، يمكن للوكيل أن يفكر بشكل متكرر في استجاباته ويحسّنها دون التخطيط لخطواته التالية.

التفكير باستخدام الأدوات المتاحة

يبني وكلاء الذكاء الاصطناعي أفعالهم على المعلومات التي يدركونها. ومع ذلك، فإنهم غالبا ما يفتقرون إلى المعرفة الكاملة المطلوبة لمعالجة كل مهمة فرعية ضمن هدف معقد. ولسد هذه الفجوة، يلجؤون إلى الأدوات المتاحة مثل مجموعات البيانات الخارجية، وعمليات البحث على الويب، وواجهات برمجة التطبيقات، وحتى الوكلاء الآخرين.

بمجرد جمع المعلومات المفقودة، يحدِّث الوكيل قاعدة معارفه ويشارك في التفكير الوكيل. وتتضمن هذه العملية إعادة تقييم خطة العمل باستمرار وإجراء تصحيحات ذاتية، ما يُتيح عملية اتخاذ قرار أكثر استنارة وقدرة على التكيف.

للمساعدة على توضيح هذه العملية، تخيَّل مستخدمًا يخطط لإجازته. يطلب المستخدم من وكيل ذكاء اصطناعي التنبؤ بالأسبوع الذي من المحتمل أن يشهد أفضل طقس لرحلة ركوب الأمواج في اليونان في العام المقبل. 

نظرًا لأن نموذج اللغوي الكبير في جوهر الوكيل غير متخصص في أنماط الطقس، فإنه لا يمكنه الاعتماد فقط على معرفته الداخلية. لذلك، يجمع الوكيل المعلومات من قاعدة بيانات خارجية تحتوي على تقارير الطقس اليومية لليونان على مدى السنوات العديدة الماضية.

على الرغم من الحصول على هذه المعلومات الجديدة، لا يزال الوكيل غير قادر على تحديد الظروف الجوية المثلى لركوب الأمواج، ومن ثَمَّ تُنشأ المهمة الفرعية التالية. بالنسبة إلى هذه المهمة الفرعية، يتواصل الوكيل مع وكيل خارجي متخصص في ركوب الأمواج. لنفترض أنه من خلال فعل، يتعلم الوكيل أن المد والجزر المرتفع والطقس المشمس مع أمطار قليلة أو معدومة يوفران أفضل الظروف لركوب الأمواج.

يمكن للوكيل الآن دمج المعلومات التي تعلمها من أدواته لتحديد الأنماط. ويمكنه التنبؤ بأي أسبوع في العام المقبل في اليونان من المحتمل أن يشهد مدًا وجزرًا مرتفعًا وطقسًا مشمسًا وفرصة منخفضة لهطول الأمطار. ثم يتم تقديم هذه النتائج إلى المستخدم. تبادل المعلومات هذا بين الأدوات هو ما يجعل وكلاء الذكاء الاصطناعي أكثر شمولية ومرونة من نماذج الذكاء الاصطناعي التقليدية.3

التعلّم والتفكير

يستخدم وكلاء الذكاء الاصطناعي آليات التعليقات، مثل وكلاء الذكاء الاصطناعي الآخرين والتفاعل البشري (HITL)، لتحسين دقة ردودهم. دعونا نعُد إلى مثال التصفح السابق لتسليط الضوء على هذه العملية. بعد أن يشكِّل الوكيل استجابته للمستخدم، يخزِّن المعلومات المكتسبة مع تعليقات المستخدم لتحسين الأداء والتكيف مع تفضيلات المستخدم للأهداف المستقبلية.

وإذا تمت الاستعانة بوكلاء آخرين للوصول إلى الهدف، فيمكن أن يتم استخدام تعليقاتهم أيضًا. قد تكون التعليقات الصادرة عن العديد من الوكلاء مفيدة خصوصًا في تقليل الوقت الذي يقضيه المستخدمون البشريون في تقديم التوجيه. ومع ذلك، يمكن للمستخدمين أيضًا تقديم ملاحظات بالتوازي مع الإجراءات التي يتخذها الوكيل واستدلالاته الداخلية لمواءمة النتائج على نحو أفضل مع الهدف المنشود.2

تعمل آليات التعليقات على تحسين استدلال وكيل الذكاء الاصطناعي ودقته، وهو ما يشار إليه عادةً باسم التنقيح التكراري.3 ولتجنب تكرار الأخطاء نفسها، يمكن لوكلاء الذكاء الاصطناعي أيضًا تخزين البيانات حول حلول العقبات السابقة في قاعدة معرفية.

أحدث الأخبار التقنية، مدعومة برؤى خبراء

ابقَ على اطلاع دومًا بأهم—اتجاهات المجال وأكثرها إثارة للفضول—بشأن الذكاء الاصطناعي والأتمتة والبيانات وغيرها الكثير مع نشرة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! أنت مشترك.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

مقارنة بين روبوتات المحادثة المدعومة بالذكاء الاصطناعي الوكيل وغير الوكيلية

تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي تقنيات الذكاء الاصطناعي الحواري مثل معالجة اللغة الطبيعية (NLP) لفهم أسئلة المستخدم وأتمتة الردود عليها. وتُعَد روبوتات المحادثة هذه وسيلة اتصال في حين أن الوكيل هو إطار عمل تقني. 

روبوتات المحادثة غير الوكيلية هي روبوتات لا تتوفر لديها أدوات أو ذاكرة أو تفكير. يمكنها فقط الوصول إلى أهداف قصيرة المدى ولا يمكنها التخطيط للمستقبل. وكما نعلم، تتطلب روبوتات المحادثة غير الوكيلية إدخالًا مستمرًا من المستخدم للاستجابة.

ويمكنها إنتاج إجابات على المطالبات الشائعة التي تتوافق على الأرجح مع توقعات المستخدم، ولكن أداءها ضعيف في الأسئلة الفريدة للمستخدم وبياناته. ونظرًا لأن روبوتات المحادثة هذه لا تحتفظ بذاكرة، فلا يمكنها التعلم من أخطائها إذا كانت ردودها غير مُرضية.

وفي المقابل، تتعلم روبوتات المحادثة المدعومة بالذكاء الاصطناعي التكيف مع توقعات المستخدم بمرور الوقت، ما يوفر تجربة أكثر تخصيصًا واستجابات شاملة. يمكنها إكمال المهام المعقدة عن طريق إنشاء مهام فرعية دون تدخل بشري والنظر في خطط مختلفة. ويمكن أيضًا تصحيح هذه الخطط ذاتيًا وتحديثها حسب الحاجة. وعلى عكس روبوتات المحادثة غير الوكيلية، تقوم روبوتات المحادثة المدعومة بالذكاء الاصطناعي الوكيل بتقييم أدواتها واستخدام الموارد المتاحة لها لملء فجوات المعلومات.

أكاديمية الذكاء الاصطناعي

كن خبيرًا في الذكاء الاصطناعي

اكتسب المعرفة لتحديد أولويات استثمارات الذكاء الاصطناعي التي تدفع نمو الأعمال. ابدأ مع أكاديمية الذكاء الاصطناعي المجانية اليوم وتولَّ زمام المبادرة لتعزيز مستقبل الذكاء الاصطناعي في مؤسستك.

نماذج الاستدلال

لا توجد بنية معيارية واحدة لبناء وكلاء الذكاء الاصطناعي. بل هناك عدة نماذج لحل المشكلات متعددة الخطوات.

نموذج ReAct (الاستدلال والعمل)

باستخدام نموذج ReAct، يمكننا توجيه الوكلاء إلى "التفكير" والتخطيط بعد كل إجراء يتم اتخاذه، وبعد كل استجابة من أداة، لتحديد الأداة التالية التي يجب استخدامها. تُستخدم هذه الحلقات التكرارية من التفكير والتنفيذ والملاحظة لحل المشكلات خطوة بخطوة وتحسين الاستجابات بشكل متكرر.

من خلال بنية التوجيه، يمكن توجيه الوكلاء إلى التفكير ببطء وعرض كل "فكرة".4 يمنح الاستدلال اللفظي للوكيل معارف حول كيفية صياغة الإجابات. في إطار العمل هذا، يحدِّث الوكلاء سياقهم باستمرار بالاستدلال الجديد. يمكن تفسير هذا النهج باعتباره شكلًا من أشكال التحفيز التسلسلي للأفكار.

نموذج ReWOO (الاستدلال دون ملاحظة)

طريقة ReWOO، على عكس ReAct، تُزيل الحاجة إلى الاعتماد على مخرجات الأدوات من أجل تخطيط العمل. وبدلًا من ذلك، يقوم الوكلاء بالتخطيط مقدمًا. ومن ثم، يتم تجنُّب استخدام الأدوات الزائدة عن الحاجة من خلال توقُّع الأدوات المطلوب استخدامها عند تلقي المطالبة الأولية من المستخدم. ويُعَد هذا النهج أكثر ملاءمة من منظور يركِّز على الإنسان، حيث يمكن للمستخدم تأكيد الخطة قبل تنفيذها.

يتكون سير عمل ReWOO من ثلاث وحدات. في وحدة التخطيط، يتوقع الوكيل خطواته التالية بناءً على طلب المستخدم. تستلزم المرحلة التالية جمع المخرجات الناتجة عن استدعاء هذه الأدوات. وأخيرًا، يقوم الوكيل بإقران الخطة الأولية مع مخرجات الأداة لصياغة استجابة. يمكن لهذا التخطيط المسبق أن يقلل بشكل كبير من استهلاك الرموز المميزة ومن التعقيد الحسابي ومن تبعات فشل الأدوات في المراحل الوسيطة.5

أنواع وكلاء الذكاء الاصطناعي

يمكن تطوير وكلاء الذكاء الاصطناعي لتكون لديهم مستويات مختلفة من القدرات. ومن المفضَّل استخدام وكيل بسيط لتحقيق أهداف مباشرةً لتقليل التعقيد الحوسبي غير الضروري. بالترتيب من الأبسط إلى الأكثر تقدمًا، هناك 5 أنواع رئيسية من الوكلاء:

1. وكلاء الاستجابة البسيطة

وكلاء الاستجابة البسطاء هم أبسط أشكال الوكلاء، حيث تُبنى أفعالهم على الإدراك. ولا يحمل هؤلاء الوكلاء أي ذاكرة، ولا يتفاعلون مع وكلاء آخرين إذا كانوا يفتقدون إلى المعلومات. ويعمل هؤلاء الوكلاء بناءً على مجموعة من القواعد التي يُطلق عليها "الاستجابات" أو "القواعد". وهذا السلوك يعني أن الوكيل مبرمج مسبقًا لأداء إجراءات تتوافق مع شروط معينة يتم استيفاؤها.

إذا واجه الوكيل موقفًا لم يكن مستعدًا له، فلن يتمكن من الاستجابة بشكل مناسب. لا يكون الوكلاء فعَّالين إلا في البيئات التي يمكن ملاحظتها بالكامل ما يُتيح الوصول إلى كل المعلومات الضرورية.6

مثال: إذا كانت الساعة 8 مساءً، يتم تشغيل التدفئة - مثل منظم الحرارة الذي يشغِّل نظام التدفئة في وقت محدد كل ليلة.

2. وكلاء الاستجابة المستندون على النماذج

يستخدم وكلاء الاستجابة القائمة على نموذج كلاً من إدراكهم الحالي وذاكرتهم الحالية للحفاظ على نموذج داخلي للعالم. مع استمرار الوكيل في تلقي معلومات جديدة، يتم تحديث النموذج. تعتمد تصرفات الوكيل على نموذجه وردود أفعاله ومبادئه السابقة وحالته الحالية.

يمكن لهؤلاء الوكلاء، على عكس وكلاء الاستجابة البسيطة، تخزين المعلومات في الذاكرة ويمكنهم العمل في بيئات قابلة للملاحظة والتغيير جزئيًا. ومع ذلك، فإنهم لا يزالوا مقيدين بمجموعة القواعد المفروضة عليهم.6

مثال على ذلك: مكنسة كهربائية روبوتية. أثناء قيامها بتنظيف الغرفة المتسخة، تستشعر العوائق مثل الأثاث وتتكيف معها. يحتفظ الروبوت أيضًا بنموذج للمناطق التي قام بتنظيفها لتفادي الوقوع في حلقة تنظيف متكرر.

3. الوكلاء القائمون على الهدف

يمتلك الوكلاء القائمون على الهدف نموذجًا داخليًا للعالم وأيضًا هدفًا أو مجموعة من الأهداف. يبحث هؤلاء الوكلاء عن تسلسلات الإجراءات التي تصل إلى أهدافهم ويخططون لهذه الإجراءات قبل التصرف بناءً عليها. يحسن هذا البحث والتخطيط من فعاليتهم عند مقارنتهم بوكلاء الاستجابة البسيطة والقائمة على نموذج.7

مثال: نظام ملاحة يوصي بأسرع طريق إلى وجهتك. يأخذ النموذج في الاعتبار الطرق المختلفة المؤدية إلى وجهتك، أو بعبارة أخرى، هدفك. في هذا المثال، تنص القاعدة- التي تربط بين الشرط والإجراء المفروضة على الوكيل- على أنه إذا تم العثور على مسار أسرع، فإن الوكيل يوصي بذلك المسار بدلاً من المسار الأصلي.

4. الوكلاء القائمون على المنفعة

يختار الوكلاء القائمون على المنفعة تسلسل الإجراءات التي تصل إلى الهدف وتزيد أيضًا من المنفعة أو المكافأة. يتم حساب المنفعة باستخدام الدالة النفعية. تقوم هذه الدالة بتعيين قيمة منفعة، وهي مقياس لمدى فائدة الإجراء أو مدى "رضا" الوكيل عنه، لكل سيناريو وفقًا لمجموعة من المعايير الثابتة.

يمكن أن تتضمن المعايير عوامل مثل التقدم نحو الهدف أو متطلبات الوقت أو التعقيد الحاسوبي. ثم يختار الوكيل بعد ذلك الإجراءات التي تزيد من المنفعة المتوقعة. ومن ثَمَّ، فإن هؤلاء الوكلاء مفيدون في الحالات التي تحقق فيها سيناريوهات متعددة الهدف المنشود ويجب اختيار السيناريو الأمثل.7

مثال: نظام ملاحة يوصي بالطريق إلى وجهتك يعمل على تحسين كفاءة استهلاك الوقود وتقليل الوقت المستغرق في حركة المرور وتكلفة الرسوم. يقيس هذا الوكيل المنفعة من خلال هذه المجموعة من المعايير لتحديد المسار الأكثر ملاءمة.

5. وكلاء التعلم

يمتلك الوكلاء المتعلمون القدرات نفسها التي تتمتع بها الأنواع الأخرى من الوكلاء، لكنهم فريدون في قدرتهم على التعلم. وتُضاف تجارب جديدة إلى قاعدة معارفهم الأولية، والتي تحدث بشكل مستقل. يعزز هذا التعلم قدرة الوكيل على العمل في بيئات غير مألوفة. قد يكون الوكلاء المتعلمون قائمين على المنفعة أو الأهداف في استدلالهم، ويتألفون من أربعة عناصر رئيسية:7

  • التعلم: تعمل هذه العملية على تحسين معرفة الوكيل من خلال التعلم من البيئة عبر إدراكاته وأجهزة استشعاره.
  • الناقد: يقدِّم هذا العنصر التعليقات للوكيل حول مدى مطابقة جودة ردوده للأداء.
  • الأداء: هذا العنصر مسؤول عن اختيار الإجراءات عند التعلم.
  • مولِّد المشكلات: تُنشئ هذه الوحدة نماذج مختلفة للإجراءات التي يجب اتخاذها.

مثال: التوصيات المخصصة على مواقع التجارة الإلكترونية. يتتبع هؤلاء الوكلاء نشاط المستخدم وتفضيلاته في ذاكرتهم. وتُستخدم هذه المعلومات للتوصية بمنتجات وخدمات معينة للمستخدم. تتكرر الدورة في كل مرة يتم فيها تقديم توصيات جديدة. ويتم تخزين نشاط المستخدم باستمرار لأغراض التعلم. وبذلك، يتطور الوكيل في دقته بمرور الوقت.

حالات استخدام وكلاء الذكاء الاصطناعي

تجربة العملاء

يمكن دمج وكلاء الذكاء الاصطناعي في مواقع الويب والتطبيقات لتعزيز تجربة العملاء من خلال عملهم كمساعدين افتراضيين، وذلك بتقديم الدعم النفسي ومحاكاة المقابلات والمهام الأخرى ذات الصلة.هناك العديد من القوالب، التي لا تتطلب تعليمات برمجية لينفذها المستخدم، ما يجعل عملية إنشاء وكلاء الذكاء الاصطناعي من هذا القبيل أسهل من أي وقت مضى.

الرعاية الصحية

يمكن استخدام وكلاء الذكاء الاصطناعي في مختلَف تطبيقات الرعاية الصحية في العالم الحقيقي. يمكن أن تكون الأنظمة متعددة الوكلاء مفيدة لحل المشكلات في مثل هذه الإعدادات. حيث توفِّر هذه الأنظمة وقت وجهد المهنيين الطبيين من أجل المهام الأكثر إلحاحًا، بدءًا من تخطيط العلاج للمرضى في قسم الطوارئ وانتهاءً بإدارة عمليات الدواء.9

الاستجابة للطوارئ

في حال وقوع كارثة طبيعية، يمكن لوكلاء الذكاء الاصطناعي استخدام خوارزميات التعلم العميق لاسترجاع معلومات المستخدمين على مواقع التواصل الاجتماعي الذين يحتاجون إلى إنقاذ. ويمكن تعيين مواقع هؤلاء المستخدمين لمساعدة خدمات الإنقاذ على إنقاذ المزيد من الأشخاص في وقت أقل. لذلك، يمكن لوكلاء الذكاء الاصطناعي أن يُحدثوا أثرًا كبيرًا في حياة الإنسان سواء في المهام الروتينية المتكررة أم في المواقف التي تتطلب إنقاذ الأرواح.10

التمويل وسلسلة التوريد

يمكن تصميم الوكلاء لتحليل البيانات المالية في الوقت الفعلي، وتوقُّع اتجاهات السوق المستقبلية وتحسين إدارة سلسلة التوريد. تُتيح قابلية تخصيص وكلاء الذكاء الاصطناعي المستقلين الحصول على مخرجات مخصصة تتوافق مع بياناتنا الفريدة. عند العمل مع البيانات المالية، من المهم فرض تدابير أمنية لخصوصية البيانات.

مزايا وكلاء الذكاء الاصطناعي

أتمتة المهام

مع التقدم المستمر في الذكاء الاصطناعي التوليدي والتعلم الآلي، يزداد الاهتمام بتحسين سير العمل باستخدام الذكاء الاصطناعي، أو ما يُعرَف باسم الأتمتة الذكية.وكلاء الذكاء الاصطناعي هم أدوات الذكاء الاصطناعي التي يمكنها أتمتة المهام المعقدة التي تتطلب موارد بشرية. وهذا التحول يعني تحقيق الأهداف بتكلفة منخفضة، وبسرعة، وعلى نطاق واسع. في المقابل، تعني هذه التطورات أن الوكلاء البشريين لا يحتاجون إلى توفير التوجيه لمساعد الذكاء الاصطناعي لإنشاء مهامه والتنقل فيها.

أداء أفضل

تميل أطر العمل متعددة الوكلاء إلى التفوق على الوكلاء الفرديين.11 وهذا لأنه كلما زاد عدد خطط العمل المتاحة للوكيل، زاد التعلم والتفكير.

يمكن أن يكون وكيل الذكاء الاصطناعي الذي يدمج المعرفة والتعليقات من وكلاء الذكاء الاصطناعي الآخرين المتخصصين في المجالات ذات الصلة مفيدًا في تجميع المعلومات. يعد هذا التعاون الخلفي لوكلاء الذكاء الاصطناعي والقدرة على سد فجوات المعلومات أمرًا فريدًا بالنسبة لأطر العمل الفعالة، مما يجعلها أداة قوية وتقدمًا ذا مغزى في الذكاء الاصطناعي.

جودة استجابات

يوفر وكلاء الذكاء الاصطناعي استجابات أكثر شمولًا ودقة وتخصيصًا للمستخدم مقارنةً بنماذج الذكاء الاصطناعي التقليدية. وتُعَد هذه القابلية للتكيف مهمة لنا كمستخدمين؛ لأن الاستجابات عالية الجودة تؤدي عادةً إلى تجربة عملاء أفضل. كما ذُكر سابقًا، تُصبح هذه القدرة ممكنة من خلال تبادل المعلومات مع وكلاء آخرين، باستخدام الأدوات وتحديث تدفق الذاكرة لديهم. وتظهر هذه السلوكيات من تلقاء نفسها وليست مبرمجة مسبقًا.12

المخاطر والقيود

التبعيات متعددة الوكلاء

بعض المهام المعقدة تتطلب معرفة العديد من وكلاء الذكاء الاصطناعي. وتنسيق أطر العمل متعددة الوكلاء هذه ينطوي على خطر حدوث خلل. قد تواجه الأنظمة متعددة الوكلاء المبنية على نماذج الأساس نفسها مشكلات مشتركة. ويمكن أن تتسبب مثل هذه الثغرات في فشل على مستوى النظام يشمل جميع الوكلاء المشاركين، أو أن تكشف عن نقطة ضعف أمام الهجمات العدائية.13وهذا يسلط الضوء على أهمية إدارة البيانات في بناء نماذج الأساس وعمليات التدريب والاختبار الشاملة.

حلقات التعليقات اللانهائية

سهولة التفكير غير التفاعلي التي يوفرها الوكلاء المدعومون بالذكاء الاصطناعي للمستخدمين البشريين تنطوي أيضًا على بعض المخاطر.فالوكلاء الذين لا يستطيعون وضع خطة شاملة أو التفكير في نتائجهم قد يجدون أنفسهم يكررون استخدام الأدوات نفسها، ما يؤدي إلى دوامة تعليقات لا نهائية. ولتجنب هذه التكرارات، يمكن استخدام مستوى معين من المراقبة البشرية في الوقت الحقيقي.13

التعقيد الحسابي

يستغرق بناء وكلاء الذكاء الاصطناعي من البداية وقتًا طويلًا ويمكن أن يكون مكلفًا للغاية من الناحية الحسابية. وربما تكون الموارد المطلوبة لتدريب وكيل عالي الأداء ضخمة وكثيفة. بالإضافة إلى ذلك، قد يستغرق الوكلاء عدة أيام لإكمال المهام، اعتمادًا على مدى تعقيدها.12

خصوصية البيانات

قد يؤدي سوء إدارة تكامل وكلاء الذكاء الاصطناعي مع عمليات الأعمال وأنظمة إدارة العملاء إلى إثارة قضايا أمنية جسيمة. على سبيل المثال، تخيَّل أن وكلاء الذكاء الاصطناعي يقودون عملية تطوير البرمجيات، وينقلون المساعدين في البرمجة إلى مستوى أعلى، أو يحددون الأسعار للعملاء - وذلك دون أي رقابة بشرية أو ضوابط تنظيمية. قد تكون نتائج مثل هذه السيناريوهات ضارة بسبب السلوك التجريبي وغير المتوقع غالبًا للذكاء الاصطناعي الوكيل.

لذلك، من الضروري أن تظل شركات الذكاء الاصطناعي مثل IBM وMicrosoft وOpenAI استباقية في تعاملها. ويجب عليهم تنفيذ بروتوكولات أمان شاملة لضمان تخزين بيانات الموظفين والعملاء الحساسة بشكل آمن. تُعَد ممارسات النشر المسؤولة عاملًا أساسيًا في تقليل المخاطر والحفاظ على الثقة في هذه التقنيات سريعة التطور.

أفضل الممارسات

سجلات الأنشطة

ولمعالجة المخاوف المتعلقة بتبعيات الوكلاء المتعددين، يمكن للمطورين توفير إمكانية الوصول للمستخدمين إلى سجل إجراءات الوكيل.14يمكن أن تشمل الإجراءات استخدام أدوات خارجية وشرح الوكلاء الخارجيين المستخدمَين لتحقيق الهدف. تمنح هذه الشفافية المستخدمين رؤى لعملية صنع القرار التكرارية، وتوفِّر الفرصة لاكتشاف الأخطاء وبناء الثقة.

الانقطاع

يُنصح بمنع وكلاء الذكاء الاصطناعي المستقلين من العمل لفترات زمنية طويلة للغاية. خاصةً في حالات حدوث دوامة تعليقات لا نهائية غير مقصودة، أو تغيُّر إمكانية الوصول إلى بعض الأدوات، أو تعطل الوكيل بسبب عيوب في التصميم. إحدى الطرق لتحقيق هذا الهدف هي تنفيذ خاصية إمكانية المقاطعة.

يتطلب الحفاظ على التحكم في هذا القرار إتاحة خيار للمستخدمين البشر لمقاطعة تسلسل الإجراءات أو العملية بالكامل بشكل سلس. ويتطلب اتخاذ قرار إذا ما كان يجب مقاطعة وكيل الذكاء الاصطناعي ومتى يتم ذلك قدرًا من التروّي، إذ إن بعض عمليات الإنهاء قد تُلحِق ضررًا أكبر من نفعها. على سبيل المثال، قد يكون من الأكثر أمانًا السماح لوكيل معيب بالاستمرار في المساعدة أثناء حالة طارئة مهددة للحياة بدلًا من إيقافه تمامًا.5

معرفات الوكيل الفريدة

للتقليل من خطر استخدام الأنظمة الوكيلية لأغراض خبيثة، يمكن اعتماد معرفات فريدة. إذا تم فرض استخدام هذه المعرِّفات كشرط لدخول الوكلاء إلى الأنظمة الخارجية، فسيصبح تتبُّع مصدر مطوري الوكيل ومن قام بنشره واستخدامه أسهل.

ويضيف هذا النهج طبقة أساسية من المساءلة. تساعد إمكانية التتبُّع على تحديد الجهات المسؤولة عندما يتسبب الوكيل في استخدام خبيث أو ضرر غير مقصود. في نهاية المطاف، من شأن هذا النوع من الضمانات أن يعزز بيئة تشغيل أكثر أمانًا لوكلاء الذكاء الاصطناعي.

الإشراف البشري

لدعم عملية التعلم لدى وكلاء الذكاء الاصطناعي، خاصةً في مراحلهم الأولى ضمن بيئة جديدة، قد يكون من المفيد توفير قدر من الإشراف البشري. وبناءً على هذه الإرشادات، يمكن لوكيل الذكاء الاصطناعي مقارنة أدائه بالمعيار المتوقع وإجراء التعديلات. هذا النوع من التعليقات مفيد في تحسين قدرة الوكيل على التكيف مع تفضيلات المستخدم.5

إلى جانب هذا الإجراء الوقائي، من الأفضل أن يُشترَط الحصول على موافقة بشرية قبل أن يتخذ وكيل الذكاء الاصطناعي إجراءات ذات تأثير كبير. على سبيل المثال، يجب أن تتطلب الإجراءات التي تتراوح بين إرسال رسائل البريد الإلكتروني الجماعية والتداول المالي تأكيدًا بشريًا.7 إذ يُوصى بمستوى معين من المراقبة البشرية لمثل هذه المجالات عالية الخطورة.

حلول ذات صلة
وكلاء الذكاء الاصطناعي للأعمال

يمكنك إنشاء مساعدين ووكلاء ذكاء اصطناعي ووكلاء أقوياء يعملون على أتمتة مهام سير العمل والعمليات باستخدام الذكاء الاصطناعي التوليدي ونشرها وإدارتها.

    استكشف watsonx Orchestrate
    حلول وكلاء الذكاء الاصطناعي من IBM

    يمكنك بناء مستقبل عملك باستخدام حلول الذكاء الاصطناعي الجديرة بالثقة.

    استكشف حلول وكلاء الذكاء الاصطناعي
    خدمات الذكاء الاصطناعي لدى IBM Consulting

    تساعد خدمات IBM Consulting AI في إعادة تصور طريقة عمل الشركات باستخدام حلول الذكاء الاصطناعي من أجل النهوض بأعمالها.

    استكشف خدمات الذكاء الاصطناعي
    اتخِذ الخطوة التالية

    سواء اخترت تخصيص التطبيقات والمهارات المُعدّة مسبقًا أو إنشاء خدمات مخصصة مستندة إلى وكلاء ونشرها باستخدام استوديو الذكاء الاصطناعي، فإن منصة IBM watsonx تُلبي احتياجاتك.

    استكشف watsonx Orchestrate استكشف watsonx.ai
    الحواشي

    1 Andrew Zhao, Daniel Huang, Quentin Xu, Matthieu Lin, Yong-Jin Liu and Gao Huang, "Expel: LLM agents are experiential learners," Proceedings of the AAAI conference on artificial intelligence, Vol. 38, No. 17, pp. 19632-19642, 2024, https://ojs.aaai.org/index.php/AAAI/article/view/29936\
    2 Yonadov Shavit, Sandhini Agarwal, Miles Brundage, Steven Adler, Cullen O’Keefe, Rosie Campbell, Teddy Lee, Pamela Mishkin, Tyna Eloundou, Alan Hickey, Katarina Slama, Lama Ahmad, Paul McMillan, Alex Beutel, Alexandre Passos and David G. Robinson, “Practices for governing agentic AI Systems,” OpenAI, 2023, https://arxiv.org/pdf/2401.13138v3
    3 Tula Masterman, Sandi Besen, Mason Sawtell and Alex Chao, “The landscape of emerging AI agent architectures for reasoning, planning and tool calling: A Survey” arXiv preprint, 2024, https://arxiv.org/abs/2404.11584
    4 Gautier Dagan, Frank Keller and Alex Lascarides, "Dynamic planning with an LLM," arXiv preprint, 2023 https://arxiv.org/abs/2308.06391
    5 Binfeng Xu, Zhiyuan Peng, Bowen Lei, Subhabrata Mukherjee, Yuchen Liu and Dongkuan Xu, "ReWOO: Decoupling reasoning from observations for efficient augmented language models," arXiv preprint, 2023 https://arxiv.org/abs/2305.18323
    6 Sebastian Schmid, Daniel Schraudner and Andreas Harth, "Performance comparison of simple reflex agents using stigmergy with model-based agents in self-organizing transportation." IEEE International conference on autonomic computing and self-organizing systems companion, pp. 93–98, 2021, https://ieeexplore.ieee.org/document/9599196
    7 Veselka Sasheva Petrova-Dimitrova, “Classifications of intelligence agents and their applications,” Fundamental sciences and applications, Vol. 28, No. 1, 2022.
    8 Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, Wayne Xin Zhao, Zhewei Wei and Jirong Wen, “A survey on large language model based autonomous agents,” Frontiers of computer science, Vol. 18, No. 6, 2024, https://link.springer.com/article/10.1007/s11704-024-40231-1
    9 Jaya R. Haleema, Haleema, N. C. S. N. Narayana, “Enhancing a traditional health care system of an organization for better service with agent technology by ensuring confidentiality of patients’ medical information,” Cybernetics and information technologies, Vol. 12, No. 3, pp.140-156, 2013, https://sciendo.com/article/10.2478/cait-2013-0031
    10 Jingwei Huang, Wael Khallouli, Ghaith Rabadi and Mamadou Seck, “Intelligent agent for hurricane emergency identification and text information extraction from streaming social media big data,” International journal of critical infrastructures, Vol. 19, No. 2, pp. 124–139, 2023, https://arxiv.org/abs/2106.07114
    11 Junyou Li, Qin Zhang, Yangbin Yu, Qiang Fu and Deheng Ye. "More agents is all you need." arXiv preprint, 2024, https://arxiv.org/abs/2402.05120
    12 Joon Sung Park, Joseph O'Brien, Carrie Jun Cai, Meredith Ringel Morris, Percy Liang and Michael S. Bernstein, "Generative agents: Interactive simulacra of human behavior," Proceedings of the 36th annual ACM symposium on user interface software and technology, pp. 1–22, 2023, https://dl.acm.org/doi/10.1145/3586183.3606763
    13 Alan Chan, Carson Ezell, Max Kaufmann, Kevin Wei, Lewis Hammond, Herbie Bradley, Emma Bluemke, Nitarshan Rajkumar, David Krueger, Noam Kolt, Lennart Heim and Markus Anderljung, “Visibility into AI agents,” The 2024 ACM Conference on fairness, accountability and transparency, pp. 958–973, 2024, https://arxiv.org/abs/2401.13138
    14 Devjeet Roy, Xuchao Zhang, Rashi Bhave, Chetan Bansal, Pedro Las-Casas, Rodrigo Fonseca and Saravan Rajmohan, "Exploring LLM-based agents for root cause analysis," arXiv preprint, 2024, https://arxiv.org/abs/2403.04123