تنطبق أفضل ممارسات حوكمة الذكاء الاصطناعي التقليدية مثل حوكمة البيانات وتقييمات المخاطر وسير العمل الواضح والقدرة على التفسير والمعايير الأخلاقية والمراقبة المستمرة أيضًا على الأنظمة الوكيلية. لكن الحوكمة الوكيلية قد تمتد إلى ما هو أبعد من هذه الممارسات المتَّبعة.
بدلًا من الاكتفاء باختبار النماذج قبل النشر، يمكن للمؤسسات إنشاء بيئات محاكاة تُتيح لوكلاء الذكاء الاصطناعي اتخاذ قرارات دون تبعات في العالم الحقيقي قبل النشر الكامل. يُتيح العزل الآمن للذكاء الاصطناعي للمطورين دراسة المعضلات الأخلاقية غير المقصودة قبل تعريض الوكلاء للمستخدمين الحقيقيين. يمكن اختبار نماذج الذكاء الاصطناعي الأخلاقي من خلال اختبارات ضغط أخلاقي، مثل سيناريوهات حوادث القيادة الذاتية المُحاكاة أو المعضلات الأخلاقية في أنظمة التوظيف المعتمدة على الذكاء الاصطناعي.
تُعَد مراقبة الوكلاء لبعضهم وسيلة أخرى لتفادي المشكلات قبل خروجها عن السيطرة. نظرًا لتعقيد المنظومات الوكيلية، سيحتاج الوكلاء إلى التعاون والتفاوض فيما بينهم بشكل متكرر. يمكن أن يساعد رصد هذه التفاعلات ووضع قواعد لحل النزاعات بين الوكلاء على ضمان قدرتهم على العمل معًا بانسجام.
يمكن أيضًا إقران الوكلاء العاملين "بوكلاء حوكمة" مصممين لمراقبة الوكلاء الآخرين وتقييمهم ومنع الأضرار المحتملة. للتخفيف من المخاطر، تجب مراقبة الوكلاء باستمرار للكشف عن انحراف النموذج. تخيَّل وكيل خدمة عملاء يتعامل طوال اليوم مع زبائن غاضبين، فيكتسب مع الوقت شخصية حادة المزاج نتيجة تأقلمه مع تلك التفاعلات. الآن تخيَّل وكيل إدارة يتصرف كمراقب ممرات، يوقف ذلك الوكيل جانبًا ويقول له شيئًا مثل: "يبدو أنك لست على طبيعتك اليوم". يمكن أيضًا برمجة الوكلاء لطلب موافقة الإنسان على إجراءات معينة.
بالإضافة إلى هذه الممارسات، يوصي العديد من الخبراء بأن تكون للوكلاء آلية إيقاف طارئ تسمح بإيقاف تشغيلهم على الفور، خاصةً في البيئات عالية المخاطر. يمكن للمؤسسات وضع إجراءات احتواء لضمان عدم تصعيد الذكاء الاصطناعي المعطَّل للمشكلات قبل التدخل. تُجري بعض المؤسسات تجارب لإخضاع الوكلاء لاختبارات ضغط باستخدام هجمات معادية في الحالات القصوى أو الظروف غير المتوقعة بهدف كشف الثغرات.
ستصبح إدارة وكلاء الذكاء الاصطناعي أسهل قريبًا. سيقدم موفرو منصات الحوكمة أدوات حوكمة قوية للذكاء الاصطناعي مع لوحات معلومات توفِّر الوصول إلى مقاييس متخصصة لأنظمة الوكلاء والتفاعل مع الوكلاء. على سبيل المثال، يعمل مهندسو البرمجيات في شركة IBM حاليًا على دمج مقاييس متخصصة مثل ملاءمة السياق والدقة وتشابه الإجابات في watsonx.gov. سيساعد برنامج الحوكمة المناسب الأطراف المعنية على متابعة وكلائهم عبر دورة حياتهم الشاملة، ما يسمح لهم بالحصول على أقصى استفادة من الذكاء الاصطناعي الوكيل.
مع تزايد استقلالية أنظمة الذكاء الاصطناعي الوكيل، تصبح مسألة ضمان عملها بأمان وأخلاقية وأمان إلكتروني تحديًا متناميًا. إذ يتعين على المؤسسات اعتماد نماذج حوكمة قابلة للتطوير، وتطبيق بروتوكولات قوية للأمن الإلكتروني وإدارة المخاطر، ودمج الرقابة البشرية. وإذا تمكنت المؤسسات من توسيع نطاق الأنظمة الوكيلية بأمان، فستتمكن من تحقيق قيمة شبه غير محدودة.