في هذا الدليل، ستستخدم بروتوكولات اتصالات الوكلاء (ACP) لاستكشاف سير عمل ذكاء اصطناعي متعدد الوكلاء وعبر المنصات، يوضِّح التعاون الفوري بين الوكلاء مع BeeAI وcrewAI. يعمل ACP كطبقة رسائل مشتركة ومعيار مفتوح، تمكِّن الوكلاء من أطر عمل مختلفة من التواصل والتنسيق دون الحاجة إلى منطق تكامل مخصص.
يُعَد ACP ذا قيمة خاصة في بيئات الذكاء الاصطناعي المؤسسية، حيث غالبًا ما تحتاج الفرق إلى بناء وكلاء وسير عمل عبر منصات وأدوات وبنى تحتية متنوعة. من خلال توفير طبقة رسائل معيارية، يُتيح ACP تعاون الوكلاء بطريقة قابلة للتوسع وآمنة ومرنة، بما يتوافق مع متطلبات أنظمة الذكاء الاصطناعي المؤسسية الحديثة.
يوضِّح هذا المشروع قابلية تكامل الوكلاء من خلال تمكين وكلاء مدعومين بالذكاء الاصطناعي من التعاون عبر أطر العمل المختلفة، وجمع قدرات الوكلاء مثل البحث، وتوليد المحتوى، والتقييم في سير عمل موحَّد.
تتولى معظم أطر العمل للذكاء الاصطناعي الوكيل على التعامل مع الاتصالات باستخدام أنظمة مخصصة أو مغلقة. تجعل هذه البنية من الصعب ربط الوكلاء عبر سلاسل الأدوات أو الفرق أو البنى التحتية، خاصةً عند الجمع بين عناصر من أنظمة الذكاء الاصطناعي المختلفة.
يقدِّم ACP تنسيقًا موحَّدًا ومستقلًا عن إطار العمل للرسائل لكيفية إرسال الوكلاء المستقلين للرسائل واستقبالها وتفسيرها. يتم تنظيم الرسائل، عادةً في JSON، وتحتوي على بيانات تعريف لإثراء تفاعلات الوكيل بوضوح واتساق.
من خلال فصل الاتصال عن المنطق الداخلي للوكيل، يسمح ACP للفرق بخلط ومطابقة الوكلاء المبنيين باستخدام أطر عمل وكلاء الذكاء الاصطناعي المختلفة، مثل BeeAI أو CrewAI أو LangChain أو LangGraph، دون الحاجة إلى كود تكامل مخصص. يزيد هذا النهج من قابلية التوسع، ويبسِّط الأتمتة ويدعم تصميم النظام المعياري الشفاف الذي يتماشى مع معايير الصناعة الحديثة.
بحلول نهاية هذا البرنامج التعليمي، ستكون قد شاهدت مثالًا عمليًا على ACP وستحصل على تجربة عملية في استخدام التقنيات التالية:
يوضِّح هذا المشروع سير عمل متعدد الوكلاء يبيّن كيف يمكن لـ ACP (من خلال acp-sdk) تبسيط التعاون المتناسق والقابل للملاحظة عبر أنظمة الوكلاء.
يبدأ سير العمل عندما يقدِّم المستخدم عنوان URL. من هنا، يقوم نظام معياري مستقل عن إطار العمل من الوكلاء المتخصصين بتحويل محتوى صفحة الويب إلى قطعة فنية إبداعية -أغنية أصلية - مصحوبة بتقييم نقدي بأسلوب احترافي. تعمل جميع العناصر بشكل متناسق لدمج هذه المخرجات في تقرير واحد موحَّد قابل للقراءة من قِبَل البشر. هذه النتيجة النهائية تمثِّل التحول الكامل للبيانات الأصلية، حيث تجمع بين التوليد الإبداعي والرؤى التحليلية.
يوضّح سير العمل هذا كيف يمكِّن ACP نظام الذكاء الاصطناعي الوكيل من تنسيق التعاون بين الوكلاء المطورين بإطارين مختلفين: BeeAI وcrewAI، من خلال العمل كطبقة اتصال مشتركة عبر النظام.
من خلال فصل الاتصال عن التنفيذ، يظل النظام معياريًا وقابلًا للتوسعة - قادرًا على تنسيق الوكلاء عبر إطار العمل مع إنتاج مخرجات متماسكة ومتكاملة من محتوى الويب غير المنظم.
وكلاء ACP
يستخدم هذا المشروع أربعة وكلاء ذكاء اصطناعي:
سير عمل مشروع كتابة الأغاني والنقد
طوال سير العمل، يتم تنظيم الرسائل المتبادلة بين الوكلاء ككائنات JSON غنية بالبيانات الوصفية. توجِّه هذه البيانات الوصفية فهم كل وكيل لمحتوى الرسالة وسياقها والاستجابات المتوقعة.
يوضِّح سير العمل هذا نمطًا قابلًا لإعادة الاستخدام ينطبق على أي حالة استخدام تتطلب تنسيق تحوُّل البيانات متعدد الوكلاء ومسارات التحليل.
يوفر ACP نظام مراسلة مشترك يسمح للوكلاء الذين تم إنشاؤهم بأطر عمل مختلفة بتبادل المعلومات بطريقة موحَّدة. يسمح هذا البروتوكول المفتوح للوكلاء بالعمل البيني دون الحاجة إلى عمليات تكامل مخصصة أو منطق داخلي مشترك.
عميل ACP (
نظرة عامة على سير عمل عميل ACP
ستنتظر دالة
الأدوار الرئيسية لـ
مثال على استخدام العميل:
فيما يلي متطلبات النظام لتشغيل هذا المشروع:
قبل البدء، إليك نظرة عامة سريعة على الأدوات وخدمات المزوِّدين التي ستحتاجها.
تغطي القائمة التالية أطر العمل، والمنصات، وواجهات البرمجة الأساسية المطلوبة لسير العمل متعدد الوكلاء.
في الأقسام التالية، ستجد تعليمات خطوة بخطوة لتثبيت كل أداة ومزوِّد، وتكوينها واستخدامها، حتى تتمكن من إعداد بيئتك.
تم تصميم كلٌّ من BeeAI وcrewAI للعمل مع مجموعة متنوعة من مزوّدي النماذج اللغوية، ما يجعلهما مرنين لمختلَف البيئات وحالات الاستخدام. في هذا البرنامج التعليمي، OpenRouter هو موفر النموذج اللغوي الكبير لوكيل BeeAI، بينما يتم استخدام Ollama لوكلاء crewAI محليًا.
كلا الإطارين مستقلان عن المزود، لذا يمكنك التبديل إلى خدمات LLM أخرى عن طريق تحديث إعدادات التكوين. قد يختلف الإعداد الخاص بك وفقا لمزوِّد LLM الذي تختاره. بالإضافة إلى ذلك، يتضمن هذا البرنامج التعليمي إعدادًا اختياريًا تم تكوينه مسبقًا لاستخدام IBM watsonx.ai كمزوِّد بديل قائم على السحابة.
يمكنك أيضًا استخدام مزوِّد ونموذج LLM المفضل لديك، لكن يُرجى ملاحظة أن الإعدادات الموضحة في هذا البرنامج التعليمي هي الوحيدة التي تم اختبارها. قد يتطلب المزوِّدون والنماذج الأخرى إعدادات إضافية أو تعديلات.
المتطلبات التالية هي لمزوِّدي الخدمات الثلاثة المدعومين في هذا المشروع:
ستحتاج إلى مفتاح OpenRouter API لاستخدام خادم وكيل BeeAI الذي تم تكوينه مسبقًا مع النماذج اللغوية القائمة على السحابة.
لاستخدام OpenRouter كمزوِّد LLM لوكيل BeeAI، اتَّبِع الخطوات التالية:
ملاحظة: قد يختلف النموذج المجاني حسب وقت تشغيل هذا البرنامج التعليمي. للحصول على نماذج مجانية، راجِع قائمة نماذج الطبقة المجانية لـ OpenRouter.
إذا كنت تخطِّط لاستخدام Ollama كمزوِّد LLM الخاص بك لوكيل crewAI، فاتَّبِع الخطوات التالية:
لاستخدام IBM watsonx.ai كمزوِّد الذكاء الاصطناعي الخاص بك لخادم crewAI، اتَّبِع الخطوات التالية:
يتم استخدام IBM watsonx.ai كمزوِّد LLM سحابي اختياري لوكلاء crewAI في هذا البرنامج التعليمي.
AgentOps هي خدمة اختيارية لتتبُّع ومراقبة وتصوُّر سير العمل متعدد الوكلاء لديك.
إذا كنت تريد استخدام AgentOps في هذا المشروع، فاتَّبِع الخطوات التالية:
لا يُعَد AgentOps ضروريًا لتشغيل سير العمل، لكنه يساعد على مراقبة نشاط الوكلاء وتصحيح التفاعلات بين عدة وكلاء.
لتشغيل هذا المشروع، انسخ مستودع GitHub باستخدام https://github.com/IBM/ibmdotcom-tutorials.git كعنوان URL لـ HTTPS. لمعرفة الخطوات التفصيلية حول كيفية استنساخ مستودع، راجِع وثائق GitHub.
يمكن العثور على هذا البرنامج التعليمي داخل دليل المشاريع في المستودع.
داخل المحطة الطرفية، انتقِل إلى دليل هذا البرنامج التعليمي:
يتطلب هذا المشروع تشغيل ثلاثة برامج نصية منفصلة من Python في وقت واحد لكل عنصر من عناصر النظام متعدد الوكلاء. نتيجةً لذلك، ستحتاج إلى فتح ثلاث نوافذ أو علامات تبويب طرفية.
ابدأ بإبقاء المحطة الطرفية الحالية مفتوحة، ثم افتح محطتين طرفيتين أخريين وتأكَّد من أن الثلاثة جميعها تم توجيهها إلى الدلائل الصحيحة (كما هو موضَّح في الخطوة التالية).
هل تستخدم IDE؟
إذا كنت تستخدم IDE مثل Visual Studio Code*، فيمكنك استخدام ميزة Split Terminal لإدارة محطات متعددة جنبًا إلى جنب.
بخلاف ذلك، افتح ثلاث نوافذ طرفية مستقلة وانتقل بكل واحدة إلى الدليل الفرعي المناسب.
التنقل في المحطة الطرفية
كل محطة مسؤولة عن أحد العناصر التالية:
يعمل كل عنصر في بيئته الافتراضية الخاصة لضمان إدارة واضحة للتبعيات. يستخدم هذا البرنامج التعليمي UV، وهو مدير حزم Python المستند إلى Rust لإدارة البيئات ومزامنتها.
ملاحظة: تأكَّد من تثبيت Python 3.11 أو إصدار أحدث قبل المتابعة.
تثبيت UV
إذا لم تكن قد فعلت ذلك، فثبِّت UV باستخدام Homebrew (مُوصى به لنظامّي macOS وLinux):
ملاحظة لمستخدمي Windows: ثبِّت WSL (نظام Windows الفرعي لتشغيل Linux) واتَّبِع تعليمات Linux داخل محطة WSL الطرفية الخاصة بك.
إنشاء وتنشيط بيئة افتراضية (في كل محطة طرفية)
في كل محطة طرفية (BeeAI، وcrewAI، وعميل ACP)، شغِّل الكود التالي:
ستؤدي هذه الخطوة إلى إنشاء وتنشيط
تشغيل
الآن قم بتثبيت التبعيات في كل محطة باستخدام:
تعمل هذه الخطوة على تثبيت التبعيات المدرجة في ملف
مع تثبيت BeeAI، استخدِم CLI لبدء تشغيل منصة BeeAI في
ملاحظة: في التشغيل الأول، قد تستغرق هذه الخطوة عدة دقائق.
إعداد مزوِّد النماذج اللغوية الكبيرة (OpenRouter)
شغِّل الأمر التالي لتكوين مزوِّد LLM والنموذج من خلال واجهة سطر الأوامر (CLI) التفاعلية:
اتَّبِع التعليمات لاختيار OpenRouter وإدخال مفتاح API الخاص بك وتفاصيل النموذج.
لتأكيد الإعدادات، استخدِم:
يجب أن تُخرج هذه الخطوة
بدلًا من ذلك، يمكن للمستخدمين المتقدمين تحرير ملف
مثال .env لـ OpenRouter
للتحقق من عمل BeeAI، أرسل مطالبة اختبار:
تؤكِّد الاستجابة الصالحة أن المنصة نشطة.
استكشاف الأخطاء وإصلاحها
إذا لزم الأمر، يمكنك تحديث المنصة أو إعادة تشغيلها:
في دليل
افتح
يمكنك أيضًا تخصيص الموفر الخاص بك باستخدام مستندات تكوين النموذج اللغوي الكبير من crewAI.
تحديث كود وكيل crewAI
في
تأكَّد من أن أسماء متغيّرات البيئة في ملف
بمجرد تكوين كلٍّ من BeeAI وcrewAI، ابدأ بتشغيل خوادم الوكيل في المحطات الطرفية الخاصة بها.
بدء تشغيل خادم وكيل BeeAI
في المحطة الطرفية beeai_agent_server:
يجب أن ترى الإخراج الذي يؤكِّد بدء تشغيل الخادم
يجب أن يسجِّل الجهاز إشارات فحص السلامة كل بضع ثوانٍ.
بدء تشغيل خادم وكيل crewAI
في محطة crewai_agent_server:
يجب أن ترى الخادم يعمل على
تأكَّد من تشغيل جميع الوكلاء
يتعرف BeeAI تلقائيًا على الوكلاء المتوافقين مع ACP الذين تم إنشاؤهم محليًا. استخدم واجهة سطر الأوامر (CLI) الخاصة بـ BeeAI للتأكد من أن جميع الوكلاء المحليين مسجلون وأصحاء (يمكن تشغيل هذه الخطوة في أي محطة طرفية مجانية):
يجب أن ترى إدخالات لـ:
إذا تم إدراج جميع العوامل ويمكن الوصول إليها، فيمكننا أن نؤكِّد أن هذه الوكلاء قد تم تشغيلهم بنجاح!
في المحطة المخصصة لخادم عميل acp (داخل دليل
داخل المحطة، سيُطلب منك إدخال عنوان URL. يؤدي هذا الإدخال إلى تشغيل سير العمل متعدد الوكلاء.
مع تشغيل جميع الوكلاء والعميل/الخادم، أنت جاهز لبدء مشروع ACP!
ملاحظة: مُخرجات النماذج اللغوية الكبيرة (LLMs) احتمالية ويمكن أن تختلف في كل مرة تقوم فيها بتشغيل سير العمل، حتى مع نفس الإدخال.
في هذا الدرس، قمتَ بربط إطارين مختلفين متعددَي الوكلاء من خلال عميل/خادم ACP، الذي وفَّر نقاط نهاية لتمكين وكلاء الذكاء الاصطناعي من التعاون لتوليد البيانات وتحويلها. من خلال فصل التواصل عن سلوك الوكلاء، يُتيح ACP إمكانية تعاون الوكلاء المبنيين باستخدام BeeAI وcrewAI وLangChain وأطر وكلاء أخرى دون الحاجة إلى منطق تكامل مخصص. يعمل هذا النهج على تحسين الوحدات النمطية والتوسع وقابلية التشغيل البيني.
يُعَد ACP مبادرة مفتوحة تنبُع من الحاجة إلى تمكين الوكلاء من إرسال الرسائل واستقبالها وتفسيرها. يتم تنظيم الرسائل في ACP -عادةً بتنسيقات مثل JSON- وإثرائها بالبيانات الوصفية لضمان الاتساق والوضوح عبر تفاعلات الوكيل. سواء أكنت تستخدم وكلاء مدعومين من OpenAI أم Anthropic أم نماذج ذكاء اصطناعي أخرى، يوفر ACP طبقة مراسلة مشتركة تدعم إمكانية التشغيل البيني المستقل عن إطار العمل.
باتباع سير العمل هذا، تكون قد رأيت كيف يمكن للوكيلين الإبداعي والتحليلي أن يعملا في تناغم، وتحويل محتوى الويب غير المنظم إلى أغنية ونقد احترافي وتقرير Markdown موحَّد. يوضِّح هذا النهج قوة ACP لتمكين أنظمة ذكاء اصطناعي متعددة الوكلاء سلسة وقابلة للتوسع ومرنة.
عند الانتهاء من تجربة النظام، اتَّبِع الخطوات التالية لإيقاف جميع العناصر العاملة بطريقة منظمة:
1. إيقاف كل خادم قيد التشغيل
في كل نافذة محطة طرفية، اضغط على
ستظهر لك مخرجات مثل:
2. إذا توقف الخادم عن العمل أثناء إيقاف التشغيل
إذا أصبح الخادم لا يستجيب أو توقف عن العمل عند إيقاف التشغيل (على سبيل المثال، توقفَ عند
البحث عن معرِّف العملية (PID)
شغِّل الأمر التالي لتحديد موقع عملية الخادم:
حدِّد معرِّف PID للعملية التي تحاول إيقافها. على سبيل المثال:
أوقف العملية. استخدِم PID لإيقافها بالقوة:
كرِّر هذه العملية لكل خادم إذا لزم الأمر.
أحسنت! لقد نجحتَ في تشغيل نظام متكامل متعدد المنصات باستخدام ACP.
يمكنك إنشاء مساعدين ووكلاء ذكاء اصطناعي ووكلاء أقوياء يعملون على أتمتة مهام سير العمل والعمليات باستخدام الذكاء الاصطناعي التوليدي ونشرها وإدارتها.
يمكنك بناء مستقبل عملك باستخدام حلول الذكاء الاصطناعي الجديرة بالثقة.
تساعد خدمات IBM Consulting AI في إعادة تصور طريقة عمل الشركات باستخدام حلول الذكاء الاصطناعي من أجل النهوض بأعمالها.