ما بعد منهجية التحوُّل إلى اليسار: كيف يمكن أن يؤدي "التحوُّل إلى أي مكان" باستخدام وكلاء الذكاء الاصطناعي إلى تحسين عمليات التطوير

زميلان يعملان على أجهزة الحوسبة.

مؤلف

Chrystal R. China

Staff Writer, Automation & ITOps

IBM Think

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

تخيَّل أنك تطلب الطعام لحفلة عشاء، لكن الروبوت المسؤول عن توصيل وجبتك يتعطل؛ لأنه لا يستطيع التنقل على الأرصفة غير المستوية في حيّك. أو لأن نظام تحديد المواقع (GPS) الخاص به غير مجهَّز للعثور على طرق لتجاوز إغلاق طريق مجاور.   

أو الأسوأ من ذلك، يصل الروبوت لكن وجبتك مفقودة - فقد اخترق المجرمون الإلكترونيون بروتوكولات المصادقة الخاصة بخدمة التوصيل وسرقوا وجبتك (وبياناتك الشخصية).

دون ممارسات متقدمة للاختبار والأمان تتماشى مع بيئات البرمجيات الحالية وتهديدات الأمن الإلكتروني، قد تواجه فِرَق عمليات التطوير والمستخدمون النهائيون الذين يعتمدون على منتجاتهم مثل هذه المشكلات بشكل متكرر أكثر. سيشعر العديد من العملاء بالإحباط وينتقلون إلى خدمة توصيل أخرى (فلا أحد يحب أن يبقى جائعًا فجأة)، وستنعكس آثار هذا الإحباط على أرباح الشركة.

يمكن لأدوات الذكاء الاصطناعي الوكيل أن تساعد فريق تطوير خدمة التوصيل على تجنُّب مثل هذه المشكلات. على سبيل المثال، يمكن للفريق استخدام الوكلاء لإنشاء مجموعة اختبارات شاملة تحدِّد العيوب والثغرات الأمنية أثناء مرحلة الترميز، قبل أن تجلب روبوتات التوصيل أول طلب لها.

في الواقع، يمكن لأدوات الذكاء الاصطناعي الوكيل استخدام "فِرَق" متعددة الوكلاء لإنشاء توأم رقمي عالي الدقة يحاكي التحديات الواقعية التي قد تواجهها الروبوتات، ما يمكِّن المطورين من اختبار سلوك الكود وتفاعلات الاعتماديات قبل البدء بالبرمجة. ويُعَد هذا "تحوُّلًا إلى اليسار"، حيث يتم نقل ممارسات الاختبار وضمان الجودة إلى مراحل أبكر في دورة حياة تطوير البرمجيات.

مع تعقيد أنظمة البرمجيات الحديثة، وزيادة الحاجة إلى المرونة والتعاون، تطوَّر التركيز على الاكتشاف المبكر إلى ممارسة أكثر شمولًا ضمن منهجية DevSecOps تُعرف باسم "التحوُّل الشامل". يهدف نهج التحوُّل الشامل إلى "أتمتة تكامل ممارسات الأمن والأمان في كل مرحلة من مراحل دورة حياة تطوير البرمجيات".

هذه مهمة كبيرة -عمليًا وثقافيًا- وقد دفعت العديد من المؤسسات إلى استكشاف كيفية الاستفادة بشكل أكبر من قدرات الذكاء الاصطناعي في ممارسات عمليات التطوير. ومن بين أحدث هذه التقنيات الذكاء الاصطناعي الوكيل، والذي يمكنه:

  • تنفيذ مهام متعددة الخطوات. يمكن لوكلاء الذكاء الاصطناعي تقسيم الأهداف عالية المستوى إلى مهام فرعية أصغر وتنفيذ المهام عبر مراحل متعددة حتى الانتهاء.
  • التكيُّف في الوقت الفعلي. يمكن لوكلاء الذكاء الاصطناعي تعديل سلوكهم وخططهم بناءً على المعلومات الجديدة أو الظروف المتغيرة.
  • التعاون في المهام وتنسيق سير العمل. يمكن لأنظمة الذكاء الاصطناعي الوكيل التنسيق والتواصل مع وكلاء الذكاء الاصطناعي الآخرين لتحقيق الأهداف المشتركة.
  • تحسين نفسه بمرور الوقت. بفضل ميزات مثل التعلم المعزز، يمكن لوكلاء الذكاء الاصطناعي التعلم من التجارب وتحسين صناعة القرار وتعديل الاستراتيجيات بمرور الوقت.

تتمتع أدوات الذكاء الاصطناعي الوكيل أيضًا بقدرات اتخاذ القرار بشكل مستقل، وتُبدي الشركات حماسة كبيرة تجاه الإمكانيات المتاحة.

وفقًا لمعهد IBM Institute for Business Value (IBM IBV)، "يقول 86% من التنفيذيين إنه بحلول عام 2027، سيجعل وكلاء الذكاء الاصطناعي أتمتة العمليات وإعادة ابتكار سير العمل أكثر فاعلية". وقد اعتمد ما يقرب من 80% من كبار المديرين التنفيذيين بالفعل شكلًا من أشكال الذكاء الاصطناعي الوكيل في شركاتهم، وتنفِّذ 19% من الشركات نشر الذكاء الاصطناعي الوكيل على نطاق واسع.

يمكن لوكلاء الذكاء الاصطناعي الأذكياء الآن تنسيق تطوير البرامج ونشرها ومراقبتها وترقيتها. ويمكنهم تسهيل تطبيق ممارسات التحوُّل إلى اليسار (Shift Left) والتحوُّل الشامل (Shift Everywhere) للمطورين المُثقلين بالأعباء، الذين قد لا تتاح لهم دائمًا القدرة على اختبار البرمجيات وتأمينها بشكل كامل قبل نشرها.

أحدث الأخبار التقنية، مدعومة برؤى خبراء

ابقَ على اطلاع دومًا بأهم—اتجاهات المجال وأكثرها إثارة للفضول—بشأن الذكاء الاصطناعي والأتمتة والبيانات وغيرها الكثير مع نشرة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! أنت مشترك.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

ماذا يعني التحوُّل إلى اليسار؟

"التحوُّل إلى اليسار" هو ممارسة استراتيجية تهدف إلى نقل المهام -مثل الاختبار وتحديد المشكلات وحلها والأمان- إلى مراحل مبكرة من دورة حياة تطوير البرمجيات. يمكِّن الفِرَق من اكتشاف المشكلات (من الناحية المثالية) أثناء البرمجة، بدلًا من الانتظار حتى مرحلة النشر. يأتي المصطلح من تصوُّر عملية التطوير من اليسار (البرمجة) إلى اليمين (النشر)؛ لذا فإن دمج الأنشطة الحرجة في مرحلة البرمجة يعادل نقلها نحو اليسار في دورة الحياة.

مع ذلك، قد يكون من الصعب تنفيذ وصيانة ممارسات التحوُّل إلى اليسار؛ لأنها تنقل مسؤوليات إضافية إلى المطورين، والتي عادةً ما كان ينفِّذها المتخصصون وخبراء المجال.

في هذا التحوُّل، يجب على المطورين وأعضاء الفريق الآخرين تبنّي مهام الاختبار والأمان وإدارة المشكلات والتعاون بين الفِرَق كجزء منتظم من عبء عملهم. إضافة مثل هذه المسؤوليات دون تقليل عبء العمل يمكن أن تقلل من الوقت الذي يقضيه المطورون في كتابة كود عالي الجودة وحل المشكلات البرمجية.

رغم أن الذكاء الاصطناعي الوكيل لا يزال تقنية جديدة (مع تحدياتها الخاصة في الاعتماد)، فإنه بإمكانه أن يساعد الفِرَق على التعامل مع الصعوبات المرتبطة بتنفيذ ممارسات التحوُّل إلى اليسار، خاصةً تلك التي تؤثِّر في إنتاجية المطورين.

علاوةً على ذلك، يمكن أن يكون الوكلاء مفيدين بشكل خاص للشركات التي تنتقل إلى نهج "التحوُّل الشامل". بينما يركِّز التحوُّل إلى اليسار على دمج الأمان والاختبارات في المراحل المبكرة من دورة حياة التطوير، يعني "التحوُّل الشامل" دمج الأمان والمراقبة والاختبارات في كل مرحلة، بما في ذلك البرمجة والبناء والنشر ووقت التشغيل. والهدف هو تأمين جميع التطبيقات والتقنيات وعمليات النشر خلال دورة الحياة.

يقول Billy O’Connell، مطوِّر البرمجيات وممارسات عمليات التطوير في IBM: "يتوافق نهج التحوُّل الشامل أكثر مع تعقيد أنظمة البرمجيات الحديثة والحاجة إلى تقاسم المسؤولية بين الفِرَق والمراحل". "ولكن ما نراه حقًا هو نموذج هجين ناشئ - نموذج يستعير أفضل العناصر من كل نهج. يتعلق الأمر باستخدام الأدوات والعقلية المناسبة للسياق الصحيح".

الذكاء الاصطناعي الوكيل: توضيح موجز

الذكاء الاصطناعي الوكيل هو "نظام ذكاء اصطناعي قادر على تحقيق هدف محدد بإشراف محدود". يستخدم وكلاء الذكاء الاصطناعي النماذج اللغوية الكبيرة (LLMs) ومعالجة اللغة الطبيعية (NLP) والتعلم الآلي (ML) لتصميم مهام سير العمل الخاصة بهم، وأداء المهام وتنفيذ العمليات نيابةً عن المستخدمين والأنظمة الأخرى.

في نظام الذكاء الاصطناعي الوكيل، يتعاون عدة وكلاء ذكاء اصطناعي لتنسيق جهودهم لأداء مهام معقدة وتحقيق أهداف أكبر مما يمكن لأي وكيل واحد إنجازه.

يوسِّع وكلاء الذكاء الاصطناعي الأتمتة إلى ما هو أبعد من البرامج النصية المحددة مسبقًا. على عكس روبوتات المحادثة ونماذج الذكاء الاصطناعي الأخرى، التي تعمل ضمن قيود محددة مسبقًا وتتطلب تدخلًا بشريًا، فإن وكلاء الذكاء الاصطناعي والذكاء الاصطناعي الوكيل مستقلون ذاتيًا ومحددو السياق والأهداف وقادرون على التكيف مع الظروف المتغيرة. فهم لا يكملون المهام فحسب، بل يستطيعون أيضًا التعلم من الماضي والتكيف مع الحاضر والتنبؤ بالمستقبل.

يتطلب استخدام الذكاء الاصطناعي الوكيل من قادة الأعمال وفِرَق المنتجات والمهندسين وضع أهداف عامة وتحديد معايير بشكل تعاوني، حتى لا يتمكن الوكلاء من العمل دون أي تدخل بشري (وينبغي ألّا يفعلوا ذلك). بل إن وكلاء الذكاء الاصطناعي يُتيحون ممارسات التطوير بمشاركة البشر، حيث يعمل الوكلاء جنبًا إلى جنب مع مهندسي عمليات التطوير والفِرَق لمساعدة البشر على تحقيق أهدافهم بسرعة أكبر.

في الأساس، يحدِّد البشر ما الذي يجب تحقيقه، بينما يحدِّد الوكلاء كيفية ذلك من خلال تخطيط الإجراءات اللازمة وتنفيذها لتحقيق هذه الأهداف ضمن المعايير المحددة. 

IBM DevOps

ما المقصود بعمليات التطوير؟

تشرح Andrea Crawford مفهوم عمليات التطوير، وقيمتها، وكيفية مساهمة الممارسات والأدوات الخاصة بها في المساعدة على نقل التطبيقات عبر مسار تسليم البرمجيات بأكمله؛ بدءًا من الفكرة ووصولًا إلى الإنتاج. يتولى أبرز قادة الفكر في IBM هذا المنهج، ويهدف إلى مساعدة قادة الأعمال على اكتساب المعرفة اللازمة لتحديد أولويات الاستثمارات في الذكاء الاصطناعي التي يمكنها تعزيز النمو.

كيف تستخدم الشركات الذكاء الاصطناعي الوكيل في عمليات التطوير؟

تتجه الشركات بشكل متزايد إلى أنظمة الذكاء الاصطناعي الوكيل لإدارة عمليات التطوير وتبسيطها وتسريعها، وتحسين مسارات التكامل المستمر/التسليم المستمر (CI/CD).

يمكن للوكلاء، على سبيل المثال، مراجعة تغييرات الكود بحثًا عن أخطاء في الصياغة وتقديم اقتراحات لإعادة الهيكلة والتحقق من التصحيحات قبل دمج التغييرات مع قاعدة الكود. ويمكنهم أيضًا تسريع الابتكار. يقول O’Connell: "يُتيح [الوكلاء] إمكانية وضع نماذج أولية سريعة للأفكار التي أردت تنفيذها منذ فترة طويلة. سواء لتعزيز الإنتاجية الشخصية أو كفاءة الفريق، يساعد الذكاء الاصطناعي الوكيل على تحويل المفاهيم إلى أدوات قابلة للاستخدام، ما يقلل من عبء المهام الروتينية".

يُعَد الذكاء الاصطناعي الوكيل مفيدًا لمجموعة من حالات الاستخدام، ولكن دعنا نناقش أربع عمليات رئيسية بمزيدٍ من التفصيل.

تحليل البيانات واكتشاف الحالات الشاذة

تعمل أدوات الذكاء الاصطناعي الوكيل على مسح بيانات قابلية الملاحظة بشكل مستمر (مثل المقاييس والسجلات والتتبعات) وغيرها من تدفقات البيانات (مثل إشارات تعليقات المستخدم) من مجموعة متنوعة من المصادر في الوقت الفعلي.

تشمل هذه العملية الاستعلام من قواعد البيانات وسجلات العمليات والبيانات التاريخية والتبعيات مفتوحة المصدر والاتصال بواجهات برمجة التطبيقات (APIs) لتحديد الفجوات في البيانات ومعالجتها. بافتراض أن البيانات الخارجية تقع ضمن معاييرهم، يعمل الوكلاء أيضًا على دمج بيانات السوق والصناعة لتعزيز وعيهم بالسياق قبل صياغة الفرضيات أو إرسال الإشعارات إلى فِرَق تكنولوجيا المعلومات.

باستخدام قدرات التعلم الآلي، يكتشف الوكلاء أنماط البيانات وهياكل الروابط ويتعلمون ما يشكِّل السلوك الطبيعي للنظام ويضبطون أنفسهم ديناميكيًا مع مرور الوقت ويتتبعون الانحرافات عن القيم الأساسية المحددة.

تم تجهيز أدوات الذكاء الاصطناعي الوكيل لاكتشاف عدة أنواع من الحالات الشاذة، سواء أكانت نقاط بيانات فردية غير طبيعية أم مجموعات من البيانات غير الاعتيادية أم حالات شاذة سياقية (مثل الانخفاض المفاجئ في حركة المرور على مواقع التجارة الإلكترونية يوم الجمعة البيضاء). كما يمكنها تعديل القيم الأساسية تلقائيًا مع تغيُّر الظروف، واكتشاف العلاقات المخفية متعددة الأبعاد التي قد تتطلب تحقيقًا أعمق.

لإتمام العملية نفسها باستخدام نموذج ذكاء اصطناعي تقليدي وثابت، سيكون على المطورين إعادة تدريب أداة الذكاء الاصطناعي يدويًا مع تغيُّر القيم الأساسية، ما يزيد احتمالية حدوث إيجابيات أو سلبيات زائفة.

في الواقع، تميل النماذج الثابتة إلى الحاجة إلى المزيد من التدخل البشري وضبط الإعدادات عبر الوظائف المختلفة.

فهي تعتمد على قواعد محددة مسبقًا وفحوصات إحصائية بسيطة قد تُخفي العلاقات المعقدة بين المتغيرات. يُجبر هذا الغموض المطورين على ربط البيانات يدويًا وتحديد العلاقات بينها. وبما أن النماذج الثابتة غالبًا ما تفتقر إلى الحساسية السياقية التي تتمتع بها نماذج الذكاء الاصطناعي الوكيل، فإنها تميل إلى التعامل مع جميع الحالات الشاذة على قِدَم المساواة، ما يترك للمطورين مهمة فرز المشكلات.

اختبار البرمجيات

يمكن لأدوات اختبار الذكاء الاصطناعي الوكيل توليد حالات اختبار أكثر ذكاءً وتخصيصًا، وتوسيع نطاق تغطية الاختبار عبر البيئة.

يعمل الذكاء الاصطناعي الوكيل على تحليل الكود المصدر للتطبيق وهيكل واجهة المستخدم ومتطلبات البرمجيات وتدفقات المستخدم واستجابات واجهات برمجة التطبيقات (APIs) وسجل العيوب والمستندات الاختبارية الحالية؛ لفهم وتحديد الاختبارات التي يجب تنفيذها. يمكن للمطورين أيضًا إنشاء سيناريوهات (مثل "يُضيف العميل وجبات إلى السلة ويُكمل عملية الدفع")، ويعمل وكلاء الذكاء الاصطناعي على تحويلها إلى برامج نصية اختبارية قابلة للتنفيذ لاكتشاف أي مشكلات قد تنشأ أثناء تنفيذ مجموعة محددة من الإجراءات.

تعمل أدوات الذكاء الاصطناعي الوكيل على تكييف اختبارات البرمجيات بشكل مستمر في الوقت الفعلي، وتتعلم من الاختبارات السابقة وتطبِّق بروتوكولات الاختبار استنادًا إلى النتائج السابقة وأهمية المهمة. تساعد هذه الميزات على ضمان تنفيذ الاختبارات في الوقت المناسب وأن يكون نطاقها مستهدفًا (ومع ذلك شامل).

عندما يُجري المطورون تغييرًا لمنطق الكود أو تحديثًا لواجهة المستخدم، على سبيل المثال، يمكن للوكلاء اكتشاف هذه التغييرات أثناء تنفيذ الاختبارات وتحديث الاختبارات ذات الصلة تلقائيًا. إذا كان هناك جزء من الكود يحتوي على ثغرة أمنية أو يستخدم نمط كود أو بناءً لغويًا غير مألوف، يمكن لأدوات الذكاء الاصطناعي الوكيل اقتراح اختباره محليًا أو على مستوى الوحدة، مع عزل الكود وإجراء مزيد من الاختبارات لتحديد المشكلة بدقة. 

في الواقع، بمجرد أن يفهم وكلاء الذكاء الاصطناعي ما يجب أن يفعله التطبيق، يمكنهم توليد سيناريوهات وحالات اختبار قبل أن يكتب المطورون الكود، ما يسمح لفِرَق التطوير بالتركيز على جودة الكود.

ارتباط التنبيهات

تساعد ميزات الارتباط المدعومة بالذكاء الاصطناعي الوكيل على ربط التنبيهات المرتبطة عبر المستخدمين والبيئات ونقاط النهاية لواجهات برمجة التطبيقات، مع تصفية التنبيهات المهمة من الإشارات غير الضرورية، ما يقلل من حجم التنبيهات والإرهاق الناتج عنها لفِرَق التطوير والعمليات.

أحد العناصر الأساسية في تطبيق التحوُّل إلى اليسار في ارتباط التنبيهات هو تضمين الذكاء عند المصدر، أي استخدام الوكلاء لتحليل تدفقات البيانات غير المنسقة عند وصولها. يُتيح هذا النهج إمكانية الارتباط في الوقت الفعلي ويساعد الفِرَق على الانتقال من وضع رد الفعل إلى استراتيجية استباقية للارتباط والمعالجة.

تستخدم أنظمة الذكاء الاصطناعي الوكيل خوارزميات تعلُّم آلي متقدمة لتحليل بيانات التنبيهات التاريخية واللحظية، وربط نقاط البيانات استنادًا إلى التوقيت والمصدر ونوع الحدث والأنظمة المتأثرة وأنماط السلوك، وغيرها من السمات.

يجمع الوكلاء السياق ديناميكيًا -بما في ذلك عناوين IP ومعرِّفات المستخدمين وحالة الجهاز- حول كل تنبيه. باستخدام البيانات المُعززة، يمكن للوكلاء ربط الحوادث وتحديد النقاط المشتركة بينها. على سبيل المثال، إذا لاحظ الوكيل محاولة تسجيل دخول فاشلة في ساعة غير عادية ووصولًا غير منتظم إلى الملفات من الحساب نفسه، فيمكنه ربط نقاط البيانات والإشارة إلى محاولة اختراق محتملة.

بمجرد تجميع مجموعة من التنبيهات، يقدِّمها الوكيل كوحدة واحدة. الحدث الذي كان قد يولّد تنبيهين منفصلين -أحدهما لمحاولة تسجيل الدخول والآخر للوصول إلى الملف- سيؤدي الآن إلى إنشاء وإرسال تنبيه واحد فقط (للاختراق) إلى المطور. وبدلًا من التعامل مع الإشعارات الكثيرة وتصنيفها من كل حدث منفرد، يمكن لفِرَق تكنولوجيا المعلومات تفعيل الإجراءات وسير العمل لإصلاح المشكلات على مستوى مجموعة الإشارات بالكامل.

علاوةً على ذلك، يمكن لوكلاء الذكاء الاصطناعي تكوين قصص كاملة للحوادث. إذا تعطلت إحدى الميزات، يمكن للوكلاء تتبُّع الأسباب الأساسية وأداء الميزة عبر الزمن وإنشاء تقرير شامل يمكن لفِرَق تكنولوجيا المعلومات استخدامه لمعالجة المشكلة. يمكن للوكلاء أيضًا "تذكُّر" تفاصيل العطل، ما يمكِّن المطورين من محاكاة الظروف في جولات الاختبار المستقبلية واكتشاف عيوب الكود في الإصدارات أو التطبيقات الجديدة.

الأمان واكتشاف التهديدات

تساعد أنظمة الذكاء الاصطناعي الوكيل على أتمتة اكتشاف الثغرات واختبار إمكانية الاستغلال وتحليل الأسباب الأساسية وحل التهديدات أثناء عملية البرمجة، بحيث يقلّ قلق المطورين بشأن تقييمات الكود اليدوية.

لا ينتظر وكلاء الذكاء الاصطناعي التنبيهات الأمنية. بدلًا من ذلك، يبحثون بشكل مستمر عن السلوكيات المشبوهة من خلال تحليل سجلات الأمان وحركة مرور الشبكة وكود المصدر وتغذية استعلامات التهديدات في الوقت الفعلي. يمكنهم بعد ذلك توليد فرضيات حول التهديدات المحتملة واختبار هذه الفرضيات مقابل السجلات وتصعيد التهديدات الموثوق بها فقط وتحسين فهمهم بمرور الوقت.

بخلاف نماذج الذكاء الاصطناعي الثابتة التي تحدِّد المشكلات بناءً على قواعد محددة مسبقًا فقط، يعمل وكلاء الذكاء الاصطناعي على تقييم شدة الثغرات الأمنية وقابلية استغلالها من خلال النظر في السياق، مثل قيمة الأصول ومستوى التعرض الشبكي وأنماط الهجوم المعروفة ومسارات الهجوم المحتملة وغيرها من المقاييس.

عند اكتشاف ثغرة أمنية، يمكن للوكلاء تصنيف أولويتها تلقائيًا بناءً على وقت التشغيل وتأثيرها في الأعمال وسياق الامتثال والبدء بتشغيل الأدلة بشكل مستقل لإصلاح المشكلة.

باستخدام التحليلات التنبؤية والتعلم الخاضع للإشراف، يمكن لأدوات الذكاء الاصطناعي الوكيل أيضًا محاكاة الهجمات في بيئات معزولة لاختبار إمكانية استغلال الثغرات الأمنية.

يمكن للأنظمة متعددة الوكلاء تحليل أوصاف الثغرات الأمنية ومصدر الكود لتوليد هجمات إثبات المفهوم التي توضِّح المخاطر الفعلية للاستغلال. عندما يحدِّدون موقع جزء من التعليمات البرمجية الإشكالية، يمكن للوكلاء إنشاء هجوم يؤدي إلى تفعيل الثغرة، ما يمكِّن المطورين من معرفة مكان حدوث المشكلة بالضبط وسبب حدوثها وكيفية تأثيرها في أداء البرنامج.

خذ مثالًا على ذلك روبوت توصيل الطعام. سيؤدي النهج القائم على الذكاء الاصطناعي الوكيل إلى تمكين المطورين من محاكاة هجوم إلكتروني أثناء -أو حتى قبل- البرمجة، واكتشاف أن مقطعًا معيَّنًا من الكود عرضة لهجمات مصادقة الوسيط، وتصحيح الكود قبل نشر الروبوت في البيئة الحية. 

لكن الذكاء الاصطناعي الوكيل لا يخلو من المخاطر

لقد أصبح الذكاء الاصطناعي الوكيل أداة تحويلية للعديد من الشركات وفِرَق عمليات التطوير، ولكنها لا تزال تقنية جديدة تطرح تحديات جديدة ومتطورة. بينما يظل العديد من قادة الأعمال متفائلين، تتوقع Gartner أن ارتفاع التكاليف وضعف إدارة المخاطر وعدم وضوح عائد الاستثمار سيؤدي إلى إلغاء أكثر من 40% من جميع مشاريع الذكاء الاصطناعي الوكيل بحلول عام 2027.

يدور الكثير من القلق حول القضايا الأمنية وثقة الوكلاء. صحيح أن الذكاء الاصطناعي الوكيل يمكنه تبسيط وتحسين أمان البرمجيات والشبكات، لكنه أيضًا يمثِّل مخاطر أمنية كبيرة.

يُتيح الذكاء الاصطناعي الوكيل للمطورين إنشاء ونشر وكلاء مخصصين يعملون بشكل مستقل عبر الأنظمة والعمليات. يتم إنشاء العديد من هؤلاء الوكلاء وتشغيلهم دون رؤية رسمية لتكنولوجيا المعلومات أو الأمان أو الحوكمة . يمكن أن يؤدي هذا الانتشار اللامركزي وغير الخاضع للرقابة للوكلاء إلى ظهور "الذكاء الاصطناعي الظلي" داخل المؤسسات ومسارات DevSecOps.

مع عمل الوكلاء بشكل مستقل، قد تواجه المؤسسات صعوبة في الحفاظ على ضوابط تدخُّل الإنسان في العمليات. إذا سُمح لوكلاء الذكاء الاصطناعي بالعمل دون وجود مساءلة واضحة، فقد يصبح من الصعب للغاية تقييم نواياهم والتحقق من أفعالهم وتطبيق السياسات الأمنية بفاعلية، خاصةً مع توسُّع البيئات. بعد كل شيء، مَن المسؤول عندما ترتكب أداة مستقلة خطأً أو تنتهك معاييرها؟

يرى بعض الناس أن مُنشئ المحتوى -والمؤسسات التي تمنحهم الصلاحيات- هم المسؤولون عن ضعف بيانات التدريب أو عدم كفاية الاختبارات أو نقص التدابير الوقائية. لكن من الناحية الواقعية، يمكن أن تكون الصورة أكثر غموضًا.

تعتمد أدوات الذكاء الاصطناعي الوكيل أيضًا بشكل كبير على واجهات برمجة التطبيقات للوصول إلى البيانات ونشر مهام سير العمل والتواصل مع الخدمات الخارجية، وكل تكامل لواجهة برمجة التطبيقات يشكِّل نقطة دخول محتملة للمهاجمين. نظرًا لأن الوكلاء لا يتَّبِعون دائمًا أنماط استخدام واجهات برمجة التطبيقات المتوقعة (فهم مستقلون في نهاية المطاف)، قد يؤدي ذلك عن غير قصد إلى الكشف عن بيانات حساسة أو خاصة عبر العمليات المشروعة، بما في ذلك المعلومات الشخصية في ملفات السجل، ما يزيد بشكل كبير من مساحة الهجوم.

قد تُتيح أي نقطة نهاية واجهة برمجة تطبيقات مخترقة أو مضبوطة بشكل خطأ الوصول إلى عدة أنظمة خلفية ومجموعات بيانات حساسة، ما يمكِّن المجرمين الإلكترونيين من التحرك أفقيًا داخل البنية وزيادة امتيازاتهم. 

علاوةً على ذلك، يعمل معظم وكلاء الذكاء الاصطناعي على نماذج لغوية كبيرة، ما يعني أنهم قد يرثون الثغرات الموجودة في النموذج الأساسي. إذا تمكَّن المهاجم من إدخال تعليمات ضارة في المطالبات أو مصادر البيانات الموثوق بها (مثل ملفات الإعدادات أو الوثائق أو تذاكر الدعم)، فقد ينفِّذ الوكيل إجراءات ضارة دون علمه عند معالجة المطالبة.

قد تريد الشركات أيضًا أخذ تحديات الذكاء الاصطناعي الوكيل التي لا تتعلق بالأمن بعين الاعتبار. على سبيل المثال، يمكن للوكلاء المستقلين أحيانًا الهلوسة بشأن خطوات البناء أو تفاصيل التكوين، حيث يخترعون مَعلمات تؤدي إلى إجراءات عرضية أو ضارة.

تحدث الهلوسة عندما يولِّد نموذج لغوي (غالبًا ما يكون روبوت محادثة مدعومًا بالذكاء الاصطناعي التوليدي أو أداة رؤية الكمبيوتر) معلومات غير صحيحة أو مُختلقة بالكامل تبدو منطقية. خلال الكشف عن روبوت المحادثة Bard من جوجل، ادَّعى Bard أن تلسكوب جيمس ويب الفضائي التقط أول صور لكوكب خارج المجموعة الشمسية. كان هذا غير دقيق من الناحية الواقعية - فأول صورة لكوكب خارج المجموعة الشمسية التقطها تلسكوب مختلف قبل سنوات. وهذا مثال نسبيًا غير ضار.

عندما يستخدم الوكلاء تفاصيل مختلقة في سير عمل عمليات التطوير، يمكنهم نشر الأخطاء بهدوء عبر قاعدة الكود ومسارات الأتمتة، حيث تتراكم وتتسبب في إخفاقات متسلسلة.

كما أن أدوات الذكاء الاصطناعي الوكيل لا تحقِّق أداءً جيدًا عندما يتعلق الأمر بتطوير التعليمات البرمجية. أظهرت إحدى الدراسات أن المطورين يستغرقون وقتًا أطول بنحو 20% لحل مشكلات الكود عند استخدامهم للذكاء الاصطناعي. ووجد تقرير حالة تسليم البرمجيات لعام 2025 أن المطورين يقضون وقتًا أطول بنسبة 67% في تصحيح الكود الذي تولِّده أدوات الذكاء الاصطناعي. يعجز العديد من فِرَق التطوير عن مواكبة حجم الأخطاء الناتجة عن الكود الذي يولِّده الذكاء الاصطناعي، ما يعني أن الوكلاء أحيانًا يُضيفون ديونًا تقنية أكثر مما يقلِّلون.

يمكن لبوابات الذكاء الاصطناعي تقديم المساعدة

رغم أن التحديات المرتبطة باستخدام أدوات الذكاء الاصطناعي الوكيل كبيرة، فإن بوابات الذكاء الاصطناعي يمكنها المساعدة على التخفيف من بعض المخاطر.

تعمل بوابات الذكاء الاصطناعي كطبقة موحَّدة وخفيفة الوزن بين تطبيقات الذكاء الاصطناعي الوكيل والنماذج وواجهات برمجة التطبيقات والأدوات التي تستخدمها. تعمل البوابات على فرض سياسات الحوكمة والامتثال بشكل متسق عبر جميع وكلاء الذكاء الاصطناعي وأدوات عمليات التطوير في المنظومة، ما يُلغي فرض المَعلمات بشكل مجزأ وغير متناسق.

تعمل المركزية على تبسيط عملية تطبيق بروتوكولات الأمان وقيود خصوصية البيانات ومتطلبات الامتثال التنظيمي عبر عمليات النشر المعقدة والموزعة. كما تساعد الوكلاء على التحكم بشكل أفضل في الوصول إلى واجهة برمجة التطبيقات والمصادقة وعمليات التفويض.

علاوةً على ذلك، يمكن للبوابات مساعدة الوكلاء على اكتشاف التهديدات ومشكلات الكود بشكل أسرع من خلال تحسين الرؤية حول نشاط الوكلاء. فهي توفِّر آلية متماسكة للمراقبة والتدقيق والكشف عن الحالات الشاذة وإمكانية التتبُّع، بحيث يمكن متابعة سلوك الوكلاء طوال دورة حياتهم. ونظرًا لأن بوابات الذكاء الاصطناعي تجعل الذكاء الاصطناعي الوكيل أكثر قابلية للملاحظة، فإنها تساعد الشركات أيضًا على السيطرة على مشكلات الذكاء الاصطناعي الظلي والتكاليف الزائدة التي قد تنتج عن نشر الذكاء الاصطناعي الوكيل.

 

إذن، ما الخلاصة حول الذكاء الاصطناعي الوكيل وعمليات التطوير؟

عندما سُئل عما إذا كانت فوائد استخدام الذكاء الاصطناعي الوكيلي تفوق مخاطره، قال O’Connell: "بالتأكيد 100%. مع بدء الشركات بدمج الذكاء الاصطناعي الوكيل، ستكون الحواجز الوقائية ضرورية - وليست فقط التقنية، بل الثقافية والأخلاقية أيضًا. لكننا لا زلنا على أعتاب ما هو ممكن".

رغم استمرار التحديات المتعلقة بالحوكمة والثقة والتكامل، فإن الاتجاه واضح: الوكلاء الذكاء الاصطناعي ليسوا مجرد إضافة إلى عمليات التطوير ومسارات CI/CD، بل يشكِّلون مستقبلها. النتيجة ليست صناعة القرار فحسب - بل تحوُّل ثقافي نحو تقديم برمجيات أكثر كفاءةً وتكيّفًا. 

حلول ذات صلة
IBM DevOps Accelerate

أتمتة تسليم البرامج لأي تطبيق محليًا أو على السحابة أو الكمبيوتر المركزي.

استكشف DevOps Accelerate
حلول عمليات التطوير

استخدم أدوات وبرمجيات عمليات التطوير لإنشاء تطبيقات السحابة الأصلية ونشرها وإدارتها عبر أجهزة وبيئات متعددة.

استكشف حلول عمليات التطوير
خدمات الاستشارات السحابية 

أطلق العنان للقدرات الجديدة وحفِّز مرونة الأعمال من خلال خدمات الاستشارات السحابية من IBM. اكتشف كيفية المشاركة في إنشاء الحلول وتسريع التحول الرقمي وتحسين الأداء من خلال إستراتيجيات السحابة الهجينة والشراكات مع الخبراء.

الخدمات السحابية
اتخِذ الخطوة التالية

تحقيق أقصى استفادة من إمكانات عمليات التطوير لإنشاء تطبيقات السحابة الأصلية الآمنة واختبارها ونشرها من خلال التكامل المستمر والتسليم المستمر.

استكشف حلول عمليات التطوير اكتشف عمليات التطوير أثناء العمل