ثلاثة زملاء في مكتب، يشير أحدهم إلى سبورة بيضاء بينما ينظر الآخران إلى ملاحظات لاصقة ملوّنة

Yubico وAuth0 وIBM يشكّلن شراكة جديدة لتأمين التطبيقات الوكيلة

نموذج الصناعة الأول من نوعه الذي يحكم إجراءات الذكاء الاصطناعي عالية المخاطر.

في مختلف الصناعات، تدخل المؤسسات حقبة جديدة من الإنتاجية مدعومة بوكيل الذكاء الاصطناعي، حيث يمكن للأنظمة تحليل البيانات وتنفيذ سير العمل واتخاذ القرارات بسرعة غير مسبوقة. وبدءًا من العمليات المالية وانتهاءً بتطوير البرمجيات وإدارة المعرفة المؤسسية، أصبح الذكاء الاصطناعي قوة عاملة رقمية يمكنها العمل جنباً إلى جنب مع البشر.

وفي ظل هذه القدرة الجديدة يأتي سؤال مهم للقادة في مجالات التكنولوجيا والتمويل والمخاطر: كيف نضمن أن تتحرك الأتمتة بسرعة الآلة دون المساس بالثقة أو الحوكمة أو المساءلة؟

تكمن الإجابة في نموذج جديد من "التفويض البشري المباشر"؛ نموذج يسمح للذكاء الاصطناعي بالعمل باستقلالية في معظم الحالات، ولكنه يتطلب موافقة بشرية موثقة تشفيرياً عندما تكون المخاطر عالية. شكّلت Yubico وAuth0 وIBM شراكة قوية لتأمين التطبيقات الوكيلة لتسخير قوة الذكاء الاصطناعي مع ضمان الثقة والحوكمة.

وكلاء الذكاء الاصطناعي بصفتهم عاملين رقميين: قوة الذكاء الاصطناعي الوكيل ومخاطره

أصبح وكلاء الذكاء الاصطناعي ما يسميه قادة الأمن "العاملون الرقميون"، إذ يعملون ببيانات اعتماد رسمية، ويتفاعلون مع أنظمة حساسة، ويصبح لديهم صلاحيات متزايدة لتنفيذ عمليات فعلية. لم يعد دور وكلاء الذكاء الاصطناعي مقتصرًا على الإجابة عن الأسئلة، بل يتخذون إجراءات عبر أنظمة المؤسسات:

  • يستخدم المطورون وكلاء الذكاء الاصطناعي لكتابة التعليمات البرمجية ومراجعتها وينشر عبر بيئات برمجية كبيرة
  • تستخدم فرق الخزانة الذكاء الاصطناعي لتحليل السيولة وبدء تحويلات مالية عبر الحسابات العالمية
  • تستطيع فرق الشؤون القانونية والامتثال الولوج إلى المستندات الداخلية الحساسة من خلال عمليات سير عمل مدعومة بالذكاء الاصطناعي.
  • تقوم أنظمة المشتريات بالموافقة التلقائية على الموردين وتنفيذ المدفوعات.
  • تستخدم فرق الأمن الذكاء الاصطناعي لتنسيق الاستجابة للحوادث عبر أنظمة متعددة

تَعِد هذه القدرات بتحسينات هائلة في السرعة والإنتاجية واتخاذ القرارات، ولكنها تثير أيضاً سؤالاً جوهرياً حول الحوكمة: كيف تثبت المؤسسات أن الإنسان المناسب تدخل أو أجاز القرارات الحاسمة التي اتخذها الذكاء الاصطناعي؟

تتحول السرعة من دون ثقة إلى مصدر للمخاطر

يُبرز مشهد التهديدات السيبرانية الضغوط الأمنية المتزايدة التي تواجه المؤسسات التي تتبنى عمليات سير عمل قائمة على الذكاء الاصطناعي:

  • أفادت 87% من المؤسسات أن المخاطر المرتبطة بثغرات الذكاء الاصطناعي قد ازدادت.1
  • %85 من المتخصصين في مجال الأمن يشعرون أن أساليب الكشف التقليدية قد عفا عليها الزمن.2
  • %77 من المؤسسات تفتقر إلى الممارسات الأساسية لأمن البيانات والذكاء الاصطناعي.3

مع تسارع وتيرة الأتمتة، تكشف هذه التهديدات عن احتمال خطير يتمثل في إمكانية قيام وكيل ذكاء اصطناعي يعمل بأوراق اعتماد صالحة بتنفيذ إجراءات عالية الخطورة بسرعة الآلة، دون إشراف بشري ذي مغزى. يترتب على ذلك بعض الآثار المهمة:

  • في الأنظمة المالية، يمكن أن يعني ذلك زيادة الاحتيال من خلال إجراء تحويلات غير مصرح بها.
  • في بيئات التطوير، قد يعني ذلك دخول كود غير مختبر إلى مرحلة الإنتاج.
  • في أنظمة المعرفة المؤسسية، قد يعني ذلك استخراج بيانات حساسة.

لم يتم تصميم أنظمة هوية تقليدية لهذا النموذج أبدًا لأنها تفترض تدفقًا بسيطًا: يقوم الإنسان بالمصادقة والتفويض ← النظام يمنح الوصول ← يحدث الإجراء. ولكن عندما يتصرف وكلاء الذكاء الاصطناعي بشكل مستقل، يجب على طبقة الهوية أن تجيب عن سؤال أكثر تعقيدًا، ألا وهو: من سمح بالفعل وهل يمكننا إثباته؟

كتبت Ritika Gunnar، المديرة العامة للبيانات والذكاء الاصطناعي في شركة IBM في يونيو 2025: “من المقرر أن يُحدث وكلاء الذكاء الاصطناعي ثورة في إنتاجية المؤسسات، ولكن يمكن أن تمثل فوائد وكلاء الذكاء الاصطناعي ذاتها تحدياً أيضاً”. “عندما لا تتم إدارة هذه الأنظمة المستقلة أو تأمينها بشكل صحيح، يمكن أن تترتب عليها عواقب وخيمة”.

الحل: نموذج "الإنسان ضمن حلقة العمل"

لا يكمن الحل في إبطاء الذكاء الاصطناعي ولا في اشتراط موافقة البشر على كل إجراء. بل يجب على المؤسسات تحديد فئات محددة من الإجراءات التي يُشترط فيها الحصول على تفويض بشري. على سبيل المثال:

  • التحويلات المالية التي تتجاوز حدًا محددًا
  • المعاملات التي تنطوي على أطراف مقابلة جديدة
  • الوصول إلى مستندات شديدة الحساسية أو إلى الملكية الفكرية
  • نشر تعليمات برمجية إنتاجية في الأنظمة الحيوية
  • الإجراءات الأمنية التي قد تؤثر على توفر النظام

في هذه الحالات، يصبح التفويض البشري ضابطًا هيكليًا، لا مجرد تفضيل في مهام سير العمل. ويجب إنفاذه تشفيريًا، لا الاكتفاء بتسجيله في السجلات بعد وقوعه.

بنية جديدة قوية للذكاء الاصطناعي الجدير بالثقة

وهنا يرسي التعاون بين IBM وAuth0 وYubico نموذجًا قويًا لحوكمة أنظمة الذكاء الاصطناعي الوكيل. وقد أنشأت هذه الشركات معًا سير عمل يجمع بين سرعة الذكاء الاصطناعي والمساءلة البشرية. وتفتح هذه القدرة عددًا لا يُحصى من حالات الاستخدام الجديدة على مستوى المؤسسات، وتفسح المجال أمام طيف واسع من الأدوار الوظيفية لتحقيق مستويات أعلى من الإنتاجية والكفاءة من دون المساس بسلامة العملية والنتيجة.

تضع IBM الذكاء المدعوم بالذكاء الاصطناعي في الصدارة وتدفع نحو مهام سير عمل أكثر كفاءة

يحلّل وكلاء watsonx.ai من IBM البيانات، ويعالجون المهام استدلاليًا، ويقترحون إجراءات ضمن مهام سير العمل المؤسسية. ويمرّ كل إجراء عبر محرك موافقة قائم على السياسات يقيّم ما إذا كانت هناك حاجة إلى تفويض إضافي. وفي العمليات الروتينية، يواصل الذكاء الاصطناعي التنفيذ تلقائيًا، أما في الإجراءات عالية المخاطر فيُصعّد النظام الأمر.

يتيح Auth0 تنسيق الهوية لتحقيق قرارات أفضل ونتائج أفضل

وعند حدوث هذا التصعيد، تبدأ طبقة تنسيق الهوية في Auth0 مسار موافقة آمنًا باستخدام معيار المصادقة عبر القناة الخلفية التي يبدأها العميل (CIBA). وترسل هذه العملية طلبًا آمنًا خارج النطاق مباشرةً إلى صانع القرار البشري المخوَّل. يتضمن الطلب تفاصيل تفويض غنية، مثل "الموافقة على تحويل 500000 دولار إلى المورد X." ويمكن لصانع القرار مراجعة الطلب والموافقة على الإجراء أو رفضه.

توفّر Yubico جذر الثقة المدعوم بالأجهزة، بما يضمن وجود الشخص المناسب ضمن الحلقة

أما الإجراءات العالية القيمة أو العالية المخاطر أو التي تتطلب مستوى ضمان مرتفعًا، فتتطلب عمليات التفويض شخصًا موثوقًا ومصادَقًا عليه لتفويض سير عمل باستخدام جذر ثقة مدعوم بالأجهزة، وهو YubiKey. ويجب على المستخدم المخوَّل أن يلمس المفتاح فعليًا، بما ينشئ إثبات حضور تشفيريًا، ويضمن ما يلي:

  • أن الشخص الذي يوافق على الإجراء حاضر فعليًا
  • أن التفويض لا يمكن إعادة استخدامه أو التلاعب به عن بُعد
  • أن الموافقة مرتبطة بهوية محددة تم التحقق منها

وبذلك يصبح YubiKey آخر نقطة تحكم بشرية تحمي الإجراءات المؤسسية الحرجة. ويوفر ذلك ضمانات قوية للامتثال التنظيمي وإدارة المخاطر والمساءلة المالية واستمرارية الأعمال. والأهم من ذلك أنه يوفّر عدم التنصل، أي دليلًا واضحًا على أن شخصًا بشريًا محددًا ومتحققًا من هويته قد أذن بهذا الإجراء.

بناء المستقبل المستقل بأمان ومسؤولية

ستقود الموجة التالية من إنتاجية المؤسسات وكلاء ذكاء اصطناعي قادرون على التنفيذ، لا على تقديم المشورة فحسب. فسيكتبون التعليمات البرمجية، وينفذون المعاملات، ويوافقون على مهام سير العمل، وينسقون القرارات عبر الأنظمة المعقدة. ولن يعود السؤال الحقيقي الذي يواجه القادة: "هل يمكننا أتمتة هذا؟"، بل: "كيف نحكم الأتمتة بمسؤولية؟"

ومن خلال الجمع بين تنسيق الذكاء الاصطناعي من IBM، وتدفقات الهوية من Auth0، ومفتاح الأمان المدعوم بالأجهزة من Yubico، تستطيع المؤسسات تمكين الأتمتة المدعومة بالذكاء الاصطناعي مع ضمان بقاء الإنسان المناسب هو من يتحكم ويمنح التفويض للقرارات الحساسة. والنتيجة هي أساس جديد للمؤسسة المستقلة ذاتيًا: ذكاء اصطناعي يعمل بسرعة الآلة، وتحميه الثقة البشرية.

إذا كنتم ستحضرون RSAC، فلا تفوتوا جلستنا حضورًا أو عند الطلب يوم الثلاثاء 24 مارس 2026 في الساعة 5:00 مساءً في North Expo Briefing Center، حيث ستستعرض Yubico وIBM كيفية بناء هوية موثوقة، وتحقيق المرونة الإلكترونية، وضمان استمرارية الأعمال من خلال استراتيجية فعالة وآمنة من دون كلمات مرور، في العصر السيبراني الحديث للتهديدات المدعومة بالذكاء الاصطناعي.

استكشف العرض التوضيحي للذكاء الاصطناعي الوكيل

Sheryl Chamberlain

SVP Business Development

Yubico

Naveen Kaul

Global Leader for Identity & Access Management

IBM