تعزِّز IBM قدرات watsonx.governance بمحرك جديد لتقييم مخاطر النماذج

15 أبريل 2025

المؤلفين

Marc Cassagnol

Product Manager, watsonx.governance

IBM

Michael Hind

Distinguished Research Staff Member

IBM

نحن متحمسون للإعلان عن "محرك تقييم مخاطر النماذج"، وهو أداة جديدة ضمن watsonx.governance لقياس مخاطر النماذج الأساسية عبر حساب مؤشرات مرتبطة بأبعاد المخاطر المستمدة من أطلس مخاطر الذكاء الاصطناعي. وكجزء من عملية متكاملة لإدخال النماذج، تُتيح هذه الأداة مقارنة مؤشرات المخاطر عبر نماذج أساس مختلفة، ما يساعدك على تحديد أنسب نماذج الأساس للنشر داخل مؤسستك، بما يتماشى مع مستوى تحمُّل المخاطر الخاص بمؤسستك.

لماذا من الضروري فهم مخاطر الذكاء الاصطناعي التوليدي؟

مع استمرار الشركات في توسيع نشرات الذكاء الاصطناعي التوليدي، أصبح من المهم بشكل متزايد أن تطور الشركات فهمًا أفضل للمخاطر المرتبطة بنماذج الأساس الكامنة، بما في ذلك حقن المطالبات، والمخرجات السامة، وكسر الحماية، والهلوسة.

تمتلك المؤسسات خيارات واسعة عند اختيار نماذج الذكاء الاصطناعي التوليدي التي ستستخدمها. من المهم اتخاذ قرار مدروس لتجنب المواقف التي قد تؤدي إلى أداء سيئ للنماذج التوليدية (مثل روبوت محادثة مخصص للعملاء يقدِّم إرشادات خاطئة أو ضارة). قد يكون لهذه المواقف تأثير بالغ على السمعة، يصعب على المؤسسة التعافي منه. لذلك، ينبغي أن يكون امتلاك بيانات كمية وموضوعية عن المخاطر جزءًا أساسيًا من عملية إدخال النماذج إلى المؤسسة.

تتكون عملية إعداد نماذج الذكاء الاصطناعي التوليدي من 3 مراحل:

  1. فهم المخاطر العامة للذكاء الاصطناعي التوليدي.
  2. تحديد المخاطر التي تنطبق على نموذج ذكاء اصطناعي معين (أو حالة استخدام).
  3. تقييم المخاطر المحددة.

.

الفهم: مكتبة المخاطر

يُعَد إدخال مكتبة المخاطر الخطوة الأولى لفهم المخاطر التي قد تكون قابلة للتطبيق. يُعَد أطلس مخاطر الذكاء الاصطناعي من IBM مصدرًا رائعًا لفهم المخاطر المرتبطة باستخدام نماذج الذكاء الاصطناعي التوليدي والتعلم الآلي. تم دمج هذه المخاطر أيضًا مباشرةً في وحدة Governance Console ضمن watsonx.governance، وهي متاحة بشكل مباشر. يمكن أيضًا تكملة مكتبة المخاطر باستخدام مخزون المخاطر الخاص بالمؤسسة إذا رغب المستخدم في ذلك. كما يمكن ربط هذه المخاطر بحالات الاستخدام والنماذج باستخدام تقييمات تعريف المخاطر الجاهزة مثل (حالة استخدام الذكاء الاصطناعي، إعداد النماذج وحالة الاستخدام + النموذج معًا).

يُعَد فهم المخاطر التي قد تكون قابلة للتطبيق خطوة أولى رائعة، ولكن من المهم بالقدر نفسه أن تكون لديك طرق فعَّالة لتحديد هذه المخاطر وقياسها والتخفيف من حدتها.

التحديد: عملية تحديد المخاطر

يتضمن watsonx.governance ثلاثة تقييمات لتحديد المخاطر:

  • تحديد مخاطر حالة استخدام الذكاء الاصطناعي: يُستخدم لتحديد المخاطر الخاصة بحالة الاستخدام المقترحة، والتي لا تتعلق بنموذج محدد. على سبيل المثال، حقن المطالبات، ومعلومات الملكية الفكرية في المطالبة، وكشف المعلومات الشخصية.
  • تحديد مخاطر إدخال نموذج الذكاء الاصطناعي: يُستخدم لتحديد المخاطر التي تخص النموذج الذي يتم تقييمه. على سبيل المثال، تحيُّز البيانات، وعدم وضوح مصدر البيانات، ونقص الشفافية في بيانات التدريب وإعادة تحديد الهوية.
  • تحديد مخاطر حالة الاستخدام + النموذج: يُستخدم لتحديد مجموعة إضافية من المخاطر التي قد تظهر من الجمع بين حالة استخدام ونموذج معين. على سبيل المثال، قيود حقوق استخدام النموذج، والهلوسة، والمخرجات غير القابلة للتفسير.

 

تُستخدَم هذه التقييمات في تحديد المخاطر المستمدة من أطلس المخاطر التي تنطبق على النموذج و/أو حالة الاستخدام التي يتم إدخالها. في وحدة التحكم الخاصة بالحوكمة في watsonx.governance، يوجد سير عمل لإدخال نماذج الأساس يتضمن تقييم استبيان تحديد المخاطر المذكور أعلاه.

بعد تحديدها، يجب فحص المخاطر المطبقة بشكل فردي باستخدام تقييم المخاطر والسيطرة الذاتي (RCSA) لتحديد المخاطر الجوهرية والمتبقية. سيؤدي ذلك إلى إنتاج ملف تعريف للمخاطر للنموذج الذي يمكن أن يساعد على تحديد أنواع الاستخدامات التي ستكون المؤسسة مستعدة للموافقة عليها للنموذج، مثل RAG، أو التصنيف، أو تلخيص النصوص.

لتحسين عملية تقييم المخاطر والسيطرة الذاتي (RCSA)، يمكن إجراء بعض التقييمات الكمية للحصول على فهم أعمق لمخاطر نموذج معين وكيفية مقارنته مع النماذج المماثلة. كما يمكن للشركات تقييم مخاطر أي نموذج تقوم بتطويره أو تحسينه (على سبيل المثال من خلال التخصيص الدقيق للنموذج).

التقييم: مقدمة عن محرك تقييم مخاطر النماذج

يساعد "محرك تقييم مخاطر النماذج"، الذي أصبح الآن جزءًا من watsonx.governance، على التقييم الكمي لمخاطر نماذج الأساس. فهو يحسِب مؤشرات مرتبطة بمجموعة محددة من أبعاد المخاطر المستمدة من أطلس مخاطر الذكاء الاصطناعي. ومن خلال حساب هذه المؤشرات لمجموعة واسعة من نماذج الأساس، تتمكن الشركات من اختيار النماذج التي تتناسب مع أهداف أعمالها وفي الوقت نفسه تتماشى مع مدى تحمُّل المخاطر لديها.

يدعم محرك تقييم مخاطر النماذج تقييم النماذج اللغوية الكبيرة من IBM watsonx.ai، بالإضافة إلى أي نماذج لغوية كبيرة خارجية. يمكن حفظ نتائج محرك التقييم المُنجزة في وحدة تحكم الحوكمة في watsonx.governance أو تصديرها كتقرير بتنسيق PDF.

يساعد محرك تقييم مخاطر النماذج على إنجاز المهام التالية:

  • حساب المقاييس باستخدام watsonx.ai كمحرك استدلال
  • حساب مقاييس المخاطر لنماذج الأساس في watsonx.ai
  • حساب مقاييس المخاطر لنماذج الأساس الخارجية
  • تخزين المقاييس المحسوبة في وحدة التحكم في الحوكمة (OpenPages)
  • استرجاع المؤشرات المحسوبة من Governance Console ‏(OpenPages)
  • إضافة المخاطر ومجموعات البيانات الخاصة بك
  • إنشاء تقرير PDF للمقاييس المحسوبة
  • تنفيذ دالة التقييم الخاصة بك لأي نموذج لإجراء التقييمات (مثل دالة حتمية، أو نموذج لغوي كبير كقاضٍ)
  • عرض المقاييس في خلية دفتر الملاحظات، في شكل جدول أو مخطط

 

بمجرد تدفق جميع هذه البيانات مرة أخرى إلى وحدة Governance Console، يمكن استخدامها لإبلاغ خطوة التقييم في سير العمل على نموذج الأساس الموضح أعلاه.

تمكَّن من الوصول والاستكشاف اليوم

يمكن لمستخدمي watsonx.governance الوصول إلى محرك تقييم مخاطر النماذج عن طريق تشغيل الأمر التالي:

pip install ibm_watsonx_gov[mre]

يحتوي دفتر الملاحظات التجريبي الخاص بنا على تعليمات لتجربته بنفسك. كما تحتوي صفحة وثائق محرك تقييم مخاطر النماذج على مزيد من المعلومات.

إذا كنت تريد أن تستطيع مؤسستك تحديد المخاطر المتعلقة بالذكاء الاصطناعي التوليدي وقياسها والتخفيف منها بشكل فعَّال، فإن حل حوكمة الذكاء الاصطناعي الشامل مثل watsonx.governance يُعَد أمرًا بالغ الأهمية. جرِّبه بنفسك أو حدِّد موعدًا لنا لمناقشة ذلك مع أحد خبراء IBM اليوم. 

جرِّب watsonx.governance اليوم
.

تعرَّف على خدمات حوكمة الذكاء الاصطناعي من IBM