15 أبريل 2025
نحن متحمسون للإعلان عن "محرك تقييم مخاطر النماذج"، وهو أداة جديدة ضمن watsonx.governance لقياس مخاطر النماذج الأساسية عبر حساب مؤشرات مرتبطة بأبعاد المخاطر المستمدة من أطلس مخاطر الذكاء الاصطناعي. وكجزء من عملية متكاملة لإدخال النماذج، تُتيح هذه الأداة مقارنة مؤشرات المخاطر عبر نماذج أساس مختلفة، ما يساعدك على تحديد أنسب نماذج الأساس للنشر داخل مؤسستك، بما يتماشى مع مستوى تحمُّل المخاطر الخاص بمؤسستك.
مع استمرار الشركات في توسيع نشرات الذكاء الاصطناعي التوليدي، أصبح من المهم بشكل متزايد أن تطور الشركات فهمًا أفضل للمخاطر المرتبطة بنماذج الأساس الكامنة، بما في ذلك حقن المطالبات، والمخرجات السامة، وكسر الحماية، والهلوسة.
تمتلك المؤسسات خيارات واسعة عند اختيار نماذج الذكاء الاصطناعي التوليدي التي ستستخدمها. من المهم اتخاذ قرار مدروس لتجنب المواقف التي قد تؤدي إلى أداء سيئ للنماذج التوليدية (مثل روبوت محادثة مخصص للعملاء يقدِّم إرشادات خاطئة أو ضارة). قد يكون لهذه المواقف تأثير بالغ على السمعة، يصعب على المؤسسة التعافي منه. لذلك، ينبغي أن يكون امتلاك بيانات كمية وموضوعية عن المخاطر جزءًا أساسيًا من عملية إدخال النماذج إلى المؤسسة.
تتكون عملية إعداد نماذج الذكاء الاصطناعي التوليدي من 3 مراحل:
.
يُعَد إدخال مكتبة المخاطر الخطوة الأولى لفهم المخاطر التي قد تكون قابلة للتطبيق. يُعَد أطلس مخاطر الذكاء الاصطناعي من IBM مصدرًا رائعًا لفهم المخاطر المرتبطة باستخدام نماذج الذكاء الاصطناعي التوليدي والتعلم الآلي. تم دمج هذه المخاطر أيضًا مباشرةً في وحدة Governance Console ضمن watsonx.governance، وهي متاحة بشكل مباشر. يمكن أيضًا تكملة مكتبة المخاطر باستخدام مخزون المخاطر الخاص بالمؤسسة إذا رغب المستخدم في ذلك. كما يمكن ربط هذه المخاطر بحالات الاستخدام والنماذج باستخدام تقييمات تعريف المخاطر الجاهزة مثل (حالة استخدام الذكاء الاصطناعي، إعداد النماذج وحالة الاستخدام + النموذج معًا).
يُعَد فهم المخاطر التي قد تكون قابلة للتطبيق خطوة أولى رائعة، ولكن من المهم بالقدر نفسه أن تكون لديك طرق فعَّالة لتحديد هذه المخاطر وقياسها والتخفيف من حدتها.
يتضمن watsonx.governance ثلاثة تقييمات لتحديد المخاطر:
تُستخدَم هذه التقييمات في تحديد المخاطر المستمدة من أطلس المخاطر التي تنطبق على النموذج و/أو حالة الاستخدام التي يتم إدخالها. في وحدة التحكم الخاصة بالحوكمة في watsonx.governance، يوجد سير عمل لإدخال نماذج الأساس يتضمن تقييم استبيان تحديد المخاطر المذكور أعلاه.
بعد تحديدها، يجب فحص المخاطر المطبقة بشكل فردي باستخدام تقييم المخاطر والسيطرة الذاتي (RCSA) لتحديد المخاطر الجوهرية والمتبقية. سيؤدي ذلك إلى إنتاج ملف تعريف للمخاطر للنموذج الذي يمكن أن يساعد على تحديد أنواع الاستخدامات التي ستكون المؤسسة مستعدة للموافقة عليها للنموذج، مثل RAG، أو التصنيف، أو تلخيص النصوص.
لتحسين عملية تقييم المخاطر والسيطرة الذاتي (RCSA)، يمكن إجراء بعض التقييمات الكمية للحصول على فهم أعمق لمخاطر نموذج معين وكيفية مقارنته مع النماذج المماثلة. كما يمكن للشركات تقييم مخاطر أي نموذج تقوم بتطويره أو تحسينه (على سبيل المثال من خلال التخصيص الدقيق للنموذج).
يساعد "محرك تقييم مخاطر النماذج"، الذي أصبح الآن جزءًا من watsonx.governance، على التقييم الكمي لمخاطر نماذج الأساس. فهو يحسِب مؤشرات مرتبطة بمجموعة محددة من أبعاد المخاطر المستمدة من أطلس مخاطر الذكاء الاصطناعي. ومن خلال حساب هذه المؤشرات لمجموعة واسعة من نماذج الأساس، تتمكن الشركات من اختيار النماذج التي تتناسب مع أهداف أعمالها وفي الوقت نفسه تتماشى مع مدى تحمُّل المخاطر لديها.
يدعم محرك تقييم مخاطر النماذج تقييم النماذج اللغوية الكبيرة من IBM watsonx.ai، بالإضافة إلى أي نماذج لغوية كبيرة خارجية. يمكن حفظ نتائج محرك التقييم المُنجزة في وحدة تحكم الحوكمة في watsonx.governance أو تصديرها كتقرير بتنسيق PDF.
يساعد محرك تقييم مخاطر النماذج على إنجاز المهام التالية:
بمجرد تدفق جميع هذه البيانات مرة أخرى إلى وحدة Governance Console، يمكن استخدامها لإبلاغ خطوة التقييم في سير العمل على نموذج الأساس الموضح أعلاه.
يمكن لمستخدمي watsonx.governance الوصول إلى محرك تقييم مخاطر النماذج عن طريق تشغيل الأمر التالي:
يحتوي دفتر الملاحظات التجريبي الخاص بنا على تعليمات لتجربته بنفسك. كما تحتوي صفحة وثائق محرك تقييم مخاطر النماذج على مزيد من المعلومات.
إذا كنت تريد أن تستطيع مؤسستك تحديد المخاطر المتعلقة بالذكاء الاصطناعي التوليدي وقياسها والتخفيف منها بشكل فعَّال، فإن حل حوكمة الذكاء الاصطناعي الشامل مثل watsonx.governance يُعَد أمرًا بالغ الأهمية. جرِّبه بنفسك أو حدِّد موعدًا لنا لمناقشة ذلك مع أحد خبراء IBM اليوم.