ما هو AI TRiSM؟

امرأة تبتسم أثناء الكتابة على الكمبيوتر المحمول.

المؤلفون

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

ما هو AI TRiSM؟

إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي (AI) أو AI TRiSM، "تضمن حوكمة نماذج الذكاء الاصطناعي، وجدارتها بالثقة، وإنصافها، وموثوقيتها، وقوتها، وفعاليتها، وحماية البيانات. يتضمن ذلك حلولًا وتقنيات لتفسير النماذج وقابليتها للشرح، وحماية بيانات الذكاء الاصطناعي، وعمليات النماذج، ومقاومة الهجمات العدائية."1
 

 تم تطويره من قبل شركة الأبحاث والاستشارات ®Gartner، و "يوفر حلولًا استباقية لتحديد هذه المخاطر والتخفيف من حدتها، مما يضمن الموثوقية والجدارة بالثقة والأمان".2

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

لماذا يعتبر الذكاء الاصطناعي AI TRiSM مهمًا؟

وفقًا للباحثين، على الرغم من أن العديد من الأطر المنفصلة تركز بشكل خاص على ثقة الذكاء الاصطناعي أو مخاطر الذكاء الاصطناعي أو أمان الذكاء الاصطناعي، إلا أنه من الصعب دمجها ومزامنتها. يمكن أن يؤدي هذا النقص في التنسيق إلى إدارة مجزأة للذكاء الاصطناعي. كما يمكن أن يؤدي إلى فجوات معرفية فيما يتعلق بالمخاطر والعواقب الأمنية الناجمة عن تطبيق الذكاء الاصطناعي وممارسات الذكاء الاصطناعي.

ومع ذلك، يوفر إطار العمل AI TRiSM نهجًا موحدًا. فهو يجمع بين الأجزاء المهمة من الأطر المختلفة لإدارة أكثر شمولاً لتقنيات الذكاء الاصطناعي.

يرى مؤيدو إطار عمل AI TRiSM أنه مهم للتخفيف من المخاطر والتهديدات السيبرانية المتعلقة بتقدم الذكاء الاصطناعي التوليدي (gen AI) واستخدامه المتزايد، مثل النماذج اللغوية الكبيرة (LLMs). يمكن أن يؤدي استخدام الذكاء الاصطناعي التوليدي إلى زيادة أسطح الهجوم للمؤسسات، وتمكين هجمات إلكترونية أكثر تعقيدًا من قبل المتسللين، وإثارة اعتبارات أخلاقية جديدة. فوائد تطبيقات AI TRiSM في مجالات مثل الرعاية الصحية والتمويل تشمل تخفيف المخاطر، وتعزيز إجراءات مراقبة النماذج، وضمانات ضد الهجمات العدائية والوصول غير المصرح به.3

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال.ومن المفهوم أيضًا أنه موضوع شائك.سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

مبادئ وممارسات AI TRiSM

وفقًا لشركة Gartner، "تضمن إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي (AI TRiSM) ما يلي:

  • الحوكمة
  • الجدارة بالثقة
  • الإنصاف
  • الموثوقية
  • حماية البيانات في عمليات نشر الذكاء الاصطناعي"4

حوكمة الذكاء الاصطناعي

حوكمة الذكاء الاصطناعي تشير إلى العمليات والمعايير وحواجز الحماية التي تساعد على ضمان أن تكون أنظمة الذكاء الاصطناعي وأدواته آمنة وأخلاقية. تتضمن حوكمة الذكاء الاصطناعي الفعالة إدارة المخاطر—مع آليات لمعالجة التحيزات المحتملة وانتهاكات خصوصية البيانات وغيرها من المخاوف —مع بناء الثقة ودعم الابتكار.

يتضمن ذلك المراقبة والتقييم المستمرين لأنظمة الذكاء الاصطناعي لضمان امتثالها للمعايير الأخلاقية واللوائح القانونية المعمول بها. تتضمن حوكمة الذكاء الاصطناعي إدارة البيانات، وهي منهجية لإدارة البيانات مصممة للحفاظ على بيانات آمنة وعالية الجودة يسهل الوصول إليها لمبادرات اكتشاف البيانات وذكاء الأعمال.

الجدارة بالثقة

تؤكد المؤسسات والأطر المختلفة على مبادئ توجيهية وأهداف متنوعة لتحديد جدارة أنظمة الذكاء الاصطناعي بالثقة. تشمل مبادئ الذكاء الاصطناعي الجديرة بالثقة التي يتم الاستشهاد بها بشكل متكرر المساءلة وقابلية الشرح وقابلية التفسير.

عندما يواجه مستخدمو نماذج الذكاء الاصطناعي وغيرهم من الأطراف المعنية صعوبة في فهم كيفية عمل النموذج، فإن ذلك يمكن أن يعيق ثقتهم في نظام الذكاء الاصطناعي. يمكن للعمليات والمنهجيات الصحيحة أن تساعد المستخدمين على فهم وثقة عمليات صنع القرار ومخرجات نماذج التعلم الآلي.

العدالة

تتضمن العدالة غالبًا تخفيف أو إزالة التحيز في نماذج الذكاء الاصطناعي والبيانات خلال دورة حياة تطوير الذكاء الاصطناعي. نماذج الذكاء الاصطناعي تمتص تحيزات المجتمع التي يمكن تضمينها في بياناتها التدريبية. يمكن أن يؤدي جمع البيانات المتحيز الذي يعكس عدم المساواة المجتمعية إلى إلحاق الضرر بالمجموعات المهمشة تاريخياً في تقييم الجدارة الائتمانية والتوظيف ومجالات أخرى.

يتطلب تحديد التحيز ومعالجته في الذكاء الاصطناعي القدرة على توجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي للمؤسسة. يمكن تحقيق ذلك من خلال حوكمة الذكاء الاصطناعي—وتحديداً، وضع سياسات وممارسات لتوجيه تطوير الذكاء الاصطناعي المسؤول واستخدام تقنيات الذكاء الاصطناعي.

الموثوقية

تشير الموثوقية عمومًا إلى قدرة شيء ما على العمل كما هو متوقع أو مطلوب لفترة معينة في ظل ظروف معينة. فيما يتعلق بأنظمة الذكاء الاصطناعي، فإن تلبية توقعات الأداء يتضمن توفير مخرجات صحيحة لمدة قد تمتد طوال عمر النظام.5

حماية البيانات

حماية البيانات هي عملية حماية البيانات الحساسة من الفقدان والتلف. تهدف حماية البيانات إلى الحفاظ على توافر البيانات، مما يضمن قدرة المستخدمين على الوصول إلى البيانات لأغراض العمليات، حتى في حالة تلف البيانات أو فقدانها في حالة اختراق أمن البيانات أو هجوم برنامج ضار.

تشمل حماية البيانات أمن البيانات (حماية المعلومات الرقمية من الوصول غير المصرح به أو تلفها أو سرقتها) وخصوصية البيانات (المبدأ الذي ينص على أن الشخص يجب أن يكون لديه سيطرة على بياناته الشخصية). تعد حماية البيانات أمرًا أساسيًا للامتثال للأنظمة التنظيمية الرئيسية، مثل اللائحة الأوروبية العامة لحماية البيانات (GDPR).

ما هي التقنيات التي تدعم AI TRiSM؟

تدعم كل من التقنيات التقليدية والحلول الأحدث الخاصة بالذكاء الاصطناعي، مفهوم إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي (AI TRiSM). يتضمن الأول أدوات لتوفير إدارة الهوية والوصول (IAM) وحلول لإدارة الوضع الأمني للبيانات.

تختلف التقنيات الخاصة بـ AI TRiSM حسب مزود الخدمة. يركز البعض على وظائف معينة، مثل الأمان أو الامتثال. يقدم البعض الآخر منتجات أكثر شمولاً مع مجموعة من الإمكانات لحوكمة الذكاء الاصطناعي وفحص وقت تشغيل الذكاء الاصطناعي وتطبيقه:

حوكمة الذكاء الاصطناعي

يمكن لبرامج حوكمة الذكاء الاصطناعي تمكين الشركات من تسجيل ومراقبة معلومات النموذج تلقائيًا، بما في ذلك أنشطة تطوير الذكاء الاصطناعي، لدعم عمليات التدقيق؛ وإجراء تقييمات مخاطر النموذج؛ وتقييم أداء النموذج ومنع إنشاء محتوى ضار؛ وإدارة الامتثال التنظيمي. بينما تقتصر بعض أدوات الحوكمة على نماذج الذكاء الاصطناعي التي يتم إنشاؤها داخل المؤسسة، يمكن تطبيق أدوات أخرى على النماذج التي يتم إنشاؤها على منصات خارجية، مثل Amazon Bedrock و Microsoft Azure.

فحص وقت تشغيل الذكاء الاصطناعي وتطبيقه

وفقًا لندوة Gartner على الإنترنت، تشمل وظائف فحص وقت تشغيل الذكاء الاصطناعي وتطبيقه نماذج الذكاء الاصطناعي وتطبيقات الذكاء الاصطناعي ووكلاء الذكاء الاصطناعي. تُوفر نماذج الذكاء الاصطناعي وتطبيقاته ووكلاء الذكاء الاصطناعي "الامتثال للضوابط الداخلية والخارجية"، وتُوفر تطبيقات الذكاء الاصطناعي "التحكم في الوصول القائم على السياق والتصنيف الديناميكي للبيانات السياقية."6

حالات الاستخدام في العالم الحقيقي لبرنامج AI TRiSM

هناك العديد من حالات الاستخدام لبرنامج AI TRiSM في نشر وإدارة الذكاء الاصطناعي للمؤسسات. ويشمل ذلك:

حماية بيانات الرعاية الصحية الحساسة

يستخدم المتخصصون في المجال الطبي بشكل متزايد أدوات مدعومة بالذكاء الاصطناعي لمجموعة من الأغراض، بدءاً من الأتمتة إلى تحليل الصور. يمكن لبرنامج AI TRiSM المساعدة في حماية بيانات الرعاية الصحية المستخدمة في هذه الأنظمة من خروقات أمن البيانات. يمكن لتدابير مثل ضوابط الوصول، على سبيل المثال، أن تخفف من المخاطر المحتملة للوصول غير المصرح به.

تحسين تجربة العملاء في المعاملات المالية

عندما يتم استخدام مجموعات البيانات التي تحتوي على تحيزات ديموغرافية لتدريب خوارزميات الذكاء الاصطناعي، يمكن أن تكون النتائج متحيزة. كانت هذه مشكلة معروفة في القطاع المالي، مما أثر على موافقات القروض ورسوم أسعار الفائدة والمزيد. وفي الدنمارك، طبقت رابطة الأعمال الدنماركية ممارسات الذكاء الاصطناعي في مجال تكنولوجيا المعلومات والاتصالات من خلال إجراء اختبارات عدالة للتحقق من صحة تنبؤات نماذج الذكاء الاصطناعي التي تشرف على المعاملات المالية، مما يزيد من ثقة العملاء.7

منع الاحتيال المصرفي ودعم الامتثال التنظيمي

بالإضافة إلى ضمان قدر أكبر من العدالة في المعاملات المالية، يمكن أن تساعد تدابير AI TRiSM في حماية أنظمة الكشف عن الغش في المؤسسات المالية من الهجمات العدائية.8 كما تساعد حلول الذكاء الاصطناعي هذه البنوك على الامتثال للمتطلبات القانونية المتعلقة بحماية المستهلك وحماية المعلومات الحساسة.

حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

1 Gartner Glossary, AI TRiSM, https://www.gartner.com/en/information-technology/glossary/ai-trism. GARTNER هي علامة تجارية وعلامة خدمة مسجلة تابعة لشركة Gartner Inc. و/أو الشركات التابعة لها في الولايات المتحدة وخارجها وتُذكر في هذه الوثيقة بموجب تصريح. جميع الحقوق محفوظة.

2، 4 مقال Gartner، معالجة الثقة والمخاطر والأمن في نماذج الذكاء الاصطناعي، Avivah Litan، في 24 ديسمبر 2024، https://www.gartner.com/en/articles/ai-trust-and-ai-risk.

3، 7 "إدارة الثقة والمخاطر والأمن في الذكاء الاصطناعي (AI TRiSM): الأطر والتطبيقات والتحديات واتجاهات البحث المستقبلية." أنظمة خبيرة مع التطبيقات. 15 أبريل 2024.

5 "مخاطر الذكاء الاصطناعي والجدارة بالثقة." المعهد الوطني الأمريكي للمعايير والتقنية (NIST). تم الوصول إليه في 23 فبراير 2025.

6 إطار عمل Gartner لإدارة الحوكمة والثقة والمخاطر والأمن في الذكاء الاصطناعي. [ندوة عبر الإنترنت] Gartner. تم الوصول إليه في 28 يناير 2025، جدول الأعمال | إطار عمل Gartner لإدارة الحوكمة والثقة والمخاطر والأمن في الذكاء الاصطناعي

8 "دور الذكاء الاصطناعي في التمويل الحديث: التطبيقات الحالية والاحتمالات المستقبلية." الهندسة التطبيقية والحاسوبية. ديسمبر 2024.