ما هي قابلية الذكاء الاصطناعي للتفسير؟

8 أكتوبر 2024

المؤلفين

Amanda McGrath

Writer

IBM

Alexandra Jonker

Editorial Content Lead

ما هي قابلية الذكاء الاصطناعي للتفسير؟

تساعد القدرة على تفسير الذكاء الاصطناعي الأشخاص على فهم وشرح عمليات صنع القرار التي تدعم نماذج الذكاء الاصطناعي بشكل أفضل.

تستخدم نماذج الذكاء الاصطناعي شبكة معقدة من مدخلات البيانات والخوارزميات والمنطق وعلم البيانات وغيرها من العمليات لتحقيق رؤى. وكلما كان النموذج أكثر تعقيدًا، كلما كان من الصعب على البشر فهم الخطوات التي أدت إلى رؤيته—حتى لو كان هؤلاء البشر هم من صمموه وبنوه. النموذج القابل للتفسير هو النموذج الذي يمكن للمستخدمين فهم قراراته بسهولة.

استخدام الذكاء الاصطناعي آخذ في التوسع. أصبحت الأنظمة التي تستخدم النماذج اللغوية الكبيرة (LLMs) جزءًا روتينيًا من الحياة اليومية، بدءًا من الأجهزة المنزلية الذكية إلى الكشف عن الغش في بطاقات الائتمان إلى الاستخدام الواسع النطاق لـ ChatGPT وغيرها من أدوات الذكاء الاصطناعي التوليدي. نظرًا لأن النماذج شديدة التعقيد (بما في ذلك خوارزميات التعلم العميق والشبكات العصبية) أصبحت أكثر شيوعًا، تصبح قابلية تفسير الذكاء الاصطناعي أكثر أهمية.

بالإضافة إلى ذلك، أصبحت أنظمة الذكاء الاصطناعي وخوارزميات التعلم الآلي منتشرة بشكل متزايد في قطاع الرعاية الصحية والتمويل وغيرها من الصناعات التي تنطوي على قرارات حاسمة أو تغير حياة الناس. مع هذه المخاطر العالية، يجب أن يكون الجمهور قادرًا على الوثوق في أن النتائج عادلة وموثوقة. تعتمد هذه الثقة على فهم كيفية وصول أنظمة الذكاء الاصطناعي إلى تنبؤاتها واتخاذ قراراتها.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

نماذج الصندوق الأبيض مقابل نماذج الصندوق الأسود

نماذج الذكاء الاصطناعي ذات الصندوق الأبيض تحتوي على مدخلات ومنطق يسهل رؤيته وفهمه. على سبيل المثال، فإن مخططات القرار الأساسية، والتي تظهر تدفقًا واضحًا بين كل خطوة، ليست صعبة الفهم بالنسبة للشخص العادي. نماذج الصندوق الأبيض تميل إلى استخدام أنظمة صنع قرار أكثر خطية والتي يسهل تفسيرها، ولكنها قد تؤدي إلى دقة أقل أوتطبيقات أو رؤى أقل إقناعًا.

تُعد نماذج الذكاء الاصطناعي ذات الصندوق الأسود أكثر تعقيدًا وتوفر قدرًا أقل من الشفافية فيما يتعلق بعملها الداخلي. لا يعرف المستخدم عمومًا كيف يصل النموذج إلى نتائجه. تميل هذه النماذج الأكثر تعقيدًا إلى أن تكون أكثر دقة وصحة. ولكن نظرًا لصعوبة أو استحالة فهمها، فإنها تأتي مع مخاوف بشأن موثوقيتها ونزاهتها وتحيزاتها وغيرها من القضايا الأخلاقية. إن جعل نماذج الصندوق الأسود أكثر قابلية للتفسير هي إحدى طرق بناء الثقة في استخدامها.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

قابلية تفسير الذكاء الاصطناعي مقابل قابلية شرح الذكاء الاصطناعي

تركز قابلية التفسير في الذكاء الاصطناعي على فهم الأعمال الداخلية لنموذج الذكاء الاصطناعي بينما تهدف قابلية الشرح في الذكاء الاصطناعي إلى تقديم أسباب مخرجات النموذج.

تتمحور قابلية التفسير حول الشفافية، مما يسمح للمستخدمين بفهم بنية النموذج والميزات التي يستخدمها وكيفية دمجها لتقديم تنبؤات. يسهل على البشر فهم عمليات اتخاذ القرار في النموذج القابل للتفسير. تتطلب القابلية الأكبر للتفسير المزيد من الكشف عن عملياته الداخلية.

تتعلق قابلية الشرح بالتحقق، أو تقديم مبررات لمخرجات النموذج، وغالبًا ما يكون ذلك بعد أن يقوم بتوقعاته. يتم استخدام الذكاء الاصطناعي القابل للشرح (XAI) لتحديد العوامل التي أدت إلى النتائج. يمكن استخدام طرق مختلفة للشرح لتقديم النماذج بطرق تجعل عملياتها المعقدة وعلم البيانات الأساسية واضحة للإنسان باستخدام اللغة الطبيعية.

لماذا تعد قابلية تفسير الذكاء الاصطناعي مهمة؟

تساعد قابلية تفسير الذكاء الاصطناعي على تصحيح أخطاء النماذج، وكشف التحيزات، وضمان الامتثال للوائح، وبناء الثقة مع المستخدمين. فهي تسمح للمطورين والمستخدمين بمعرفة كيفية تأثير نماذجهم على الأشخاص والشركات وتطويرها بمسؤولية.

التفسير مهم لعدة أسباب:

  • الثقة
  • التحيز والإنصاف
  • التصحيح
  • الامتثال التنظيمي
  • نقل المعرفة

الثقة

في حالة عدم القدرة على التفسير، يبقى المستخدمون في الظلام. ويمكن أن يؤدي هذا الافتقار إلى المساءلة إلى تآكل ثقة الجمهور في التقنية. عندما يفهم الأطراف المعنية تمامًا كيف يتخذ النموذج قراراته، فمن المرجح أن يقبلوا مخرجاته. تسمح إمكانية تفسير النموذج بالشفافية والوضوح، مما يجعل المستخدمين يشعرون بالراحة في الاعتماد عليه في التطبيقات الواقعية مثل التشخيص الطبي أو القرارات المالية.

التحيز والإنصاف

يمكن تضخيم التحيزات داخل بيانات التدريب بواسطة نماذج الذكاء الاصطناعي. النتائج التمييزية الناتجة تُعمِّقُ من عدم المساواة المجتمعية، ولكنها أيضًا تُعرِّضُ المؤسسات للمخاطر القانونية والمتعلقة بالسمعة. يمكن لأنظمة الذكاء الاصطناعي القابلة للتفسير أن تساعد في كشف ما إذا كان النموذج يتخذ قرارات متحيزة بناءً على السمات المحمية، مثل العرق أو العمر أو الجنس. تسمح قابلية التفسير لمطوري النماذج بتحديد الأنماط التمييزية والتخفيف من حدتها، مما يساعد على ضمان نتائج أكثر عدلًا.

التصحيح

يسمح التعلم الآلي القابل للتفسير لمنشئي خوارزميات التعلم الآلي ونماذج التعلم الآلي بتحديد الأخطاء وإصلاحها. لا يوجد نموذج تعلم آلي دقيق بنسبة 100% منذ البداية. من دون فهم أسباب الذكاء الاصطناعي، فإن تصحيح الأخطاء يعد عملية غير فعالة ومحفوفة بالمخاطر. من خلال فهم كيفية عمل نموذج التعلم الآلي (ML)، يمكن للمطورين وعلماء البيانات تحديد مصادر التنبؤات غير الصحيحة وتحسين الأداء. وهذه العملية بدورها تزيد من موثوقيته الشاملة وتساعد على التحسين.

الامتثال التنظيمي

بعض اللوائح التنظيمية، مثل قانون تكافؤ الفرص الائتمانية (ECOA) في الولايات المتحدة أو اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، تتطلب أن تكون القرارات التي تتخذها الأنظمة الآلية شفافة وقابلة للتفسير. ويوجد عدد متزايد من اللوائح التنظيمية الخاصة بالذكاء الاصطناعي، بما في ذلك قانون الذكاء الاصطناعي للاتحاد الأوروبي، والتي تضع معايير لتطوير الذكاء الاصطناعي واستخدامه. يمكن لنماذج الذكاء الاصطناعي القابلة للتفسير أن توفر تفسيرات واضحة لقراراتها، مما يساعد على تلبية هذه المتطلبات التنظيمية. يمكن أن تساعد القدرة على التفسير أيضًا في قضايا التدقيق والمسؤولية وحماية خصوصية البيانات.

نقل المعرفة

فبدون قابلية التفسير، قد يواجه المطورون والباحثون صعوبة في ترجمة رؤى الذكاء الاصطناعي إلى نتائج قابلة للتنفيذ أو تطوير التكنولوجيا مع إجراء تغييرات. تسهّل قابلية التفسير نقل المعرفة حول أسس النموذج وقراراته بين الأطراف المعنية واستخدام معرفته لإثراء عملية تطوير نماذج أخرى.

أنواع قابلية التفسير

ويحدد الباحث في جامعة ستانفورد Nigam Shah ثلاثة أنواع رئيسية من قابلية التفسير: قابلية تفسير المهندسين، وقابلية التفسير السببي، وقابلية التفسير المحفزة للثقة.1

قابلية تفسير المهندسين

يركز هذا النوع على كيفية وصول نماذج الذكاء الاصطناعي إلى مخرجاته. ويتضمن فهم الإجراءات الداخلية للنموذج وهو مهم للمطورين والباحثين الذين يحتاجون إلى تصحيح أخطاء النموذج أو تحسينه.

قابلية التفسير السببي

يركز هذا النوع على سبب إنتاج النموذج لمخرجاته. يتضمن تحديد العوامل التي لها التأثير الأكبر على تنبؤات النموذج وكيفية تأثير التغييرات في هذه العوامل على النتائج.

قابلية التفسير المحفزة للثقة

يركز هذا النوع على تقديم تفسيرات تبني الثقة في مخرجات النموذج. ويتضمن تقديم عملية اتخاذ القرار في النموذج بطريقة مفهومة وقابلة للفهم وقابلة للتطبيق من قِبل المستخدمين، حتى لو لم تكن لديهم خبرة فنية.

عوامل قابلية التفسير

تؤثر العديد من الخصائص على قابلية تفسير نماذج الذكاء الاصطناعي:

  • الجوهرية مقابل اللاحقة
  • المحلية مقابل العالمية
  • الخاصة بالنموذج مقابل الحيادية للنموذج

الجوهرية مقابل اللاحقة

تشير قابلية التفسير الجوهرية إلى النماذج القابلة للتفسير بطبيعتها، مثل مخططات القرار ونماذج الانحدار الخطي. هياكلها البسيطة سهلة الفهم. ومع ذلك، فإن قابلية التفسير اللاحقة تتضمن تطبيق أساليب التفسير على النماذج المدربة مسبقًا لشرح سلوكها. تُعد قابلية التفسير اللاحقة أفضل للنماذج الأكثر تعقيدًا أو ذات الصندوق الأسود.

المحلية مقابل العالمية

تركز قابلية التفسير المحلي على شرح التنبؤات الفردية وتساعد في توضيح سبب وصول النموذج إلى نتائج معينة. تهدف قابلية التفسير العالمية إلى فهم سلوك النموذج عبر مجموعة البيانات بأكملها، وإظهار أنماطه واتجاهاته العامة.

الخاصة بالنموذج مقابل الحيادية للنموذج

تستخدم أساليب قابلية التفسير الخاصة بالنموذج البنية الداخلية للنموذج لتقديم تفسيرات. تعمل الأساليب الحيادية للنموذج مع أي نوع من النماذج.

أساليب قابلية التفسير

يمكن إنشاء القدرة على التفسير في نماذج الذكاء الاصطناعي من خلال أساليب مختلفة.

بعض النماذج بسيطة بما يكفي للتفسير الجوهري. تعتمد هذه النماذج القابلة للتفسير بطبيعتها على هياكل مباشرة مثل مخططات القرار والأنظمة القائمة على القواعد والانحدارات الخطية. يمكن للبشر بسهولة فهم أنماط صنع القرار وعمليات النماذج الخطية.

تتطلب النماذج الأكثر تعقيدا تفسيرًا لاحقًا، حيث يتم تطبيق طرق التفسير على النماذج المدربة مسبقًا لشرح مخرجات النموذج. وتشمل بعض أساليب التفسير اللاحقة الشائعة ما يلي:

  • التفسيرات المحلية القابلة للتفسير والحيادية للنموذج(LIME)
  • تفسيرات شابلي المضافة (SHAP)
  • مخططات الاعتماد الجزئي (PDPs)
  • مخططات التوقع الشرطي الفردي (ICE)

التفسيرات المحلية القابلة للتفسير والحيادية للنموذج(LIME)

تساعد LIME في شرح تنبؤات النموذج من خلال التركيز على تنبؤ واحد في كل مرة. وتقوم بذلك من خلال إنشاء نموذج أبسط وقابل للتفسير يحاكي سلوك النموذج المعقد لهذا التنبؤ المحدد. تستخدم خاصية الإسناد لتحديد تأثير خاصية معينة (مثل الشكل أو اللون أو نقطة بيانات أخرى) على مخرجات النموذج. على سبيل المثال، تأخذ تنبؤًا محددًا ثم تولد العديد من الحالات المتشابهة عن طريق تبديل أو تعديل قيم الميزة قليلاً. من هناك، تنشئ نموذجًا أبسط وأكثر قابلية للتفسير بناءً على قيم السمات "المضطربة" هذه ونتائجها. باختصار، تقدم LIME شرحًا محليًا مبسطًا لكيفية تصرف النموذج المعقد.

تفسيرات شابلي المضافة (SHAP)

SHAP هي طريقة تعاونية على غرار نظرية اللعبة لتفسير النماذج التي تأخذ في الاعتبار جميع المجموعات الممكنة للميزات وكيف تؤثر على التنبؤ. تقوم بتعيين قيمة (تسمى قيمة شابلي) لكل ميزة بناءً على مدى مساهمتها في التنبؤ في سيناريوهات مختلفة. يمكن لـ SHAP العمل مع أي نظام تعلُّم آلي. تقدم تفسيرات محلية للتنبؤات الفردية التي تقدمها خوارزميات التعلم الآلي والتفسيرات العالمية للنموذج ككل. ومع ذلك، نظرًا لتعقيدها الحسابي، يمكن أن تكون SHAP طريقة أبطأ وأكثر تكلفة.

مخططات الاعتماد الجزئي (PDPs)

توضح PDPs كيف تؤثر الميزة على تنبؤات النموذج، في المتوسط، عبر مجموعة البيانات. إنها تساعد في تصور العلاقة بين الميزة ومخرجات النموذج، مع الحفاظ على ثبات جميع الميزات الأخرى. هذه الطريقة مفيدة لتفسير عدد قليل من الميزات أو عندما يرغب طرف معني في التركيز على مجموعة فرعية محددة من الميزات.

مخططات التوقع الشرطي الفردي (ICE)

توضح مخططات ICE مدى اعتماد النتيجة المتوقعة على ميزة معينة. إنها مشابهة لمخططات PDPs ولكنها تُظهر العلاقة بين الميزة ومخرجات النموذج للمثيلات الفردية، بدلاً من حساب المتوسط عبر مجموعة البيانات. أن تكمل هذه المخططات مخططات PDPs من خلال توفير رؤية أكثر تفصيلاً لسلوك النموذج—على سبيل المثال، من خلال تسليط الضوء على التباين وإظهار التفاعلات بين الميزات على مستوى المثيلات، وهي مفيدة عندما يرغب الأطراف المعنية أو الباحثون في علوم الحاسب في تحديد القيمة الخارجية أو الأنماط غير العادية في العمليات.

قابلية التفسير: الأمثلة وحالات الاستخدام

تُعد قابلية تفسير الذكاء الاصطناعي مهمة في أي صناعة تستخدم نماذج الذكاء الاصطناعي لاتخاذ القرارات التي تؤثر على الأفراد أو المجتمع. تتضمن بعض الصناعات التي تكون فيها قابلية تفسير الذكاء الاصطناعي ذات صلة:

الرعاية الصحية

يستخدم المتخصصون الطبيون الذكاء الاصطناعي في التشخيص والتوصيات العلاجية والأبحاث. يمكن أن تساعد قابلية التفسير الأطباء والمرضى على الوثوق بقرارات نماذج الذكاء الاصطناعي وفهمها وتحديد التحيز أو الأخطاء في تفكيرها.

الشؤون المالية

يمكن للمتخصصين في الشؤون المالية استخدام الذكاء الاصطناعي للكشف عن الاحتيال وتقدير المخاطر وتعيين درجات الائتمان وتقديم توصيات للاستثمارات. تعد قابلية التفسير أمرًا ضروريًا للامتثال التنظيمي والتدقيق في المجالين المالي والمصرفي. ويمكن أن يساعد فهم عملية صنع القرار في النموذج لأنشطة مثل الموافقات على القروض وإدارة المخاطر في منع النتائج المتحيزة.

العدالة الجنائية

يمكن لقطاع العدالة الجنائية استخدام الذكاء الاصطناعي لتحليل مسارح الجريمة، والحمض النووي، والأدلة الجنائية، وأنماط الجريمة المحلية أو الوطنية. قد يلجأ المستخدمون أيضًا إلى الذكاء الاصطناعي لتقديم توصيات بإصدار الأحكام وتنفيذ العمليات القضائية الروتينية الأخرى. تعد قابلية التفسير ضرورية لضمان العدالة والدقة والمساءلة.

الموارد البشرية

تستخدم بعض أقسام الموارد البشرية الذكاء الاصطناعي لفحص السيرة الذاتية وتقييم المرشحين. تعد قابلية التفسير إحدى طرق منع التمييز في عملية التوظيف الأولية.

التأمين

يستخدم قطاع التأمين الذكاء الاصطناعي لتقييم المخاطر ومعالجة مطالبات التأمين وتحديد التسعير. يمكن أن تساعد قابلية التفسير العملاء على فهم أقساط التأمين الخاصة بهم وتبرير شركات التأمين لقراراتها.

دعم العملاء

نظرًا لأن المزيد من وظائف التسويق والمبيعات وخدمة العملاء تعتمد على روبوتات المحادثة المدعومة بالذكاء الاصطناعي، يمكن أن توفر قابلية التفسير ضمانات مهمة. فهم سبب قيام روبوت المحادثة بتقديم توصية أو قرار يبني الثقة في نظام الذكاء الاصطناعي ويساعد في تحسين وتخصيص عروضه.

التحديات والقيود التي تواجه قابلية تفسير الذكاء الاصطناعي

تأتي قابلية التفسير مع بعض التحديات والقيود.

غالبًا ما تكون هناك مفاضلة بين أداء النموذج وقابلية التفسير. تعتبر نماذج الأبسط أو نماذج الصندوق الأبيض أكثر قابلية للتفسير ولكنها قد تكون أقل دقة مقارنةً بنماذج الصندوق الأسود مثل الشبكات العصبية العميقة.

تعاني قابلية التفسير أيضًا من نقص التوحيد القياسي. يمكن للطرق المختلفة أن تقدم تفسيرات مختلفة لنفس النموذج، مما يجعل من الصعب مقارنتها والتحقق من صحتها دون أطر عمل رسمية. وغالبًا ما تكون قابلية التفسير ذاتية. ما قد يعتبر سهل الفهم بالنسبة لمستخدم واحد قد لا يكون كافياً لمستخدم آخر.

يقول بعض الخبراء إن قابلية التفسير ليست ضرورية في بعض الحالات، أو يمكن أن تؤدي إلى نتائج عكسية في حالات أخرى. إذا كان النموذج خاصًا أو ليس له تأثير كبير، أو كانت المشكلة بالفعل موضوع دراسة مقبولة، فقد تكون قابلية التفسير الأكبر زائدة عن الحاجة أو غير ضرورية. في بعض الحالات، قد تمثل زيادة قابلية التفسير في بعض الحالات مخاوف تتعلق بالسلامة، حيث أن المزيد من الشفافية قد يسمح للجهات الفاعلة السيئة باستغلال النظام أو السماح للمستخدمين بالتلاعب بالنظام بطريقة تقوض فعاليته.

حلول ذات صلة
IBM watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
IBM OpenPages

تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

استكشف OpenPages
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

1 Miller, Katharine. Should AI models be explainable? That depends. Stanford Institute for Human-Centered Artificial Intelligence. March 2021.