تساعد القدرة على تفسير الذكاء الاصطناعي الأشخاص على فهم وشرح عمليات صنع القرار التي تدعم نماذج الذكاء الاصطناعي بشكل أفضل.
تستخدم نماذج الذكاء الاصطناعي شبكة معقدة من مدخلات البيانات والخوارزميات والمنطق وعلم البيانات وغيرها من العمليات لتحقيق رؤى. وكلما كان النموذج أكثر تعقيدًا، كلما كان من الصعب على البشر فهم الخطوات التي أدت إلى رؤيته—حتى لو كان هؤلاء البشر هم من صمموه وبنوه. النموذج القابل للتفسير هو النموذج الذي يمكن للمستخدمين فهم قراراته بسهولة.
استخدام الذكاء الاصطناعي آخذ في التوسع. أصبحت الأنظمة التي تستخدم النماذج اللغوية الكبيرة (LLMs) جزءًا روتينيًا من الحياة اليومية، بدءًا من الأجهزة المنزلية الذكية إلى الكشف عن الغش في بطاقات الائتمان إلى الاستخدام الواسع النطاق لـ ChatGPT وغيرها من أدوات الذكاء الاصطناعي التوليدي. نظرًا لأن النماذج شديدة التعقيد (بما في ذلك خوارزميات التعلم العميق والشبكات العصبية) أصبحت أكثر شيوعًا، تصبح قابلية تفسير الذكاء الاصطناعي أكثر أهمية.
بالإضافة إلى ذلك، أصبحت أنظمة الذكاء الاصطناعي وخوارزميات التعلم الآلي منتشرة بشكل متزايد في قطاع الرعاية الصحية والتمويل وغيرها من الصناعات التي تنطوي على قرارات حاسمة أو تغير حياة الناس. مع هذه المخاطر العالية، يجب أن يكون الجمهور قادرًا على الوثوق في أن النتائج عادلة وموثوقة. تعتمد هذه الثقة على فهم كيفية وصول أنظمة الذكاء الاصطناعي إلى تنبؤاتها واتخاذ قراراتها.
نماذج الذكاء الاصطناعي ذات الصندوق الأبيض تحتوي على مدخلات ومنطق يسهل رؤيته وفهمه. على سبيل المثال، فإن مخططات القرار الأساسية، والتي تظهر تدفقًا واضحًا بين كل خطوة، ليست صعبة الفهم بالنسبة للشخص العادي. نماذج الصندوق الأبيض تميل إلى استخدام أنظمة صنع قرار أكثر خطية والتي يسهل تفسيرها، ولكنها قد تؤدي إلى دقة أقل أوتطبيقات أو رؤى أقل إقناعًا.
تُعد نماذج الذكاء الاصطناعي ذات الصندوق الأسود أكثر تعقيدًا وتوفر قدرًا أقل من الشفافية فيما يتعلق بعملها الداخلي. لا يعرف المستخدم عمومًا كيف يصل النموذج إلى نتائجه. تميل هذه النماذج الأكثر تعقيدًا إلى أن تكون أكثر دقة وصحة. ولكن نظرًا لصعوبة أو استحالة فهمها، فإنها تأتي مع مخاوف بشأن موثوقيتها ونزاهتها وتحيزاتها وغيرها من القضايا الأخلاقية. إن جعل نماذج الصندوق الأسود أكثر قابلية للتفسير هي إحدى طرق بناء الثقة في استخدامها.
تركز قابلية التفسير في الذكاء الاصطناعي على فهم الأعمال الداخلية لنموذج الذكاء الاصطناعي بينما تهدف قابلية الشرح في الذكاء الاصطناعي إلى تقديم أسباب مخرجات النموذج.
تتمحور قابلية التفسير حول الشفافية، مما يسمح للمستخدمين بفهم بنية النموذج والميزات التي يستخدمها وكيفية دمجها لتقديم تنبؤات. يسهل على البشر فهم عمليات اتخاذ القرار في النموذج القابل للتفسير. تتطلب القابلية الأكبر للتفسير المزيد من الكشف عن عملياته الداخلية.
تتعلق قابلية الشرح بالتحقق، أو تقديم مبررات لمخرجات النموذج، وغالبًا ما يكون ذلك بعد أن يقوم بتوقعاته. يتم استخدام الذكاء الاصطناعي القابل للشرح (XAI) لتحديد العوامل التي أدت إلى النتائج. يمكن استخدام طرق مختلفة للشرح لتقديم النماذج بطرق تجعل عملياتها المعقدة وعلم البيانات الأساسية واضحة للإنسان باستخدام اللغة الطبيعية.
تساعد قابلية تفسير الذكاء الاصطناعي على تصحيح أخطاء النماذج، وكشف التحيزات، وضمان الامتثال للوائح، وبناء الثقة مع المستخدمين. فهي تسمح للمطورين والمستخدمين بمعرفة كيفية تأثير نماذجهم على الأشخاص والشركات وتطويرها بمسؤولية.
التفسير مهم لعدة أسباب:
في حالة عدم القدرة على التفسير، يبقى المستخدمون في الظلام. ويمكن أن يؤدي هذا الافتقار إلى المساءلة إلى تآكل ثقة الجمهور في التقنية. عندما يفهم الأطراف المعنية تمامًا كيف يتخذ النموذج قراراته، فمن المرجح أن يقبلوا مخرجاته. تسمح إمكانية تفسير النموذج بالشفافية والوضوح، مما يجعل المستخدمين يشعرون بالراحة في الاعتماد عليه في التطبيقات الواقعية مثل التشخيص الطبي أو القرارات المالية.
يمكن تضخيم التحيزات داخل بيانات التدريب بواسطة نماذج الذكاء الاصطناعي. النتائج التمييزية الناتجة تُعمِّقُ من عدم المساواة المجتمعية، ولكنها أيضًا تُعرِّضُ المؤسسات للمخاطر القانونية والمتعلقة بالسمعة. يمكن لأنظمة الذكاء الاصطناعي القابلة للتفسير أن تساعد في كشف ما إذا كان النموذج يتخذ قرارات متحيزة بناءً على السمات المحمية، مثل العرق أو العمر أو الجنس. تسمح قابلية التفسير لمطوري النماذج بتحديد الأنماط التمييزية والتخفيف من حدتها، مما يساعد على ضمان نتائج أكثر عدلًا.
يسمح التعلم الآلي القابل للتفسير لمنشئي خوارزميات التعلم الآلي ونماذج التعلم الآلي بتحديد الأخطاء وإصلاحها. لا يوجد نموذج تعلم آلي دقيق بنسبة 100% منذ البداية. من دون فهم أسباب الذكاء الاصطناعي، فإن تصحيح الأخطاء يعد عملية غير فعالة ومحفوفة بالمخاطر. من خلال فهم كيفية عمل نموذج التعلم الآلي (ML)، يمكن للمطورين وعلماء البيانات تحديد مصادر التنبؤات غير الصحيحة وتحسين الأداء. وهذه العملية بدورها تزيد من موثوقيته الشاملة وتساعد على التحسين.
بعض اللوائح التنظيمية، مثل قانون تكافؤ الفرص الائتمانية (ECOA) في الولايات المتحدة أو اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، تتطلب أن تكون القرارات التي تتخذها الأنظمة الآلية شفافة وقابلة للتفسير. ويوجد عدد متزايد من اللوائح التنظيمية الخاصة بالذكاء الاصطناعي، بما في ذلك قانون الذكاء الاصطناعي للاتحاد الأوروبي، والتي تضع معايير لتطوير الذكاء الاصطناعي واستخدامه. يمكن لنماذج الذكاء الاصطناعي القابلة للتفسير أن توفر تفسيرات واضحة لقراراتها، مما يساعد على تلبية هذه المتطلبات التنظيمية. يمكن أن تساعد القدرة على التفسير أيضًا في قضايا التدقيق والمسؤولية وحماية خصوصية البيانات.
فبدون قابلية التفسير، قد يواجه المطورون والباحثون صعوبة في ترجمة رؤى الذكاء الاصطناعي إلى نتائج قابلة للتنفيذ أو تطوير التكنولوجيا مع إجراء تغييرات. تسهّل قابلية التفسير نقل المعرفة حول أسس النموذج وقراراته بين الأطراف المعنية واستخدام معرفته لإثراء عملية تطوير نماذج أخرى.
ويحدد الباحث في جامعة ستانفورد Nigam Shah ثلاثة أنواع رئيسية من قابلية التفسير: قابلية تفسير المهندسين، وقابلية التفسير السببي، وقابلية التفسير المحفزة للثقة.1
يركز هذا النوع على كيفية وصول نماذج الذكاء الاصطناعي إلى مخرجاته. ويتضمن فهم الإجراءات الداخلية للنموذج وهو مهم للمطورين والباحثين الذين يحتاجون إلى تصحيح أخطاء النموذج أو تحسينه.
يركز هذا النوع على سبب إنتاج النموذج لمخرجاته. يتضمن تحديد العوامل التي لها التأثير الأكبر على تنبؤات النموذج وكيفية تأثير التغييرات في هذه العوامل على النتائج.
يركز هذا النوع على تقديم تفسيرات تبني الثقة في مخرجات النموذج. ويتضمن تقديم عملية اتخاذ القرار في النموذج بطريقة مفهومة وقابلة للفهم وقابلة للتطبيق من قِبل المستخدمين، حتى لو لم تكن لديهم خبرة فنية.
تؤثر العديد من الخصائص على قابلية تفسير نماذج الذكاء الاصطناعي:
تشير قابلية التفسير الجوهرية إلى النماذج القابلة للتفسير بطبيعتها، مثل مخططات القرار ونماذج الانحدار الخطي. هياكلها البسيطة سهلة الفهم. ومع ذلك، فإن قابلية التفسير اللاحقة تتضمن تطبيق أساليب التفسير على النماذج المدربة مسبقًا لشرح سلوكها. تُعد قابلية التفسير اللاحقة أفضل للنماذج الأكثر تعقيدًا أو ذات الصندوق الأسود.
تركز قابلية التفسير المحلي على شرح التنبؤات الفردية وتساعد في توضيح سبب وصول النموذج إلى نتائج معينة. تهدف قابلية التفسير العالمية إلى فهم سلوك النموذج عبر مجموعة البيانات بأكملها، وإظهار أنماطه واتجاهاته العامة.
تستخدم أساليب قابلية التفسير الخاصة بالنموذج البنية الداخلية للنموذج لتقديم تفسيرات. تعمل الأساليب الحيادية للنموذج مع أي نوع من النماذج.
يمكن إنشاء القدرة على التفسير في نماذج الذكاء الاصطناعي من خلال أساليب مختلفة.
بعض النماذج بسيطة بما يكفي للتفسير الجوهري. تعتمد هذه النماذج القابلة للتفسير بطبيعتها على هياكل مباشرة مثل مخططات القرار والأنظمة القائمة على القواعد والانحدارات الخطية. يمكن للبشر بسهولة فهم أنماط صنع القرار وعمليات النماذج الخطية.
تتطلب النماذج الأكثر تعقيدا تفسيرًا لاحقًا، حيث يتم تطبيق طرق التفسير على النماذج المدربة مسبقًا لشرح مخرجات النموذج. وتشمل بعض أساليب التفسير اللاحقة الشائعة ما يلي:
تساعد LIME في شرح تنبؤات النموذج من خلال التركيز على تنبؤ واحد في كل مرة. وتقوم بذلك من خلال إنشاء نموذج أبسط وقابل للتفسير يحاكي سلوك النموذج المعقد لهذا التنبؤ المحدد. تستخدم خاصية الإسناد لتحديد تأثير خاصية معينة (مثل الشكل أو اللون أو نقطة بيانات أخرى) على مخرجات النموذج. على سبيل المثال، تأخذ تنبؤًا محددًا ثم تولد العديد من الحالات المتشابهة عن طريق تبديل أو تعديل قيم الميزة قليلاً. من هناك، تنشئ نموذجًا أبسط وأكثر قابلية للتفسير بناءً على قيم السمات "المضطربة" هذه ونتائجها. باختصار، تقدم LIME شرحًا محليًا مبسطًا لكيفية تصرف النموذج المعقد.
SHAP هي طريقة تعاونية على غرار نظرية اللعبة لتفسير النماذج التي تأخذ في الاعتبار جميع المجموعات الممكنة للميزات وكيف تؤثر على التنبؤ. تقوم بتعيين قيمة (تسمى قيمة شابلي) لكل ميزة بناءً على مدى مساهمتها في التنبؤ في سيناريوهات مختلفة. يمكن لـ SHAP العمل مع أي نظام تعلُّم آلي. تقدم تفسيرات محلية للتنبؤات الفردية التي تقدمها خوارزميات التعلم الآلي والتفسيرات العالمية للنموذج ككل. ومع ذلك، نظرًا لتعقيدها الحسابي، يمكن أن تكون SHAP طريقة أبطأ وأكثر تكلفة.
توضح PDPs كيف تؤثر الميزة على تنبؤات النموذج، في المتوسط، عبر مجموعة البيانات. إنها تساعد في تصور العلاقة بين الميزة ومخرجات النموذج، مع الحفاظ على ثبات جميع الميزات الأخرى. هذه الطريقة مفيدة لتفسير عدد قليل من الميزات أو عندما يرغب طرف معني في التركيز على مجموعة فرعية محددة من الميزات.
توضح مخططات ICE مدى اعتماد النتيجة المتوقعة على ميزة معينة. إنها مشابهة لمخططات PDPs ولكنها تُظهر العلاقة بين الميزة ومخرجات النموذج للمثيلات الفردية، بدلاً من حساب المتوسط عبر مجموعة البيانات. أن تكمل هذه المخططات مخططات PDPs من خلال توفير رؤية أكثر تفصيلاً لسلوك النموذج—على سبيل المثال، من خلال تسليط الضوء على التباين وإظهار التفاعلات بين الميزات على مستوى المثيلات، وهي مفيدة عندما يرغب الأطراف المعنية أو الباحثون في علوم الحاسب في تحديد القيمة الخارجية أو الأنماط غير العادية في العمليات.
تُعد قابلية تفسير الذكاء الاصطناعي مهمة في أي صناعة تستخدم نماذج الذكاء الاصطناعي لاتخاذ القرارات التي تؤثر على الأفراد أو المجتمع. تتضمن بعض الصناعات التي تكون فيها قابلية تفسير الذكاء الاصطناعي ذات صلة:
يستخدم المتخصصون الطبيون الذكاء الاصطناعي في التشخيص والتوصيات العلاجية والأبحاث. يمكن أن تساعد قابلية التفسير الأطباء والمرضى على الوثوق بقرارات نماذج الذكاء الاصطناعي وفهمها وتحديد التحيز أو الأخطاء في تفكيرها.
يمكن للمتخصصين في الشؤون المالية استخدام الذكاء الاصطناعي للكشف عن الاحتيال وتقدير المخاطر وتعيين درجات الائتمان وتقديم توصيات للاستثمارات. تعد قابلية التفسير أمرًا ضروريًا للامتثال التنظيمي والتدقيق في المجالين المالي والمصرفي. ويمكن أن يساعد فهم عملية صنع القرار في النموذج لأنشطة مثل الموافقات على القروض وإدارة المخاطر في منع النتائج المتحيزة.
يمكن لقطاع العدالة الجنائية استخدام الذكاء الاصطناعي لتحليل مسارح الجريمة، والحمض النووي، والأدلة الجنائية، وأنماط الجريمة المحلية أو الوطنية. قد يلجأ المستخدمون أيضًا إلى الذكاء الاصطناعي لتقديم توصيات بإصدار الأحكام وتنفيذ العمليات القضائية الروتينية الأخرى. تعد قابلية التفسير ضرورية لضمان العدالة والدقة والمساءلة.
تستخدم بعض أقسام الموارد البشرية الذكاء الاصطناعي لفحص السيرة الذاتية وتقييم المرشحين. تعد قابلية التفسير إحدى طرق منع التمييز في عملية التوظيف الأولية.
يستخدم قطاع التأمين الذكاء الاصطناعي لتقييم المخاطر ومعالجة مطالبات التأمين وتحديد التسعير. يمكن أن تساعد قابلية التفسير العملاء على فهم أقساط التأمين الخاصة بهم وتبرير شركات التأمين لقراراتها.
نظرًا لأن المزيد من وظائف التسويق والمبيعات وخدمة العملاء تعتمد على روبوتات المحادثة المدعومة بالذكاء الاصطناعي، يمكن أن توفر قابلية التفسير ضمانات مهمة. فهم سبب قيام روبوت المحادثة بتقديم توصية أو قرار يبني الثقة في نظام الذكاء الاصطناعي ويساعد في تحسين وتخصيص عروضه.
تأتي قابلية التفسير مع بعض التحديات والقيود.
غالبًا ما تكون هناك مفاضلة بين أداء النموذج وقابلية التفسير. تعتبر نماذج الأبسط أو نماذج الصندوق الأبيض أكثر قابلية للتفسير ولكنها قد تكون أقل دقة مقارنةً بنماذج الصندوق الأسود مثل الشبكات العصبية العميقة.
تعاني قابلية التفسير أيضًا من نقص التوحيد القياسي. يمكن للطرق المختلفة أن تقدم تفسيرات مختلفة لنفس النموذج، مما يجعل من الصعب مقارنتها والتحقق من صحتها دون أطر عمل رسمية. وغالبًا ما تكون قابلية التفسير ذاتية. ما قد يعتبر سهل الفهم بالنسبة لمستخدم واحد قد لا يكون كافياً لمستخدم آخر.
يقول بعض الخبراء إن قابلية التفسير ليست ضرورية في بعض الحالات، أو يمكن أن تؤدي إلى نتائج عكسية في حالات أخرى. إذا كان النموذج خاصًا أو ليس له تأثير كبير، أو كانت المشكلة بالفعل موضوع دراسة مقبولة، فقد تكون قابلية التفسير الأكبر زائدة عن الحاجة أو غير ضرورية. في بعض الحالات، قد تمثل زيادة قابلية التفسير في بعض الحالات مخاوف تتعلق بالسلامة، حيث أن المزيد من الشفافية قد يسمح للجهات الفاعلة السيئة باستغلال النظام أو السماح للمستخدمين بالتلاعب بالنظام بطريقة تقوض فعاليته.
تعرّف على كيفية تأثير قانون الذكاء الاصطناعي للاتحاد الأوروبي على الأعمال التجارية، وكيفية الاستعداد، وكيف يمكنك التخفيف من المخاطر، وكيفية تحقيق التوازن بين اللوائح التنظيمية والابتكار.
تعرّف على التحديات الجديدة للذكاء الاصطناعي التوليدي، والحاجة إلى حوكمة نماذج الذكاء الاصطناعي ونماذج التعلم الآلي وخطوات بناء إطار عمل موثوق وشفاف وقابل للتفسير للذكاء الاصطناعي.
اقرأ عن تعزيز الممارسات الأخلاقية والمتوافقة مع مجموعة من منتجات الذكاء الاصطناعي لنماذج الذكاء الاصطناعي التوليدي.
اكتسب فهمًا أعمق لكيفية ضمان الإنصاف، وإدارة الانجراف، والحفاظ على الجودة، وتعزيز قابلية التفسير باستخدام watsonx.governance™.
لقد استطلعنا آراء 2000 مجموعة حول مبادرات الذكاء الاصطناعي لديها لمعرفة ما ينجح وما لا ينجح وكيف يمكنك المضي قدمًا.
تعرّف على كيفية اختيار نموذج أساس الذكاء الاصطناعي الأكثر ملاءمة لحالة الاستخدام الخاصة بك.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.
تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.
1 Miller, Katharine. Should AI models be explainable? That depends. Stanford Institute for Human-Centered Artificial Intelligence. March 2021.