ما المقصود بالذكاء الاصطناعي القابل للتفسير؟

ما المقصود بالذكاء الاصطناعي القابل للتفسير؟

الذكاء الاصطناعي القابل للشرح(XAI) هو مجموعة من العمليات والأساليب التي تسمح للمستخدمين البشر بفهم النتائج والمخرجات التي أنشأتها خوارزميات التعلم الآلي.

يستخدم الذكاء الاصطناعي القابل للتفسير لوصف نماذج الذكاء الاصطناعي وتأثيرها المتوقع والتحيزات المحتملة. يساعد في توصيف دقة النموذج والإنصاف والشفافية والنتائج في صنع القرار المدعوم بالذكاء الاصطناعي. يُعد الذكاء الاصطناعي القابل للتفسير أمرًا بالغ الأهمية للمؤسسات من أجل بناء الثقة والاطمئنان عند دخول نماذج الذكاء الاصطناعي في مرحلة الإنتاج. تساعد قابلية شرح الذكاء الاصطناعي أيضًا المؤسسة على تبني نهج مسؤول لتطوير الذكاء الاصطناعي.

كلما أصبح الذكاء الاصطناعي أكثر تقدمًا، يواجه البشر تحديًا في فهم وتعقب كيفية وصول الخوارزمية إلى النتيجة. تتحول العملية الحسابية بأكملها إلى ما يشار إليه عادةً باسم "الصندوق الأسود" الذي يستحيل تفسيره. يتم إنشاء نماذج الصندوق الأسود هذه مباشرة من البيانات. ولا يمكن حتى للمهندسين أو علماء البيانات الذين ينشئون الخوارزمية فهم أو شرح ما يحدث بالضبط داخلها أو كيف وصلت خوارزمية الذكاء الاصطناعي إلى نتيجة محددة.

هناك العديد من المزايا لفهم كيف أدى نظام مدعوم بالذكاء الاصطناعي إلى ناتج محدد. يمكن أن تساعد القابلية للشرح المطورين على ضمان أن النظام يعمل كما هو متوقع، وقد تكون ضرورية لتلبية المعايير التنظيمية، أو قد تكون مهمة في السماح للمتضررين من القرار بالطعن في تلك النتيجة أو تغييرها.¹

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

أهمية الذكاء الاصطناعي القابل للتفسير

من الضروري للمؤسسة أن يكون لديها فهم كامل لعمليات اتخاذ القرار في الذكاء الاصطناعي مع مراقبة النماذج ومساءلة الذكاء الاصطناعي، وألا تثق بها بشكل أعمى. يمكن للذكاء الاصطناعي القابل للتفسير أن يساعد البشر على فهم خوارزميات التعلم الآلي (ML) والتعلم العميق والشبكات العصبية.

غالباً ما تُعتبر نماذج التعلم الآلي (ML) صناديق سوداء يستحيل تفسيرها.² تعد الشبكات العصبية المستخدمة في التعلم العميق من أصعب الشبكات التي يفهمها الإنسان. التحيز، الذي غالبًا ما يستند إلى العرق أو الجنس أو العمر أو الموقع، كان ولا يزال خطرًا قائمًا منذ فترة طويلة في تدريب نماذج الذكاء الاصطناعي. علاوة على ذلك، يمكن أن ينحرف أداء نماذج الذكاء الاصطناعي أو يتدهور لأن بيانات الإنتاج تختلف عن بيانات التدريب. هذا يجعل من الضروري للشركات مراقبة وإدارة النماذج باستمرار لتعزيز قابلية شرح الذكاء الاصطناعي، مع قياس الأثر التجاري لاستخدام هذه الخوارزميات. يساعد الذكاء الاصطناعي القابل للتفسير أيضًا في تعزيز ثقة المستخدم النهائي، وقابلية تدقيق النموذج، والاستخدام المثمر للذكاء الاصطناعي. كما أنه يخفف من مخاطر الامتثال والمخاطر القانونية والأمنية والمتعلقة بالسمعة للذكاء الاصطناعي الإنتاجي.

الذكاء الاصطناعي القابل للشرح هو أحد المتطلبات الأساسية لتطبيق الذكاء الاصطناعي المسؤول، وهي منهجية للتطبيق واسع النطاق لطرق الذكاء الاصطناعي في المؤسسات الحقيقية مع العدالة، وقابلية شرح النموذج، والمساءلة.³ للمساعدة في تبني الذكاء الاصطناعي بمسؤولية، تحتاج المؤسسات إلى تضمين المبادئ الأخلاقية في تطبيقات الذكاء الاصطناعي وعملياته من خلال بناء أنظمة الذكاء الاصطناعي على أساس الثقة والشفافية.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

كيفية عمل الذكاء الاصطناعي القابل للتفسير

باستخدام الذكاء الاصطناعي القابل للتفسير—وكذلك التعلم الآلي القابل للتفسير—تستطيع المؤسسات الوصول إلى عملية اتخاذ القرار الأساسية لتكنولوجيا الذكاء الاصطناعي، وتُمنح القدرة على إجراء التعديلات. يمكن للذكاء الاصطناعي القابل للتفسير تحسين تجربة المستخدم للمنتج أو الخدمة من خلال مساعدة المستخدم النهائي على الثقة في أن الذكاء الاصطناعي يتخذ قرارات جيدة. متى تمنح أنظمة الذكاء الاصطناعي ثقة كافية في القرار بحيث يمكن الوثوق بها، وكيف يمكن لنظام الذكاء الاصطناعي تصحيح الأخطاء التي تنشأ؟⁴

مع ازدياد تقدم الذكاء الاصطناعي، لا تزال هناك حاجة إلى فهم عمليات التعلم الآلي والتحكم فيها لضمان دقة نتائج نماذج الذكاء الاصطناعي. دعونا نلقي نظرة على الفرق بين الذكاء الاصطناعي والذكاء الاصطناعي القابل للشرح، والأساليب والتقنيات المستخدمة لتحويل الذكاء الاصطناعي إلى ذكاء اصطناعي قابل للشرح، والفرق بين تفسير وشرح عمليات الذكاء الاصطناعي.

مقارنة الذكاء الاصطناعي والذكاء الاصطناعي القابل للشرح (XAI)

ما هو الفرق تحديدًا بين الذكاء الاصطناعي "العادي" والذكاء الاصطناعي القابل للتفسير؟ يطبق الذكاء الاصطناعي القابل للشرح (XAI) تقنيات وأساليب محددة لضمان إمكانية تتبع وتفسير كل قرار يتم اتخاذه خلال عملية التعلم الآلي. من ناحية أخرى، غالبًا ما يتوصل الذكاء الاصطناعي إلى نتيجة باستخدام خوارزمية التعلم الآلي (ML)، لكن مهندسي أنظمة الذكاء الاصطناعي لا يفهمون تمامًا كيف وصلت الخوارزمية إلى تلك النتيجة. هذا يجعل من الصعب التحقق من الدقة ويؤدي إلى فقدان السيطرة والمساءلة وقابلية التدقيق.

تقنيات الذكاء الاصطناعي القابل للتفسير

يتكون إعداد تقنيات الذكاء الاصطناعي القابل للشرح من ثلاث طرق رئيسية. الدقة في التنبؤ وقابلية التتبع تلبيان متطلبات التكنولوجيا، بينما فهم القرار يلبي الاحتياجات البشرية. الذكاء الاصطناعي القابل للشرح—وخاصةً التعلم الآلي القابل للشرح—سيكون ضروريًا إذا كان للمقاتلين المستقبليين أن يفهموا ويثقوا بشكل مناسب ويديروا بفعالية جيلاً ناشئًا من الشركاء الآليين الأذكياء اصطناعيًا.⁵

دقة التنبؤ

تُعد الدقة عنصرًا أساسيًا في قياس مدى نجاح استخدام الذكاء الاصطناعي في التشغيل اليومي. فيمكن تحديد دقة التنبؤ من خلال إجراء عمليات محاكاة ومقارنة مخرجات الذكاء الاصطناعي القابل للشرح بالنتائج في مجموعة بيانات التدريب. التقنية الأكثر شيوعًا المستخدمة لهذا الغرض هي التفسيرات المحلية القابلة للتفسير والمستقلة عن النموذج (LIME)، والتي تشرح تنبؤات المصنفات بواسطة خوارزمية التعلم الآلي.

إمكانية التتبع

التتبع هو تقنية رئيسية أخرى لإنجاز الذكاء الاصطناعي القابل للشرح. يتم تحقيق ذلك، على سبيل المثال، من خلال الحد من الطريقة التي يمكن من خلالها اتخاذ القرارات ووضع نطاق أضيق لقواعد وميزات التعلم الآلي. مثال على تقنية XAI للتتبع هو DeepLIFT (ميزات التعلم العميق المهمة)، والتي تقارن تنشيط كل شبكة عصبية بخلية عصبية مرجعية وتظهر رابطًا قابلاً للتتبع بين كل خلية عصبية نشطة، بل وتظهر التبعيات بينها.

فهم القرار

هذا هو العامل البشري. يعاني الكثير من الأشخاص من عدم الثقة في الذكاء الاصطناعي ، ومع ذلك يحتاجون إلى العمل معه بكفاءة، بل يحتاجون إلى تعلم كيفية الوثوق به. يتم تحقيق ذلك من خلال تثقيف الفريق العامل مع الذكاء الاصطناعي حتى يتمكنوا من فهم كيف ولماذا يتخذ الذكاء الاصطناعي القرارات.

قابلية الشرح مقابل قابلية التفسير في الذكاء الاصطناعي

قابلية التفسير هي الدرجة التي يمكن للمراقب أن يفهم بها سبب القرار. فهي تمثل معدل النجاح الذي يمكن للبشر التنبؤ به بشأن نتيجة مخرجات الذكاء الاصطناعي، في حين تتقدم قابلية الشرح خطوة إلى الأمام وتبحث في كيفية وصول الذكاء الاصطناعي إلى النتيجة.

كيف يرتبط الذكاء الاصطناعي القابل للشرح بالذكاء الاصطناعي المسؤول؟

الذكاء الاصطناعي القابل للشرح والذكاء الاصطناعي المسؤول لهما أهداف متشابهة، ولكن مناهج مختلفة. فيما يلي الاختلافات الرئيسية بين الذكاء الاصطناعي القابل للشرح والذكاء الاصطناعي المسؤول:

  • الذكاء الاصطناعي القابل للشرح ينظر إلى نتائج الذكاء الاصطناعي بعد حسابها.
  • الذكاء الاصطناعي المسؤول ينظر إلى الذكاء الاصطناعي خلال مراحل التخطيط لجعل خوارزمية الذكاء الاصطناعي مسؤولة قبل حساب النتائج.
  • يمكن للذكاء الاصطناعي القابل للشرح والمسؤول أن يعملا معًا لإنشاء ذكاء اصطناعي أفضل.

التقييم المستمر للنموذج

باستخدام الذكاء الاصطناعي القابل للشرح، يمكن للشركة استكشاف أخطاء أداء النموذج وتحسينه، مع مساعدة الأطراف المعنية على فهم سلوكيات نماذج الذكاء الاصطناعي. يُعدّ التحقق من سلوكيات النماذج من خلال تتبع رؤى النموذج حول حالة النشر والإنصاف والجودة والانحراف أمرًا ضروريًا لتوسيع نطاق الذكاء الاصطناعي.

يُمكّن التقييم المستمر للنموذج الشركة من مقارنة تنبؤات النموذج، وتحديد مخاطر النموذج، وتحسين أداء النموذج. عرض القيم الإيجابية والسلبية في سلوكيات النموذج مع البيانات المستخدمة لتوليد التفسيرات يسرع تقييمات النموذج. يمكن لمنصة البيانات والذكاء الاصطناعي أن تولد سمات ميزات لتنبؤات النماذج وتمكّن الفرق من التحقق بصريًا من سلوك النموذج باستخدام الرسوم البيانية التفاعلية والمستندات القابلة للتصدير.

فوائد الذكاء الاصطناعي القابل للشرح

تفعيل الذكاء الاصطناعي بثقة

بناء الثقة في الذكاء الاصطناعي الإنتاجي. نقل نماذج الذكاء الاصطناعي الخاصة بك إلى مرحلة الإنتاج بسرعة. ضمان قابلية التفسير وقابلية الشرح لنماذج الذكاء الاصطناعي. تبسيط عملية تقييم النموذج مع زيادة شفافية النموذج وإمكانية تتبعه.

تسريع الوقت للحصول على نتائج الذكاء الاصطناعي

مراقبة النماذج وإدارتها بشكل منهجي لتحسين نتائج الأعمال. تقييم وتحسين أداء النموذج بشكل مستمر. الضبط الدقيق لجهود تطوير النموذج على أساس التقييم المستمر.

التخفيف من مخاطر وتكلفة حوكمة النموذج

الحفاظ على نماذج الذكاء الاصطناعي الخاصة بك قابلة للشرح والشفافية. إدارة المتطلبات التنظيمية والامتثال والمخاطر والمتطلبات الأخرى. تقليل العبء الناتج عن الفحص اليدوي والأخطاء المكلفة. الحد من مخاطر التحيز غير المقصود.

خمسة اعتبارات للذكاء الاصطناعي القابل للشرح

لتحقيق النتائج المرغوبة باستخدام الذكاء الاصطناعي القابل للشرح، ضع في اعتبارك ما يلي.

الإنصاف وعدم التحيز: إدارة الإنصاف ومراقبته. افحص عملية النشر بحثاً عن التحيزات المحتملة.

تخفيف انحراف النموذج: تحليل النموذج الخاص بك وتقديم توصيات بناءً على النتيجة الأكثر منطقية. التنبيه عندما تنحرف النماذج عن النتائج المرجوة.

إدارة مخاطر النماذج: تحديد مخاطر النموذج والتخفيف من حدتها. احصل على تنبيه عندما لا يعمل النموذج بشكل كافٍ. افهم ما حدث عند استمرار الانحرافات.

دورة حياة الأتمتة: بناء وتشغيل وإدارة النماذج كجزء من خدمات البيانات والذكاء الاصطناعي المتكاملة. توحيد الأدوات والعمليات على منصة واحدة لمراقبة النماذج ومشاركة النتائج. شرح تبعيات نماذج التعلم الآلي.

الاستعداد للسحابة المتعددة: نشر مشاريع الذكاء الاصطناعي عبر السحب الهجينة بما في ذلك السحب العامة والسحب الخاصة والمواقع المحلية. تعزيز الثقة والاطمئنان باستخدام الذكاء الاصطناعي القابل للشرح.

حالات استخدام الذكاء الاصطناعي القابل للشرح

  • الرعاية الصحية: تسريع عمليات التشخيص وتحليل الصور وتحسين الموارد والتشخيص الطبي. تحسين الشفافية وإمكانية التتبع في عملية صنع القرار لرعاية المرضى. تبسيط عملية الموافقة على الأدوية باستخدام الذكاء الاصطناعي القابل للشرح.
  • الخدمات المالية: تحسين تجربة العملاء من خلال عملية شفافة للموافقة على القروض والائتمان. تسريع تقييمات مخاطر الائتمان، وإدارة الثروات، ومخاطر الجرائم المالية. تسريع حل الشكاوى والمشكلات المحتملة. زيادة الثقة في التسعير وتوصيات المنتجات والخدمات الاستثمارية.
  • العدالة الجنائية: تحسين عمليات التنبؤ والتقييم. تسريع القرارات باستخدام الذكاء الاصطناعي القابل للتفسير في تحليل الحمض النووي، وتحليل تعداد السجون، والتنبؤ بالجريمة. كشف التحيزات المحتملة في بيانات التدريب والخوارزميات.
حلول ذات صلة
IBM watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
IBM OpenPages

تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

استكشف OpenPages
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

¹ ”Explainable AI”, The Royal Society, 28 November 2019.

² ”Explainable Artificial Intelligence”, Jaime Zornoza, 15 April 2020.

³ “ذكاء اصطناعي قابل للتفسير (XAI): المفاهيم والتصنيفات والفرص والتحديات نحو ذكاء اصطناعي مسؤول, ScienceDirect، يونيو 2020. 

⁴ ”Understanding Explainable AI”, Ron Schmelzer, Forbes contributor, 23 July 2019.

⁵ ”Explainable Artificial Intelligence (XAI)”, Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA).