الذكاء الاصطناعي القابل للشرح(XAI) هو مجموعة من العمليات والأساليب التي تسمح للمستخدمين البشر بفهم النتائج والمخرجات التي أنشأتها خوارزميات التعلم الآلي.
يستخدم الذكاء الاصطناعي القابل للتفسير لوصف نماذج الذكاء الاصطناعي وتأثيرها المتوقع والتحيزات المحتملة. يساعد في توصيف دقة النموذج والإنصاف والشفافية والنتائج في صنع القرار المدعوم بالذكاء الاصطناعي. يُعد الذكاء الاصطناعي القابل للتفسير أمرًا بالغ الأهمية للمؤسسات من أجل بناء الثقة والاطمئنان عند دخول نماذج الذكاء الاصطناعي في مرحلة الإنتاج. تساعد قابلية شرح الذكاء الاصطناعي أيضًا المؤسسة على تبني نهج مسؤول لتطوير الذكاء الاصطناعي.
كلما أصبح الذكاء الاصطناعي أكثر تقدمًا، يواجه البشر تحديًا في فهم وتعقب كيفية وصول الخوارزمية إلى النتيجة. تتحول العملية الحسابية بأكملها إلى ما يشار إليه عادةً باسم "الصندوق الأسود" الذي يستحيل تفسيره. يتم إنشاء نماذج الصندوق الأسود هذه مباشرة من البيانات. ولا يمكن حتى للمهندسين أو علماء البيانات الذين ينشئون الخوارزمية فهم أو شرح ما يحدث بالضبط داخلها أو كيف وصلت خوارزمية الذكاء الاصطناعي إلى نتيجة محددة.
هناك العديد من المزايا لفهم كيف أدى نظام مدعوم بالذكاء الاصطناعي إلى ناتج محدد. يمكن أن تساعد القابلية للشرح المطورين على ضمان أن النظام يعمل كما هو متوقع، وقد تكون ضرورية لتلبية المعايير التنظيمية، أو قد تكون مهمة في السماح للمتضررين من القرار بالطعن في تلك النتيجة أو تغييرها.¹
من الضروري للمؤسسة أن يكون لديها فهم كامل لعمليات اتخاذ القرار في الذكاء الاصطناعي مع مراقبة النماذج ومساءلة الذكاء الاصطناعي، وألا تثق بها بشكل أعمى. يمكن للذكاء الاصطناعي القابل للتفسير أن يساعد البشر على فهم خوارزميات التعلم الآلي (ML) والتعلم العميق والشبكات العصبية.
غالباً ما تُعتبر نماذج التعلم الآلي (ML) صناديق سوداء يستحيل تفسيرها.² تعد الشبكات العصبية المستخدمة في التعلم العميق من أصعب الشبكات التي يفهمها الإنسان. التحيز، الذي غالبًا ما يستند إلى العرق أو الجنس أو العمر أو الموقع، كان ولا يزال خطرًا قائمًا منذ فترة طويلة في تدريب نماذج الذكاء الاصطناعي. علاوة على ذلك، يمكن أن ينحرف أداء نماذج الذكاء الاصطناعي أو يتدهور لأن بيانات الإنتاج تختلف عن بيانات التدريب. هذا يجعل من الضروري للشركات مراقبة وإدارة النماذج باستمرار لتعزيز قابلية شرح الذكاء الاصطناعي، مع قياس الأثر التجاري لاستخدام هذه الخوارزميات. يساعد الذكاء الاصطناعي القابل للتفسير أيضًا في تعزيز ثقة المستخدم النهائي، وقابلية تدقيق النموذج، والاستخدام المثمر للذكاء الاصطناعي. كما أنه يخفف من مخاطر الامتثال والمخاطر القانونية والأمنية والمتعلقة بالسمعة للذكاء الاصطناعي الإنتاجي.
الذكاء الاصطناعي القابل للشرح هو أحد المتطلبات الأساسية لتطبيق الذكاء الاصطناعي المسؤول، وهي منهجية للتطبيق واسع النطاق لطرق الذكاء الاصطناعي في المؤسسات الحقيقية مع العدالة، وقابلية شرح النموذج، والمساءلة.³ للمساعدة في تبني الذكاء الاصطناعي بمسؤولية، تحتاج المؤسسات إلى تضمين المبادئ الأخلاقية في تطبيقات الذكاء الاصطناعي وعملياته من خلال بناء أنظمة الذكاء الاصطناعي على أساس الثقة والشفافية.
باستخدام الذكاء الاصطناعي القابل للتفسير—وكذلك التعلم الآلي القابل للتفسير—تستطيع المؤسسات الوصول إلى عملية اتخاذ القرار الأساسية لتكنولوجيا الذكاء الاصطناعي، وتُمنح القدرة على إجراء التعديلات. يمكن للذكاء الاصطناعي القابل للتفسير تحسين تجربة المستخدم للمنتج أو الخدمة من خلال مساعدة المستخدم النهائي على الثقة في أن الذكاء الاصطناعي يتخذ قرارات جيدة. متى تمنح أنظمة الذكاء الاصطناعي ثقة كافية في القرار بحيث يمكن الوثوق بها، وكيف يمكن لنظام الذكاء الاصطناعي تصحيح الأخطاء التي تنشأ؟⁴
مع ازدياد تقدم الذكاء الاصطناعي، لا تزال هناك حاجة إلى فهم عمليات التعلم الآلي والتحكم فيها لضمان دقة نتائج نماذج الذكاء الاصطناعي. دعونا نلقي نظرة على الفرق بين الذكاء الاصطناعي والذكاء الاصطناعي القابل للشرح، والأساليب والتقنيات المستخدمة لتحويل الذكاء الاصطناعي إلى ذكاء اصطناعي قابل للشرح، والفرق بين تفسير وشرح عمليات الذكاء الاصطناعي.
ما هو الفرق تحديدًا بين الذكاء الاصطناعي "العادي" والذكاء الاصطناعي القابل للتفسير؟ يطبق الذكاء الاصطناعي القابل للشرح (XAI) تقنيات وأساليب محددة لضمان إمكانية تتبع وتفسير كل قرار يتم اتخاذه خلال عملية التعلم الآلي. من ناحية أخرى، غالبًا ما يتوصل الذكاء الاصطناعي إلى نتيجة باستخدام خوارزمية التعلم الآلي (ML)، لكن مهندسي أنظمة الذكاء الاصطناعي لا يفهمون تمامًا كيف وصلت الخوارزمية إلى تلك النتيجة. هذا يجعل من الصعب التحقق من الدقة ويؤدي إلى فقدان السيطرة والمساءلة وقابلية التدقيق.
يتكون إعداد تقنيات الذكاء الاصطناعي القابل للشرح من ثلاث طرق رئيسية. الدقة في التنبؤ وقابلية التتبع تلبيان متطلبات التكنولوجيا، بينما فهم القرار يلبي الاحتياجات البشرية. الذكاء الاصطناعي القابل للشرح—وخاصةً التعلم الآلي القابل للشرح—سيكون ضروريًا إذا كان للمقاتلين المستقبليين أن يفهموا ويثقوا بشكل مناسب ويديروا بفعالية جيلاً ناشئًا من الشركاء الآليين الأذكياء اصطناعيًا.⁵
تُعد الدقة عنصرًا أساسيًا في قياس مدى نجاح استخدام الذكاء الاصطناعي في التشغيل اليومي. فيمكن تحديد دقة التنبؤ من خلال إجراء عمليات محاكاة ومقارنة مخرجات الذكاء الاصطناعي القابل للشرح بالنتائج في مجموعة بيانات التدريب. التقنية الأكثر شيوعًا المستخدمة لهذا الغرض هي التفسيرات المحلية القابلة للتفسير والمستقلة عن النموذج (LIME)، والتي تشرح تنبؤات المصنفات بواسطة خوارزمية التعلم الآلي.
التتبع هو تقنية رئيسية أخرى لإنجاز الذكاء الاصطناعي القابل للشرح. يتم تحقيق ذلك، على سبيل المثال، من خلال الحد من الطريقة التي يمكن من خلالها اتخاذ القرارات ووضع نطاق أضيق لقواعد وميزات التعلم الآلي. مثال على تقنية XAI للتتبع هو DeepLIFT (ميزات التعلم العميق المهمة)، والتي تقارن تنشيط كل شبكة عصبية بخلية عصبية مرجعية وتظهر رابطًا قابلاً للتتبع بين كل خلية عصبية نشطة، بل وتظهر التبعيات بينها.
هذا هو العامل البشري. يعاني الكثير من الأشخاص من عدم الثقة في الذكاء الاصطناعي ، ومع ذلك يحتاجون إلى العمل معه بكفاءة، بل يحتاجون إلى تعلم كيفية الوثوق به. يتم تحقيق ذلك من خلال تثقيف الفريق العامل مع الذكاء الاصطناعي حتى يتمكنوا من فهم كيف ولماذا يتخذ الذكاء الاصطناعي القرارات.
قابلية التفسير هي الدرجة التي يمكن للمراقب أن يفهم بها سبب القرار. فهي تمثل معدل النجاح الذي يمكن للبشر التنبؤ به بشأن نتيجة مخرجات الذكاء الاصطناعي، في حين تتقدم قابلية الشرح خطوة إلى الأمام وتبحث في كيفية وصول الذكاء الاصطناعي إلى النتيجة.
الذكاء الاصطناعي القابل للشرح والذكاء الاصطناعي المسؤول لهما أهداف متشابهة، ولكن مناهج مختلفة. فيما يلي الاختلافات الرئيسية بين الذكاء الاصطناعي القابل للشرح والذكاء الاصطناعي المسؤول:
باستخدام الذكاء الاصطناعي القابل للشرح، يمكن للشركة استكشاف أخطاء أداء النموذج وتحسينه، مع مساعدة الأطراف المعنية على فهم سلوكيات نماذج الذكاء الاصطناعي. يُعدّ التحقق من سلوكيات النماذج من خلال تتبع رؤى النموذج حول حالة النشر والإنصاف والجودة والانحراف أمرًا ضروريًا لتوسيع نطاق الذكاء الاصطناعي.
يُمكّن التقييم المستمر للنموذج الشركة من مقارنة تنبؤات النموذج، وتحديد مخاطر النموذج، وتحسين أداء النموذج. عرض القيم الإيجابية والسلبية في سلوكيات النموذج مع البيانات المستخدمة لتوليد التفسيرات يسرع تقييمات النموذج. يمكن لمنصة البيانات والذكاء الاصطناعي أن تولد سمات ميزات لتنبؤات النماذج وتمكّن الفرق من التحقق بصريًا من سلوك النموذج باستخدام الرسوم البيانية التفاعلية والمستندات القابلة للتصدير.
بناء الثقة في الذكاء الاصطناعي الإنتاجي. نقل نماذج الذكاء الاصطناعي الخاصة بك إلى مرحلة الإنتاج بسرعة. ضمان قابلية التفسير وقابلية الشرح لنماذج الذكاء الاصطناعي. تبسيط عملية تقييم النموذج مع زيادة شفافية النموذج وإمكانية تتبعه.
مراقبة النماذج وإدارتها بشكل منهجي لتحسين نتائج الأعمال. تقييم وتحسين أداء النموذج بشكل مستمر. الضبط الدقيق لجهود تطوير النموذج على أساس التقييم المستمر.
الحفاظ على نماذج الذكاء الاصطناعي الخاصة بك قابلة للشرح والشفافية. إدارة المتطلبات التنظيمية والامتثال والمخاطر والمتطلبات الأخرى. تقليل العبء الناتج عن الفحص اليدوي والأخطاء المكلفة. الحد من مخاطر التحيز غير المقصود.
لتحقيق النتائج المرغوبة باستخدام الذكاء الاصطناعي القابل للشرح، ضع في اعتبارك ما يلي.
الإنصاف وعدم التحيز: إدارة الإنصاف ومراقبته. افحص عملية النشر بحثاً عن التحيزات المحتملة.
تخفيف انحراف النموذج: تحليل النموذج الخاص بك وتقديم توصيات بناءً على النتيجة الأكثر منطقية. التنبيه عندما تنحرف النماذج عن النتائج المرجوة.
إدارة مخاطر النماذج: تحديد مخاطر النموذج والتخفيف من حدتها. احصل على تنبيه عندما لا يعمل النموذج بشكل كافٍ. افهم ما حدث عند استمرار الانحرافات.
دورة حياة الأتمتة: بناء وتشغيل وإدارة النماذج كجزء من خدمات البيانات والذكاء الاصطناعي المتكاملة. توحيد الأدوات والعمليات على منصة واحدة لمراقبة النماذج ومشاركة النتائج. شرح تبعيات نماذج التعلم الآلي.
الاستعداد للسحابة المتعددة: نشر مشاريع الذكاء الاصطناعي عبر السحب الهجينة بما في ذلك السحب العامة والسحب الخاصة والمواقع المحلية. تعزيز الثقة والاطمئنان باستخدام الذكاء الاصطناعي القابل للشرح.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.
تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.
¹ ”Explainable AI”, The Royal Society, 28 November 2019.
² ”Explainable Artificial Intelligence”, Jaime Zornoza, 15 April 2020.
³ “ذكاء اصطناعي قابل للتفسير (XAI): المفاهيم والتصنيفات والفرص والتحديات نحو ذكاء اصطناعي مسؤول, ScienceDirect، يونيو 2020.
⁴ ”Understanding Explainable AI”, Ron Schmelzer, Forbes contributor, 23 July 2019.
⁵ ”Explainable Artificial Intelligence (XAI)”, Dr. Matt Turek, The U.S. Defense Advanced Research Projects Agency (DARPA).