اقرأ كيف يفيد الذكاء الاصطناعي القابل للشرح في إنتاج الذكاء الاصطناعي

ما هو الذكاء الاصطناعي القابل للشرح؟

الذكاء الاصطناعي القابل للشرح (XAI) عبارة عن مجموعة من العمليات والأساليب التي تسمح للمستخدمين البشريين بفهم النتائج والمخرجات التي تم إنشاؤها بواسطة خوارزميات التعلم الآلي والثقة فيها. يستخدم الذكاء الاصطناعي القابل للشرح لوصف نموذج الذكاء الاصطناعي وتأثيره المتوقع والانحيازات المحتملة. يساعد في تميز دقة النموذج والنزاهة والشفافية والنتائج في صنع القرار المدعوم بالذكاء الاصطناعي. يُعد الذكاء الاصطناعي القابل للشرح أمرًا ضروريًا للمؤسسة في بناء الثقة والدقة عند وضع نماذج الذكاء الاصطناعي في الإنتاج. تساعد قابلية شرح الذكاء الاصطناعي أيضًا المؤسسة على تبني نهج مسؤول لتطوير الذكاء الاصطناعي.

عندما يصبح الذكاء الاصطناعي أكثر تقدمًا، يواجه البشر تحديًا لفهم كيفية وصول الخوارزمية إلى نتيجة وإعادة تتبعها. يتم تحويل عملية الحساب برمتها إلى ما يشار إليه عادة باسم "الصندوق الأسود" الذي يستحيل تفسيره. يتم إنشاء نماذج الصندوق الأسود هذه مباشرة من البيانات. ولا يمكن للمهندسين أو علماء البيانات الذين قاموا بتكوين الخوارزمية فهم أو شرح ما يحدث بالضبط داخلهم أو كيفية وصول خوارزمية الذكاء الاصطناعي إلى نتيجة محددة.

هناك العديد من المزايا لفهم كيف أدى النظام الذي يدعم الذكاء الاصطناعي إلى مخرجات خاصة. يمكن أن تساعد قابلية الشرح المطورين على التأكد من أن النظام يعمل كما هو متوقع، وقد يكون من الضروري تلبية المعايير التنظيمية، أو قد يكون مهمًا في السماح للمتأثرين من القرار بتحدي هذه النتيجة أو تغييرها.¹

محترف يعمل على الحاسب المتنقل

ما أهمية الذكاء الاصطناعي القابل للشرح؟

إنه لأمر بالغ الأهمية أن يكون لدى المؤسسة فهم كامل لعمليات اتخاذ القرار بواسطة الذكاء الاصطناعي مع مراقبة النموذج ومسائلة الذكاء الاصطناعي وعدم الثقة بهم بشكل أعمى. يمكن أن يساعد الذكاء الاصطناعي القابل للشرح البشر على فهم وشرح خوارزميات التعلم الآلي (ML) والتعلم العميق والشبكات العصبية.

غالبًا ما يُنظر إلى نماذج التعلم الآلي على أنها صناديق سوداء يستحيل تفسيرها.² وتعد الشبكات العصبية المستخدمة في التعلم العميق من أكثر الشبكات التي يصعب على البشر فهمها. الانحياز، الذي غالبًا ما يعتمد على العرق أو الجنس أو العمر أو المكان، كان يمثل خطرًا طويل الأمد في تدريب نماذج الذكاء الاصطناعي. علاوة على ذلك، يمكن أن ينحرف أداء نموذج الذكاء الاصطناعي أو يتراجع لأن بيانات الإنتاج تختلف عن بيانات التدريب. وهذا يجعل قيام الشركة بمراقبة النماذج وإدارتها بشكل مستمر أمر بالغ الأهمية لتعزيز قابلية شرح الذكاء الاصطناعي أثناء قياس تأثير استخدام مثل هذه الخوارزميات على اللأعمال. يساعد الذكاء الاصطناعي القابل للشرح أيضًا على تعزيز ثقة المستخدم النهائي وقابلية تدقيق النموذج والاستخدام المثمر للذكاء الاصطناعي. كما أنه يخفف من المخاطر التوافقية والقانونية والأمنية والمخاطر المتعلقة بالسمعة الخاصة بإنتاج الذكاء الاصطناعي.

يُعد الذكاء الاصطناعي القابل للشرح أحد المتطلبات الرئيسية لتطبيق الذكاء الاصطناعي المسؤول، وهو منهجية للتنفيذ الواسع النطاق لأساليب الذكاء الاصطناعي في مؤسسات حقيقية تتسم بالنزاهة وإمكانية شرح النموذج والمسئولية.³ وللمساعدة في تبني الذكاء الاصطناعي بشكل مسؤول، تحتاج المؤسسات إلى تضمين المبادئ الأخلاقية في تطبيقات وعمليات الذكاء الاصطناعي من خلال بناء أنظمة الذكاء الاصطناعي القائمة على الثقة والشفافية.

شخص ينظر إلى الناس في اجتماع فيديو على حاسب متنقل

تقييم النموذج المستمر

باستخدام الذكاء الاصطناعي القابل للشرح، يمكن للشركة استكشاف أخطاء أداء النموذج وإصلاحها وتحسينها مع مساعدة أصحاب المصالح على فهم سلوكيات نماذج الذكاء الاصطناعي. يعد التحقيق في تصرفات النموذج من خلال تتبع رؤى النموذج حول حالة عملية النشر والنزاهة والجودة والانحراف أمرًا ضروريًا لتوسيع نطاق الذكاء الاصطناعي. يُمكِّن التقييم المستمر للنموذج الأعمال من مقارنة تنبؤات النموذج، وتحديد مخاطره وتحسين أداءه. عرض القيم الإيجابية والسلبية في سلوكيات تصرفات النموذج مع البيانات المستخدمة لتكوين تقييمات نماذج سرعات الشرح. يمكن لمنصة البيانات والذكاء الاصطناعي تكوين خاصية الاسنادات لتنبؤات النموذج وتمكين الفرق للتحقيق بصريًا في تصرف النموذج باستخدام المخططات التفاعلية والوثائق القابلة للتصدير.

محترف يعمل على الحاسب المتنقل

قيمة الذكاء الاصطناعي القابل للشرح

من احدى دراسات Forrester التي تغطي الذكاء الاصطناعي القابل للشرح ومراقبة النماذج على IBM Cloud Pak for Data

مزايا الذكاء الاصطناعي القابل للشرح

تشغيل الذكاء الاصطناعي بثقة ودقة

بناء الثقة في إنتاج الذكاء الاصطناعي. قم بإحضار نماذج الذكاء الاصطناعي الخاصة بك بسرعة إلى الإنتاج. ضمان قابلية تفسير وشرح نماذج الذكاء الاصطناعي. تبسيط عملية تقييم النموذج مع زيادة شفافية النموذج وإمكانية تتبعه.

سرعة الوقت لنتائج الذكاء الاصطناعي

مراقبة وإدارة النماذج بشكل منهجي لتحسين نتائج الأعمال. تقييم وتحسين أداء النموذج باستمرار. ضبط جهود تطوير النموذج بناءً على التقييم المستمر.

التخفيف من مخاطر وتكلفة نموذج الحوكمة

المحافظة على نماذج الذكاء الاصطناعي الخاصة بك قابلة للشرح والشفافية. إدارة المتطلبات التنظيمية والتوافق والمخاطر والمتطلبات الأخرى. تقليل النفقات العامة للفحص اليدوي والأخطاء المكلفة. التخفيف من مخاطر الانحياز الغير متعمد.

نهج IBM للذكاء الاصطناعي القابل للشرح

لأكثر من 100 عام، سعت IBM باستمرار للابتكار القادر على جلب الفوائد للجميع وليس فقط لعدد قليل. يتم تطبيق هذه الفلسفة أيضًا على الذكاء الاصطناعي: ونحن نسعى الى خلق وتقديم تكنولوجيا جديرة بالثقة قادرة على تعزيز عملية صنع القرار البشري وليس استبداله.

في حين أن الذكاء الاصطناعي يحمل وعدًا بتقديم رؤى وأنماط قيمة عبر العديد من التطبيقات، فإن الاعتماد الواسع لأنظمة الذكاء الاصطناعي سيعتمد بشكل كبير على قدرة الأشخاص على الوثوق بمخرجات الذكاء الاصطناعي. تعتمد الثقة البشرية في التكنولوجيا على فهمنا لكيفية عملها وتقييمنا لسلامتها وموثوقيتها. وهذا يجعل الذكاء الاصطناعي القابل للشرح أمرًا بالغ الأهمية. يتمثل نهج IBM في الذكاء الاصطناعي القابل للشرح في جعل الذكاء الاصطناعي موثوقًا وعادلاً، ولجعله قابلاً للمحاسبة، وللمساعدة في ضمان عدم تسببه في أي ضرر.

في صميم ابتكاراتنا، تقوم IBM Research بتطوير مناهج متنوعة لكيفية تحقيق النزاهة والمتانة وقابلية الشرح والمساءلة ومواءمة القيمة، وكيفية تكاملها طوال دورة حياة تطبيق الذكاء الاصطناعي بالكامل. يتم دمج أطر عمل وأدوات الذكاء الاصطناعي القابل للشرح بواسطة IBM Research في بيئات تشغيل IBM Cloud Pak for Data بحيث يمكن للشركات الاستفادة من أحدث تقنيات الذكاء الاصطناعي لدينا بطريقة محكومة وآمنة وقابلة للتطوير.

شخص ينظر إلى التليفون المحمول وهو يقف أمام نافذة المكتب

خمسة اعتبارات للذكاء الاصطناعي القابل للشرح

خمسة اعتبارات للذكاء الاصطناعي القابل للشرح

لتحقيق النتائج المرجوة باستخدام الذكاء الاصطناعي القابل للشرح، ضع في اعتبارك ما يلي.

النزاهة وعدم الانحياز: إدارة ومراقبة النزاهة. المسح الضوئي لعميلة النشر الخاصة بك للكشف عن الانحيازات المحتملة. 

نموذج تخفيف الانحراف: تحليل النموذج الخاص بك وتقديم توصيات بناءً على النتيجة الأكثر منطقية. التنبيه عندما تنحرف النماذج عن النتائج المقصودة.

إدارة نموذج المخاطر: تحديد مخاطر النموذج والتخفيف منها. احصل على تنبيه عندما لا يعمل النموذج بشكل كافٍ. افهم ما يحدث عندما تستمر الانحرافات.

التشغيل الآلي لدورة الحياة: إنشاء النماذج وتشغيلها وإدارتها كجزء من خدمات البيانات والذكاء الاصطناعي المتكاملة. توحيد الأدوات والعمليات في بيئة التشغيل لمراقبة النماذج ومشاركة النتائج. شرح تبعيات نماذج التعلم الآلي.

جاهزية تعدد البيئات السحابية: نشر مشاريع الذكاء الاصطناعي عبر البيئات السحابية المختلطة بما في ذلك البيئات السحابية العامة والخاصة والمحلية. عزز الثقة مع الذكاء الاصطناعي القابل للشرح.

إغلاق المبنى الزجاجي الحديث

تحسين إمكانية شرح الذكاء الاصطناعي باستخدام IBM Cloud Pak for Data

تتيح بيئة تشغيل IBM Cloud Pak® for Data خدمات البيانات والذكاء الاصطناعي في بيئة موحدة بحيث يمكن للشركة تقييم تأثير وعلاقات البيانات والنماذج لتحسين الذكاء الاصطناعي القابل للشرح. كما أنه يساعد الشركة على اكتساب رؤى نموذجية حول عمليات النشر والنزاهة والجودة والمخاطر. ويساعد الحل في شرح معاملات الذكاء الاصطناعي والنماذج الفئوية ونماذج الصور ونماذج النصوص غير المهيكلة باستخدام أدوات مثل التفسيرات المحايدة للنماذج المحلية القابلة للتفسير (LIME). إن جعل الذكاء الاصطناعي قابلاً للشرح والشفافية من خلال التشغيل الآلي لدورة حياة الذكاء الاصطناعي على أسلوب بناء المعلومات الحديث أمر حيوي لنجاح الذكاء الاصطناعي في الإنتاج.

تعمق أكثر في الذكاء الاصطناعي القابل للشرح

كيف يعمل الذكاء الاصطناعي القابل للشرح؟

باستخدام الذكاء الاصطناعي القابل للشرح – بالإضافة إلى التعلم الآلي القابل للتفسير – يمكن للمؤسسات الوصول إلى عملية صنع القرار الأساسية لتكنولوجيا الذكاء الاصطناعي وتمكينها من إجراء التعديلات. يمكن للذكاء الاصطناعي القابل للشرح تحسين تجربة المستخدم لمنتج أو خدمة من خلال مساعدة المستخدم النهائي على الثقة في أن الذكاء الاصطناعي يتخذ قرارات جيدة. متى تمنح أنظمة الذكاء الاصطناعي الثقة الكافية في القرار بحيث يمكنك الوثوق به، وكيف يمكن لنظام الذكاء الاصطناعي تصحيح الأخطاء التي تظهر؟⁴

ونظرًا لأن الذكاء الاصطناعي أصبح أكثر تقدمًا، لا تزال عمليات التعلم الآلي بحاجة إلى الفهم والتحكم لضمان دقة نتائج نموذج الذكاء الاصطناعي. ولننظر إلى الفرق بين الذكاء الاصطناعي والذكاء الاصطناعي القابل للشرح، والأساليب والتقنيات المستخدمة لتحويل الذكاء الاصطناعي إلى الذكاء الاصطناعي القابل للشرح، والفرق بين تفسير عمليات الذكاء الاصطناعي وشرحها.

مقارنة بين الذكاء الاصطناعي والذكاء الاصطناعي القابل للشرح

ما الفرق بالضبط بين الذكاء الاصطناعي "العادي" والذكاء الاصطناعي القابل للشرح؟ ينفذ الذكاء الاصطناعي القابل للشرح تقنيات وطرق محددة لضمان إمكانية تتبع وشرح كل قرار يتم اتخاذه أثناء عملية التعلم الآلي. من ناحية أخرى، غالبًا ما يصل الذكاء الاصطناعي إلى نتيجة باستخدام خوارزمية التعلم الآلي، لكن مهندسي أنظمة الذكاء الاصطناعي لا يفهمون تمامًا كيف وصلت الخوارزمية إلى هذه النتيجة. وهذا يجعل من الصعب التحقق من الدقة ويؤدي إلى فقدان السيطرة والمسئولية وقابلية التدقيق.

تقنيات الذكاء الاصطناعي القابل للشرح

يتكون إعداد تقنيات الذكاء الاصطناعي القابل للشرح من ثلاث طرق رئيسية. تعالج دقة التنبؤ وإمكانية التتبع متطلبات التكنولوجيا بينما يعالج فهم القرار الاحتياجات البشرية. سيكون الذكاء الاصطناعي القابل للشرح - وخاصة التعلم الآلي القابل للتفسير - ضروريًا إذا كان على المحاربين المستقبليين أن يفهموا ويثقوا بشكل مناسب ويديروا بشكل فعال جيلًا ناشئًا من شركاء الآلة ذوي الذكاء الاصطناعي.⁵

دقة التنبؤ
الدقة هي مكون أساسي لمدى نجاح استخدام الذكاء الاصطناعي في العمليات اليومية. من خلال تشغيل عمليات المحاكاة ومقارنة مخرجات الذكاء الاصطناعي القابل للشرح بالنتائج في مجموعة بيانات التدريب، يمكن تحديد دقة التنبؤ. التقنية الأكثر شيوعًا المستخدمة لهذا الغرض هي التفسيرات المحايدة للنماذج المحلية القابلة للتفسير (LIME)، والتي تشرح التنبؤ بالمصنفات بواسطة خوارزمية التعلم الآلي.

إمكانية التتبع
التتبع هو تقنية رئيسية أخرى لإنجاز الذكاء الاصطناعي القابل للشرح. يتم تحقيق ذلك، على سبيل المثال، من خلال تقييد الطريقة التي يمكن بها اتخاذ القرارات وإنشاء نطاق أضيق لقواعد وخصائص التعلم الآلي. مثال على تقنية التتبع للذكاء الاصطناعي القابل للشرح هو DeepLIFT (الخصائص الهامة للتعلم العميق)، الذي يقارن تنشيط كل خلية عصبية بالخلية العصبية المرجعية الخاصة بها ويظهر رابط التتبع بين كل خلية عصبية نشطة وكذلك يظهر الارتباط بينهما.

فهم القرار
هذا هو العامل البشري. كثير من الناس لا يثقون في الذكاء الاصطناعي، ولكنهم بحاجة إلى تعلم الثقة به للعمل به بكفاءة. يتم تحقيق ذلك من خلال تثقيف الفريق الذي يعمل بالذكاء الاصطناعي حتى يتمكنوا من فهم كيف ولماذا يتخذ الذكاء الاصطناعي القرارات.

القابلية للشرح مقابل القابلية للتفسير في الذكاء الاصطناعي

قابلية التفسير هو الدرجة التي يمكن للمراقب من خلالها فهم سبب القرار. إنه معدل نجاح نتيجة مخرجات الذكاء الاصطناعي الذي يمكن للبشر التنبؤ به، بينما تتقدم القابلية للشرح وتنظر في كيفية وصول الذكاء الاصطناعي إلى النتيجة.

كيف يرتبط الذكاء الاصطناعي القابل للشرح بالذكاء الاصطناعي المسؤول؟

إن الذكاء الاصطناعي القابل للشرح والذكاء الاصطناعي المسؤول لهما أهداف متشابهة، ولكنهما مختلفان. فيما يلي الاختلافات الرئيسية بين الذكاء الاصطناعي القابل للشرح والمسؤول:

  • ينظر الذكاء الاصطناعي القابل للشرح إلى نتائج الذكاء الاصطناعي بعد حساب النتائج.
  • ينظر الذكاء الاصطناعي المسؤول إلى الذكاء الاصطناعي أثناء مراحل التخطيط لجعل خوارزمية الذكاء الاصطناعي مسؤولة قبل حساب النتائج.
  • يمكن للذكاء الاصطناعي القابل للشرح والمسؤول أن يعملا معًا لتحسين الذكاء الاصطناعي.

لمعرفة المزيد حول الذكاء الاصطناعي القابل للشرح، قم بالتسجيل للحصول على معرف IBMid وابدأ الإصدار التجريبي IBM Cloud Pak for Data trial اليوم.

كيفية تطبيق الذكاء الاصطناعي القابل لللشرح

استخدم هذه المصادر لمعرفة المزيد حول كيفية تطبيق الذكاء الاصطناعي القابل للشرح.

ندوة على الإنترنت: كيفية إدارة النماذج ومراقبتهاتعرف على ما يمكنك فعله عندما لا تعمل نماذجك.

شاهد الندوة عبر الإنترنت (الرابط يوجود خارج IBM) ←
مسار التعلم: إدارة الذكاء الاصطناعي بثقةتعرف على كيفية تتبع وقياس نتائج الذكاء الاصطناعي عبر دورة حياته، مع تكييف الذكاء الاصطناعي وإدارته لظروف العمل المتغيرة.

راجع البرنامج التعليمي ←

التجربة العملية: مراقبة نماذج التعلم الآلياستكشاف العمليات خطوة بخطوة لتقييم النماذج من حيث االنزاهة والدقة وإمكانية الشرح.

  راجع المختبر ←

حالات استخدام الذكاء الاصطناعي القابلة للشرح

الرعاية الصحية

صورة مقرّبة لثلاثة جراحين يعملون

تسريع التشخيص وتحليل الصور وتحسين الموارد والتشخيص الطبي. تحسين الشفافية وإمكانية التتبع في اتخاذ القرار لرعاية المرضى. تبسيط عملية الموافقة الصيدلانية باستخدام الذكاء الاصطناعي القابل للشرح.

الخدمات المالية

شخص يحمل بطاقة ائتمانية أثناء عمله على حاسب متنقل

تحسين تجارب العملاء من خلال عملية شفافة للموافقة على القرض والائتمان. تقييمات مخاطر سرعة الائتمان وإدارة الثروات ومخاطر الجرائم المالية.تسريع حل الشكاوى والقضايا المحتملة. زيادة الثقة في التسعير وتوصيات المنتجات والخدمات الاستثمارية.

العدالة الجنائية

رجل شرطة أمام منطقة تم وضع علامة عليها بشريط لمسرح الجريمة

تطوير عمليات التنبؤ وتقييم المخاطر. تسريع القرارات باستخدام الذكاء الاصطناعي القابل للشرح في تحليل الحمض النووي وتحليل نزلاء السجون والتنبؤ بالجرائم. كشف الانحيازات المحتملة في بيانات التدريب والخوارزميات.

مذكرات طرفية

¹ ”Explainable AI،‏“ The Royal Society،‏ 28‎ نوفمبر 2019.‏ (الرابط يوجد خارج IBM)

² ”Explainable Artificial Intelligence،‏“ Jaime Zornoza،‏ 15‎ أبريل 2020.‏ (الرابط يوجد خارج IBM)

³ ”Explainable Artificial Intelligence (XAI): Concepts, Taxonomies، ‏Opportunities and Challenges toward Responsible AI‏‏“ ScienceDirect،‏ يونيو 2020.‏ (الرابط يوجد خارج IBM)

⁴ ”Understanding Explainable AI،‏“ Ron Schmelzer،‏ Forbes contributor‏ ‎23 يوليو 2019.‏ (الرابط يوجد خارج IBM)

⁵ ”Explainable Artificial Intelligence (XAI)،‏“ Dr. Matt Turek،‏ The U.S. Defense Advanced Research Projects Agency (DARPA). (الرابط يوجد خارج IBM)