ما المقصود بشفافية الذكاء الاصطناعي؟
استكشف حل شفافية الذكاء الاصطناعي المبتكر من IBM اشترك في الرسالة الإخبارية من Think
رسم توضيحي يحتوي على مجموعة من الرموز التوضيحية على شكل سُحُب، ومخطط دائري، ورسم بياني من الرموز التوضيحية

تاريخ النشر: 6 سبتمبر 2024
المساهمون: ألكسندر جونكر وأليس جومستين وأماندا ماكجراث

ما المقصود بشفافية الذكاء الاصطناعي؟

تساعد شفافية الذكاء الاصطناعي الأشخاص على الوصول إلى المعلومات لفهم الكيفية التي تم بها إنشاء نظام ذكاء اصطناعي والكيفية التي يتبعها لاتخاذ القرارات بشكل أفضل.

يصف الباحثون أحيانًا الذكاء الاصطناعي بأنه "صندوق أسود"، حيث لا يزال من الصعب شرح نتائج الذكاء الاصطناعي وإدارتها وتنظيمها بسبب تعقيدات التقنيات المتزايدة. تساعد الشفافية الذكاء الاصطناعي في فتح هذا الصندوق الأسود لفهم نتائج الذكاء الاصطناعي بشكل أفضل وكيف تتخذ النماذج القرارات.

يعتمد عدد كبير من الصناعات ذات المخاطر العالية (بما في ذلك التمويل والرعاية الصحية والموارد البشرية وإنفاذ القانون) على نماذج الذكاء الاصطناعي لاتخاذ القرارات. إن تحسين فهم الناس كيفية تدريب هذه النماذج وكيفية تحديدها النتائج يبني الثقة في قرارات الذكاء الاصطناعي والمؤسسات التي تستخدمها.

يستطيع مبتكرو الذكاء الاصطناعي تقديم ذكاء اصطناعي شفاف وجدير بالثقة من خلال الإفصاح. يمكنهم توثيق ومشاركة منطق واستدلال خوارزمية الذكاء الاصطناعي الأساسية، ومدخلات البيانات المستخدمة لتدريب النموذج، والأساليب المستخدمة لتقييم النموذج والتحقق من صحته وغير ذلك الكثير. يسمح ذلك للأطراف المعنية بتقييم الدقة التنبؤية للنموذج مقابل الإنصاف والانحراف والتحيزات.

إن توفير مستوى عالٍ من الشفافية أمر في غاية الأهمية للذكاء الاصطناعي المسؤول. الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ التي تساعد في توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه. ويأخذ في الاعتبار التأثير المجتمعي الأوسع نطاقًا لأنظمة الذكاء الاصطناعي والتدابير اللازمة لمواءمة هذه التقنيات مع قيم الأطراف المعنية والمعايير القانونية والاعتبارات الأخلاقية.

حوكمة الذكاء الاصطناعي للمؤسسات
ما سبب أهمية شفافية الذكاء الاصطناعي؟

تُستخدم الآن تطبيقات الذكاء الاصطناعي مثل روبوتات المحادثة المدعومة بالذكاء الاصطناعي التوليدي، والوكلاء الافتراضيين ومحركات التوصية من قِبل عشرات الملايين من الأشخاص حول العالم كل يوم. وعلى الأرجح لا تكون الشفافية في كيفية عمل أدوات الذكاء الاصطناعي هذه ذات قدر كبير من الأهمية لهذا المستوى من اتخاذ القرارات منخفضة المخاطر: إذا ثبت أن النموذج غير دقيق أو متحيز، فقد يفقد المستخدمون بعض الوقت أو الدخل المتاح فقط.

ومع ذلك، يستخدم كثير من القطاعات تطبيقات الذكاء الاصطناعي لضمان اتخاذ القرارات عالية المخاطر بشكل مستنير. على سبيل المثال، يساعد الذكاء الاصطناعي الآن الشركات والمستخدمين على اتخاذ خيارات الاستثمار والتشخيصات الطبية وقرارات التوظيف والأحكام الجنائية وغيرها المزيد. في هذه الحالات، تكون العواقب المحتملة لمخرجات الذكاء الاصطناعي المتحيزة أو غير الدقيقة أكثر خطورة بكثير. يمكن أن يخسر الأشخاص مدخرات العمر، أو فرصاً وظيفية أو سنوات من حياتهم.

ولكي تثق الأطراف المعنية في أن الذكاء الاصطناعي يتخذ قرارات فعالة وعادلة نيابة عنهم، فإنهم بحاجة إلى رؤية واضحة لكيفية عمل النماذج ومنطق الخوارزميات وكيفية تقييم النموذج من أجل الدقة والإنصاف. كما أنهم بحاجة إلى معرفة المزيد عن البيانات المستخدمة لتدريب النموذج وضبطه، بما في ذلك مصادر البيانات وكيفية معالجة البيانات وترجيحها وتصنيفها.

إضافة إلى بناء الثقة، تعزز شفافية الذكاء الاصطناعي تبادل المعرفة والتعاون عبر النظام البنائي للذكاء الاصطناعي بأكمله، ما يساهم في تحقيق التقدم في تطوير الذكاء الاصطناعي. وفي حال اتسام تقنيات الذكاء الاصطناعي بالشفافية افتراضيًا، تستطيع المؤسسات التركيز بشكل أكبر على استخدامها لتحقيق أهداف العمل — والحد من القلق بشأن موثوقية الذكاء الاصطناعي.

لوائح شفافية الذكاء الاصطناعي وأطر عملها

تتطور شبكة المتطلبات التنظيمية المحيطة باستخدام الذكاء الاصطناعي باستمرار. تعد عمليات النموذج الشفافة مهمة للامتثال لهذه اللوائح وتلبية الطلبات المقدمة من مدققي النماذج ومراجعي الحسابات والمنظمين. يُعد قانون الذكاء الاصطناعي للاتحاد الأوروبي أول إطار تنظيمي شامل للذكاء الاصطناعي في العالم.

قانون الذكاء الاصطناعي للاتحاد الأوروبي


يتبنى قانون الذكاء الاصطناعي للاتحاد الأوروبي نهجًا تنظيميًا قائمًا على المخاطر، لتطبيق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها. كما يحظر بعض استخدامات الذكاء الاصطناعي بشكل صريح ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية فيما يتعلق باستخدامات أخرى. وثمّة مزيد من الالتزامات الإضافية التي تتعلق بالشفافية لأنواع محددة من الذكاء الاصطناعي. على سبيل المثال:

  • يجب تصميم أنظمة الذكاء الاصطناعي التي تهدف إلى التفاعل المباشر مع الأفراد لإعلام المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي، ما لم يكن ذلك واضحًا للفرد من السياق. على سبيل المثال، يجب تصميم روبوت المحادثة لإخطار المستخدمين بأنه روبوت محادثة.

  • يجب أن تستخدم أنظمة الذكاء الاصطناعي التي تُنشئ عبارات نصية أو صورًا أو أي محتوى آخر تنسيقات قابلة للقراءة آليًا لوضع علامة على المخرجات تفيد بأنها قد تم إنشاؤها أو معالجتها بالذكاء الاصطناعي. يتضمن ذلك، على سبيل المثال، الذكاء الاصطناعي الذي يُنشئ صورًا أو مقاطع فيديو بتقنية التزييف العميق — حيث يتم تعديلها لإظهار أن شخصًا ما يفعل أو يقول شيئًا لم يحدث في الحقيقة.

أدى تنفيذ اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) إلى قيام دول أخرى باعتماد لوائح خصوصية البيانات الشخصية. وبالطريقة نفسها، يتوقع الخبراء أن قانون الذكاء الاصطناعي للاتحاد الأوروبي سيحفز تطوير معايير حوكمة الذكاء الاصطناعي والأخلاقيات في جميع أنحاء العالم.

أطر العمل الإرشادية لشفافية الذكاء الاصطناعي



لا يزال يتعين على الغالبية العظمى من البلدان والمناطق سن تشريعات أو لوائح شاملة في ما يتعلق باستخدام الذكاء الاصطناعي؛ ومع ذلك، ثمّة عديد من أطر العمل الشاملة المتاحة بالفعل. وعلى الرغم من أنها ليست قابلة للإنفاذ دائمًا، فإنها قائمة لتوجيه التنظيم المستقبلي للذكاء الاصطناعي والتطوير المسؤول له واستخدامه. وتشمل الأمثلة البارزة ما يأتي:

  • الأمر التنفيذي للبيت الأبيض بشأن تطوير الذكاء الاصطناعي واستخدامه بطريقة آمنة ومأمونة وجديرة بالثقة: صدر هذا الأمر في 30 أكتوبر 2023، حيث يتناول الشفافية في عدة أقسام. يتناول على وجه التحديد في القسم 8 حماية المستهلكين والمرضى والركاب والطلاب. ويشجع الوكالات التنظيمية المستقلة على النظر في استخدام سلطتها لحماية المستهلكين الأمريكيين من مخاطر الذكاء الاصطناعي، بما في ذلك "التأكيد أو توضيح المتطلبات والتوقعات المتعلقة بشفافية نماذج الذكاء الاصطناعي وقدرة الكيانات الخاضعة للتنظيم على شرح استخدامها نماذج الذكاء الاصطناعي".1

  • مخطط وثيقة حقوق الذكاء الاصطناعي: المخطط عبارة عن مجموعة من خمسة مبادئ وممارسات مرتبطة بها للمساعدة على توجيه تصميم أنظمة الذكاء الاصطناعي واستخدامها ونشرها. يعالج المبدأ الرابع، "الإشعار والتوضيح"، الشفافية بشكل مباشر: "يجب على مصممي الأنظمة المؤتمتة ومطوريها وناشريها توفير وثائق بلغة بسيطة يسهل الوصول إليها بشكل عام، بما في ذلك الأوصاف الواضحة لطريقة عمل النظام ككل والدور الذي تؤديه الأتمتة، وملاحظة أن هذه الأنظمة قيد الاستخدام، وأن الفرد أو المؤسسة مسؤولة عن النظام، وتفسيرات النتائج التي تتسم بالوضوح والسرعة مع سهولة الوصول إليها".2

  • الإطار السياسي الشامل لعملية هيروشيما للذكاء الاصطناعي: تم إطلاق عملية هيروشيما للذكاء الاصطناعي في عام 2023 بعد وضعها في قمة هيروشيما لمجموعة الدول السبع، وهي عبارة عن مجموعة من المبادئ التوجيهية للتطوير العالمي لأنظمة الذكاء الاصطناعي المتقدمة التي تعزز الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة. ويدعو الإطار المؤسسات إلى الالتزام بـ 11 مبدأً، يشجع العديد منها على "نشر تقارير الشفافية" و"مشاركة المعلومات بشكل مسؤول"3.
قابلية شرح الذكاء الاصطناعي مقابل قابلية تفسير الذكاء الاصطناعي مقابل شفافية الذكاء الاصطناعي

ترتبط شفافية الذكاء الاصطناعي ارتباطًا وثيقًا بمفاهيم الذكاء الاصطناعي التي تتمثل في قابلية شرح الذكاء الاصطناعي وقابلية تفسير الذكاء الاصطناعي. تقدم هذه المفاهيم رؤى تساعد على معالجة مشكلة "الصندوق الأسود" طويلة الأمد — المشكلة العملية والأخلاقية المتمثلة في أن أنظمة الذكاء الاصطناعي متطورة جدًا لدرجة يستحيل على البشر تفسيرها. ومع ذلك، تتوفر لها تعريفات وحالات استخدام مميزة:

  • قابلية شرح الذكاء الاصطناعي: كيف توصل النموذج إلى هذه النتيجة؟

  • قابلية تفسير الذكاء الاصطناعي: كيف يتخذ النموذج القرارات؟

  • شفافية الذكاء الاصطناعي: كيف تم إنشاء النموذج، وما البيانات المستخدمة في تدريبه وكيف يتخذ القرارات؟

قابلية تفسير الذكاء الاصطناعي: كيف توصل النموذج إلى هذه النتيجة؟


قابلية شرح الذكاء الاصطناعي، أو قابلية تفسير الذكاء الاصطناعي (XAI)، هي مجموعة من العمليات والأساليب التي تمكّن المستخدمين البشر من فهم النتائج والمخرجات التي أنشأتها نماذج التعلم الآلي. تتناول قابلية شرح النموذج الطريقة التي اتبعها نظام الذكاء الاصطناعي للوصول إلى نتيجة محددة وتساعد على وصف شفافية النموذج.

تعرف على المزيد حول الذكاء الاصطناعي القابل للشرح

قابلية تفسير الذكاء الاصطناعي: كيف يتخذ النموذج القرارات؟


تشير قابلية تفسير الذكاء الاصطناعي إلى جعل عملية الذكاء الاصطناعي بأكملها مفهومة للبشر. توفر قابلية تفسير الذكاء الاصطناعي معلومات مفيدة حول المنطق الأساسي لنظام الذكاء الاصطناعي وأهميته وعواقبه المتوقعة. فهي تمثل معدل النجاح الذي يمكِّن البشر من التنبؤ بنتيجة مخرجات الذكاء الاصطناعي، في حين تتقدم قابلية الشرح خطوة إلى الأمام وتبحث في كيفية وصول نموذج الذكاء الاصطناعي إلى النتيجة.

تعرف على المزيد حول قابلية تفسير الذكاء الاصطناعي

شفافية الذكاء الاصطناعي: كيف تم إنشاء النموذج، وما البيانات المستخدمة في تدريبه وكيف يتخذ القرارات؟


تتجاوز شفافية الذكاء الاصطناعي مجرد شرح عمليات اتخاذ القرار باستخدام الذكاء الاصطناعي. حيث تشمل العوامل المتعلقة بتطوير أنظمة الذكاء الاصطناعي ونشرها، مثل بيانات تدريب الذكاء الاصطناعي ومن يمكنه الوصول إليها.

طريقة توفير شفافية الذكاء الاصطناعي

بينما يختلف توفير شفافية الذكاء الاصطناعي حسب حالة الاستخدام والمؤسسة والصناعة، إلا أن هناك بعض الإستراتيجيات التي قد تضعها الشركات في الاعتبار أثناء قيامها ببناء أنظمة الذكاء الاصطناعي. وعلى مستوى عالٍ، تشمل هذه الإستراتيجيات وجود مبادئ واضحة للثقة والشفافية، مع وضع هذه المبادئ موضع التنفيذ وتضمينها في دورة حياة الذكاء الاصطناعي بأكملها.

تتمثل الإستراتيجية الأكثر تحديدًا لشفافية الذكاء الاصطناعي في الإفصاح والكشف الشامل في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. لتحقيق إستراتيجية الإفصاح، يجب على المؤسسات تحديد ماهية المعلومات التي يجب مشاركتها وكيفية مشاركتها.

المعلومات المطلوبة في وثائق شفافية الذكاء الاصطناعي



ستساعد حالة استخدام النموذج، والصناعة، والجمهور، وغيرها من العوامل الأخرى في تحديد المعلومات الضرورية للإفصاح عنها. على سبيل المثال، من المرجح أن تتطلب استخدامات الذكاء الاصطناعي (مثل تقييمات الرهن العقاري) إفصاحًا أكثر شمولاً من التطبيقات الأقل خطورة (مثل التصنيف الصوتي للمساعدين الافتراضيين). 

قد يتضمن الإفصاح كل المعلومات التالية حول النموذج، أو بعضها:

  • اسم النموذج
  • الغرض
  • مستوى المخاطر
  • سياسة النموذج
  • إنشاء النموذج
  • المجال المقصود
  • بيانات التدريب
  • دقة التدريب وإجراء الاختبار
  • التحيز
  • مقاييس القوة العدائية
  • مقاييس الإنصاف
  • مقاييس قابلية الشرح
  • معلومات التواصل

يمكن أن يساهم كل دور في دورة حياة الذكاء الاصطناعي بالمعلومات، لتوزيع المساءلة عبر النظام البنائي بدلاً من الفرد. تتوفر منصات وأدوات برمجية يمكن أن تساعد في أتمتة جمع المعلومات وأنشطة حوكمة الذكاء الاصطناعي الأخرى.

كيفية مشاركة معلومات شفافية الذكاء الاصطناعي



يمكن أن تقدم المؤسسات معلومات لشفافية الذكاء الاصطناعي بتنسيقات مختلفة، مثل المستندات المطبوعة أو مقاطع الفيديو. يعتمد التنسيق على الجمهور وحالة الاستخدام. هل المعلومات موجَّهة إلى المستهلك، ومن ثمَّ يجب أن تكون سهلة الفهم؟ أم أنها موجَّهة إلى عالم بيانات أو منظم، ومن ثمَّ تحتاج إلى مستوى عالٍ من التفاصيل الفنية؟

قد تتضمن التنسيقات ما يأتي: 

  • وثيقة حية تم تصميمها على غرار إعلان المطابقة الخاص بالمورد (SDoC)، وهي وثيقة تُستخدم في عديد من الصناعات لإثبات أنّ المنتج يتوافق مع معايير أو لوائح فنية معينة

  • صفحات السياسة الرسمية على الموقع الإلكتروني للشركة التي توضح بالتفصيل كيفية وضع المؤسسات مبادرات الذكاء الاصطناعي الشفافة موضع التنفيذ

  • موارد تعليمية مثل المستندات ومقاطع الفيديو لمساعدة المستخدمين على فهم كيفية استخدام الذكاء الاصطناعي في المنتجات والخدمات، ومدى تأثيره في تجربة العملاء

  • الخطاب الموجّه إلى العامة الذي يبين وجهة نظر الذكاء الاصطناعي الأخلاقية للمؤسسة من خلال أنشطة العلاقات العامة الرسمية والأحداث ووسائل التواصل الاجتماعي، وغيرها من وسائل الاتصال.  

  • الأوراق البحثية ومجموعات البيانات وغيرها من وسائل الاتصال القائمة على البيانات لتقديم رؤى حول استخدام الذكاء الاصطناعي وتطويره وفوائده في مجال صناعة المؤسسة أو حالات الاستخدام.
تحديات شفافية الذكاء الاصطناعي

تتميز ممارسات الذكاء الاصطناعي الشفافة بعديد من الفوائد، لكنها تثير كذلك مشكلات تتعلق بالسلامة والخصوصية. على سبيل المثال، كلما زادت المعلومات المقدمة حول الأعمال الداخلية لمشروع ذكاء اصطناعي، كان من السهل على المتسللين العثور على نقاط ضعف واستغلالها. تناول OpenAI هذا التحدي تحديدًا في تقريره الفني GPT-4، حيث نص على ما يأتي:

"نظرًا إلى كل من المشهد التنافسي والآثار المترتبة على سلامة النماذج واسعة النطاق مثل نموذج GPT-4، لا يحتوي هذا التقرير على تفاصيل مفصلة حول البنية (بما في ذلك حجم النموذج) أو الأجهزة أو حوسبة التدريب أو بناء مجموعة البيانات أو أسلوب التدريب، أو ما شابه ذلك".4

وينص الاقتباس أيضًا على تحدٍّ آخر من تحديات شفافية الذكاء الاصطناعي، ألا وهو: المفاضلة بين الشفافية وحماية الملكية الفكرية. وقد تشمل العقبات الأخرى شرح البرامج المعقدة والغامضة وخوارزميات التعلم الآلي بوضوح (مثل الشبكات العصبية) لغير الخبراء، والافتقار إلى معايير شفافية الذكاء الاصطناعي على مستوى العالم.

حلول ذات صلة
IBM® watsonx.governance

توجيه أنشطة الذكاء الاصطناعي التي تمارسها مؤسستك وإدارتها ومراقبتها.

استكشف IBM watsonx.governance

الخدمات الاستشارية في مجال الذكاء الاصطناعي

يستطيع فريقنا العالمي المتنوع الذي يضم أكثر من 20000 خبير في الذكاء الاصطناعي مساعدتك بسرعة وتصميم حلول ذكاء اصطناعي متطورة بثقة وتوسيع نطاقها وأتمتة جميع أقسام الشركة.

استكشف خدمات استشارات الذكاء الاصطناعي
الموارد الذكاء الاصطناعي الجدير بالثقة

تقوم IBM Research®‎ بتطوير أدوات لجعل الذكاء الاصطناعي أكثر قابلية للشرح وأكثر إنصافًا وقوةً وخصوصيةً وشفافيةً.

برامج الامتثال من IBM Cloud

يمكنك إدارة متطلبات الامتثال التنظيمي والحوكمة الداخلية من خلال الخدمات التي تقدمها IBM Cloud.

مقدمة عن ورقة حقائق الذكاء الاصطناعي

تشير ورقة الحقائق إلى مجموعة من المعلومات (الحقائق) ذات الصلة حول إنشاء نموذج أو خدمة ذكاء اصطناعي ونشره.

ما قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

قانون الذكاء الاصطناعي للاتحاد الأوروبي هو قانون يحكم تطوير الذكاء الاصطناعي و/أو استخدامه في الاتحاد الأوروبي.

التحيز الخوارزمي

يحدث التحيز الخوارزمي عندما تؤدي الأخطاء المنهجية في خوارزميات التعلم الآلي إلى نتائج غير عادلة أو نتائج تمييزية.

ما الذكاء الاصطناعي المسؤول؟

الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ التي تساعد على توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه.

اتخِذ الخطوة التالية

تمكَّن من تسريع عمليات سير عمل الذكاء الاصطناعي الواضح والقابل للتفسير والمتسم بالمسؤولية عبر دورة الحياة في كل من نماذج الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي. كما يمكنك توجيه أنشطة الذكاء الاصطناعي في مؤسستك وإدارتها ومراقبتها لتحسين إدارة لوائح الذكاء الاصطناعي المتزايدة واكتشاف المخاطر والتخفيف من حدتها.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

تؤدي كل الروابط إلى صفحات خارج ibm.com

1. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” The White House, 30 October 2023.

2. Notice and Explanation,” The White House.

3. Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System,” Ministry of Foreign Affairs of Japan, 2023.

4. GPT-4 Technical Report,” arXiv, 15 March 2023.