تاريخ النشر: 6 سبتمبر 2024
المساهمون: ألكسندر جونكر وأليس جومستين وأماندا ماكجراث
تساعد شفافية الذكاء الاصطناعي الأشخاص على الوصول إلى المعلومات لفهم الكيفية التي تم بها إنشاء نظام ذكاء اصطناعي والكيفية التي يتبعها لاتخاذ القرارات بشكل أفضل.
يصف الباحثون أحيانًا الذكاء الاصطناعي بأنه "صندوق أسود"، حيث لا يزال من الصعب شرح نتائج الذكاء الاصطناعي وإدارتها وتنظيمها بسبب تعقيدات التقنيات المتزايدة. تساعد الشفافية الذكاء الاصطناعي في فتح هذا الصندوق الأسود لفهم نتائج الذكاء الاصطناعي بشكل أفضل وكيف تتخذ النماذج القرارات.
يعتمد عدد كبير من الصناعات ذات المخاطر العالية (بما في ذلك التمويل والرعاية الصحية والموارد البشرية وإنفاذ القانون) على نماذج الذكاء الاصطناعي لاتخاذ القرارات. إن تحسين فهم الناس كيفية تدريب هذه النماذج وكيفية تحديدها النتائج يبني الثقة في قرارات الذكاء الاصطناعي والمؤسسات التي تستخدمها.
يستطيع مبتكرو الذكاء الاصطناعي تقديم ذكاء اصطناعي شفاف وجدير بالثقة من خلال الإفصاح. يمكنهم توثيق ومشاركة منطق واستدلال خوارزمية الذكاء الاصطناعي الأساسية، ومدخلات البيانات المستخدمة لتدريب النموذج، والأساليب المستخدمة لتقييم النموذج والتحقق من صحته وغير ذلك الكثير. يسمح ذلك للأطراف المعنية بتقييم الدقة التنبؤية للنموذج مقابل الإنصاف والانحراف والتحيزات.
إن توفير مستوى عالٍ من الشفافية أمر في غاية الأهمية للذكاء الاصطناعي المسؤول. الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ التي تساعد في توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه. ويأخذ في الاعتبار التأثير المجتمعي الأوسع نطاقًا لأنظمة الذكاء الاصطناعي والتدابير اللازمة لمواءمة هذه التقنيات مع قيم الأطراف المعنية والمعايير القانونية والاعتبارات الأخلاقية.
تُستخدم الآن تطبيقات الذكاء الاصطناعي مثل روبوتات المحادثة المدعومة بالذكاء الاصطناعي التوليدي، والوكلاء الافتراضيين ومحركات التوصية من قِبل عشرات الملايين من الأشخاص حول العالم كل يوم. وعلى الأرجح لا تكون الشفافية في كيفية عمل أدوات الذكاء الاصطناعي هذه ذات قدر كبير من الأهمية لهذا المستوى من اتخاذ القرارات منخفضة المخاطر: إذا ثبت أن النموذج غير دقيق أو متحيز، فقد يفقد المستخدمون بعض الوقت أو الدخل المتاح فقط.
ومع ذلك، يستخدم كثير من القطاعات تطبيقات الذكاء الاصطناعي لضمان اتخاذ القرارات عالية المخاطر بشكل مستنير. على سبيل المثال، يساعد الذكاء الاصطناعي الآن الشركات والمستخدمين على اتخاذ خيارات الاستثمار والتشخيصات الطبية وقرارات التوظيف والأحكام الجنائية وغيرها المزيد. في هذه الحالات، تكون العواقب المحتملة لمخرجات الذكاء الاصطناعي المتحيزة أو غير الدقيقة أكثر خطورة بكثير. يمكن أن يخسر الأشخاص مدخرات العمر، أو فرصاً وظيفية أو سنوات من حياتهم.
ولكي تثق الأطراف المعنية في أن الذكاء الاصطناعي يتخذ قرارات فعالة وعادلة نيابة عنهم، فإنهم بحاجة إلى رؤية واضحة لكيفية عمل النماذج ومنطق الخوارزميات وكيفية تقييم النموذج من أجل الدقة والإنصاف. كما أنهم بحاجة إلى معرفة المزيد عن البيانات المستخدمة لتدريب النموذج وضبطه، بما في ذلك مصادر البيانات وكيفية معالجة البيانات وترجيحها وتصنيفها.
إضافة إلى بناء الثقة، تعزز شفافية الذكاء الاصطناعي تبادل المعرفة والتعاون عبر النظام البنائي للذكاء الاصطناعي بأكمله، ما يساهم في تحقيق التقدم في تطوير الذكاء الاصطناعي. وفي حال اتسام تقنيات الذكاء الاصطناعي بالشفافية افتراضيًا، تستطيع المؤسسات التركيز بشكل أكبر على استخدامها لتحقيق أهداف العمل — والحد من القلق بشأن موثوقية الذكاء الاصطناعي.
تتطور شبكة المتطلبات التنظيمية المحيطة باستخدام الذكاء الاصطناعي باستمرار. تعد عمليات النموذج الشفافة مهمة للامتثال لهذه اللوائح وتلبية الطلبات المقدمة من مدققي النماذج ومراجعي الحسابات والمنظمين. يُعد قانون الذكاء الاصطناعي للاتحاد الأوروبي أول إطار تنظيمي شامل للذكاء الاصطناعي في العالم.
يتبنى قانون الذكاء الاصطناعي للاتحاد الأوروبي نهجًا تنظيميًا قائمًا على المخاطر، لتطبيق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها. كما يحظر بعض استخدامات الذكاء الاصطناعي بشكل صريح ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية فيما يتعلق باستخدامات أخرى. وثمّة مزيد من الالتزامات الإضافية التي تتعلق بالشفافية لأنواع محددة من الذكاء الاصطناعي. على سبيل المثال:
أدى تنفيذ اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) إلى قيام دول أخرى باعتماد لوائح خصوصية البيانات الشخصية. وبالطريقة نفسها، يتوقع الخبراء أن قانون الذكاء الاصطناعي للاتحاد الأوروبي سيحفز تطوير معايير حوكمة الذكاء الاصطناعي والأخلاقيات في جميع أنحاء العالم.
لا يزال يتعين على الغالبية العظمى من البلدان والمناطق سن تشريعات أو لوائح شاملة في ما يتعلق باستخدام الذكاء الاصطناعي؛ ومع ذلك، ثمّة عديد من أطر العمل الشاملة المتاحة بالفعل. وعلى الرغم من أنها ليست قابلة للإنفاذ دائمًا، فإنها قائمة لتوجيه التنظيم المستقبلي للذكاء الاصطناعي والتطوير المسؤول له واستخدامه. وتشمل الأمثلة البارزة ما يأتي:
ترتبط شفافية الذكاء الاصطناعي ارتباطًا وثيقًا بمفاهيم الذكاء الاصطناعي التي تتمثل في قابلية شرح الذكاء الاصطناعي وقابلية تفسير الذكاء الاصطناعي. تقدم هذه المفاهيم رؤى تساعد على معالجة مشكلة "الصندوق الأسود" طويلة الأمد — المشكلة العملية والأخلاقية المتمثلة في أن أنظمة الذكاء الاصطناعي متطورة جدًا لدرجة يستحيل على البشر تفسيرها. ومع ذلك، تتوفر لها تعريفات وحالات استخدام مميزة:
قابلية شرح الذكاء الاصطناعي، أو قابلية تفسير الذكاء الاصطناعي (XAI)، هي مجموعة من العمليات والأساليب التي تمكّن المستخدمين البشر من فهم النتائج والمخرجات التي أنشأتها نماذج التعلم الآلي. تتناول قابلية شرح النموذج الطريقة التي اتبعها نظام الذكاء الاصطناعي للوصول إلى نتيجة محددة وتساعد على وصف شفافية النموذج.
تشير قابلية تفسير الذكاء الاصطناعي إلى جعل عملية الذكاء الاصطناعي بأكملها مفهومة للبشر. توفر قابلية تفسير الذكاء الاصطناعي معلومات مفيدة حول المنطق الأساسي لنظام الذكاء الاصطناعي وأهميته وعواقبه المتوقعة. فهي تمثل معدل النجاح الذي يمكِّن البشر من التنبؤ بنتيجة مخرجات الذكاء الاصطناعي، في حين تتقدم قابلية الشرح خطوة إلى الأمام وتبحث في كيفية وصول نموذج الذكاء الاصطناعي إلى النتيجة.
تتجاوز شفافية الذكاء الاصطناعي مجرد شرح عمليات اتخاذ القرار باستخدام الذكاء الاصطناعي. حيث تشمل العوامل المتعلقة بتطوير أنظمة الذكاء الاصطناعي ونشرها، مثل بيانات تدريب الذكاء الاصطناعي ومن يمكنه الوصول إليها.
بينما يختلف توفير شفافية الذكاء الاصطناعي حسب حالة الاستخدام والمؤسسة والصناعة، إلا أن هناك بعض الإستراتيجيات التي قد تضعها الشركات في الاعتبار أثناء قيامها ببناء أنظمة الذكاء الاصطناعي. وعلى مستوى عالٍ، تشمل هذه الإستراتيجيات وجود مبادئ واضحة للثقة والشفافية، مع وضع هذه المبادئ موضع التنفيذ وتضمينها في دورة حياة الذكاء الاصطناعي بأكملها.
تتمثل الإستراتيجية الأكثر تحديدًا لشفافية الذكاء الاصطناعي في الإفصاح والكشف الشامل في كل مرحلة من مراحل دورة حياة الذكاء الاصطناعي. لتحقيق إستراتيجية الإفصاح، يجب على المؤسسات تحديد ماهية المعلومات التي يجب مشاركتها وكيفية مشاركتها.
ستساعد حالة استخدام النموذج، والصناعة، والجمهور، وغيرها من العوامل الأخرى في تحديد المعلومات الضرورية للإفصاح عنها. على سبيل المثال، من المرجح أن تتطلب استخدامات الذكاء الاصطناعي (مثل تقييمات الرهن العقاري) إفصاحًا أكثر شمولاً من التطبيقات الأقل خطورة (مثل التصنيف الصوتي للمساعدين الافتراضيين).
قد يتضمن الإفصاح كل المعلومات التالية حول النموذج، أو بعضها:
يمكن أن يساهم كل دور في دورة حياة الذكاء الاصطناعي بالمعلومات، لتوزيع المساءلة عبر النظام البنائي بدلاً من الفرد. تتوفر منصات وأدوات برمجية يمكن أن تساعد في أتمتة جمع المعلومات وأنشطة حوكمة الذكاء الاصطناعي الأخرى.
يمكن أن تقدم المؤسسات معلومات لشفافية الذكاء الاصطناعي بتنسيقات مختلفة، مثل المستندات المطبوعة أو مقاطع الفيديو. يعتمد التنسيق على الجمهور وحالة الاستخدام. هل المعلومات موجَّهة إلى المستهلك، ومن ثمَّ يجب أن تكون سهلة الفهم؟ أم أنها موجَّهة إلى عالم بيانات أو منظم، ومن ثمَّ تحتاج إلى مستوى عالٍ من التفاصيل الفنية؟
قد تتضمن التنسيقات ما يأتي:
تتميز ممارسات الذكاء الاصطناعي الشفافة بعديد من الفوائد، لكنها تثير كذلك مشكلات تتعلق بالسلامة والخصوصية. على سبيل المثال، كلما زادت المعلومات المقدمة حول الأعمال الداخلية لمشروع ذكاء اصطناعي، كان من السهل على المتسللين العثور على نقاط ضعف واستغلالها. تناول OpenAI هذا التحدي تحديدًا في تقريره الفني GPT-4، حيث نص على ما يأتي:
"نظرًا إلى كل من المشهد التنافسي والآثار المترتبة على سلامة النماذج واسعة النطاق مثل نموذج GPT-4، لا يحتوي هذا التقرير على تفاصيل مفصلة حول البنية (بما في ذلك حجم النموذج) أو الأجهزة أو حوسبة التدريب أو بناء مجموعة البيانات أو أسلوب التدريب، أو ما شابه ذلك".4
وينص الاقتباس أيضًا على تحدٍّ آخر من تحديات شفافية الذكاء الاصطناعي، ألا وهو: المفاضلة بين الشفافية وحماية الملكية الفكرية. وقد تشمل العقبات الأخرى شرح البرامج المعقدة والغامضة وخوارزميات التعلم الآلي بوضوح (مثل الشبكات العصبية) لغير الخبراء، والافتقار إلى معايير شفافية الذكاء الاصطناعي على مستوى العالم.
توجيه أنشطة الذكاء الاصطناعي التي تمارسها مؤسستك وإدارتها ومراقبتها.
يستطيع فريقنا العالمي المتنوع الذي يضم أكثر من 20000 خبير في الذكاء الاصطناعي مساعدتك بسرعة وتصميم حلول ذكاء اصطناعي متطورة بثقة وتوسيع نطاقها وأتمتة جميع أقسام الشركة.
تقوم IBM Research® بتطوير أدوات لجعل الذكاء الاصطناعي أكثر قابلية للشرح وأكثر إنصافًا وقوةً وخصوصيةً وشفافيةً.
يمكنك إدارة متطلبات الامتثال التنظيمي والحوكمة الداخلية من خلال الخدمات التي تقدمها IBM Cloud.
تشير ورقة الحقائق إلى مجموعة من المعلومات (الحقائق) ذات الصلة حول إنشاء نموذج أو خدمة ذكاء اصطناعي ونشره.
قانون الذكاء الاصطناعي للاتحاد الأوروبي هو قانون يحكم تطوير الذكاء الاصطناعي و/أو استخدامه في الاتحاد الأوروبي.
يحدث التحيز الخوارزمي عندما تؤدي الأخطاء المنهجية في خوارزميات التعلم الآلي إلى نتائج غير عادلة أو نتائج تمييزية.
الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ التي تساعد على توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه.
تؤدي كل الروابط إلى صفحات خارج ibm.com
1. “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” The White House, 30 October 2023.
2. “Notice and Explanation,” The White House.
3. “Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System,” Ministry of Foreign Affairs of Japan, 2023.
4. “GPT-4 Technical Report,” arXiv, 15 March 2023.