تاريخ النشر: 6 فبراير 2024
المساهم: كول سترايكر
يُعد الذكاء الاصطناعي المسؤول مجموعة من المبادئ التي تساعد على توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه — تعزيز الثقة في حلول الذكاء الاصطناعي التي تتمتع بإمكانية تمكين المؤسسات والأطراف المعنية. ويتضمن الذكاء الاصطناعي المسؤول مراعاة التأثير المجتمعي الأوسع نطاقًا لأنظمة الذكاء الاصطناعي والتدابير اللازمة لمواءمة هذه التقنيات مع قيم الأطراف المعنية والمعايير القانونية والمبادئ الأخلاقية. يهدف الذكاء الاصطناعي المسؤول إلى تضمين مثل هذه المبادئ الأخلاقية في تطبيقات الذكاء الاصطناعي وسير العمل للتخفيف من المخاطر والنتائج السلبية المرتبطة باستخدام الذكاء الاصطناعي، مع تعظيم النتائج الإيجابية.
تهدف هذه المقالة إلى تقديم نظرة عامة عن الذكاء الاصطناعي المسؤول. لمعرفة المزيد عن وجهة نظر IBM المحددة، راجع صفحة أخلاقيات الذكاء الاصطناعي الخاصة بنا.
أدى الاعتماد الواسع النطاق للتعلّم الآلي في العقد الأول من القرن الحادي والعشرين، والذي عززه التقدم في البيانات الهائلة وقوة الحوسبة، إلى ظهور تحديات أخلاقية جديدة، مثل التحيز والشفافية واستخدام البيانات الشخصية. ظهرت أخلاقيات الذكاء الاصطناعي كنظام متميز خلال هذه الفترة، حيث سعت شركات التقنية ومؤسسات أبحاث الذكاء الاصطناعي إلى إدارة جهود الذكاء الاصطناعي بشكل استباقي ومسؤول.
وفقًا لأبحاث أكسنتشر: "35% فقط من المستهلكين العالميين يثقون في كيفية تطبيق المؤسسات لتكنولوجيا الذكاء الاصطناعي. و77% يعتقدون أنه يجب محاسبة المؤسسات على إساءة استخدام الذكاء الاصطناعي."1 في هذا الوضع، يتم تشجيع مطوري الذكاء الاصطناعي على توجيه جهودهم بإطار أخلاقي قوي ومتسق للذكاء الاصطناعي.
وهذا ينطبق بشكل خاص على الأنواع الجديدة من الذكاء الاصطناعي التوليدي التي تتبناها المؤسسات الآن بسرعة. يمكن لمبادئ الذكاء الاصطناعي المسؤول أن تساعد المتبنين على الاستفادة من الإمكانات الكاملة لهذه الأدوات، بينما تقلل من النتائج غير المرغوب فيها.
يجب أن يكون الذكاء الاصطناعي جديرًا بالثقة، ولكي تثق الأطراف المعنية في الذكاء الاصطناعي، يجب أن يكون شفافًا. يجب أن تكون شركات التكنولوجيا واضحة بشأن من يدرب أنظمة الذكاء الاصطناعي الخاصة بها، وما هي البيانات التي تم استخدامها في هذا التدريب، والأهم من ذلك، ما الذي تم إدخاله في توصيات الخوارزميات الخاصة بهم. إذا أردنا استخدام الذكاء الاصطناعي للمساعدة في اتخاذ قرارات مهمة، فيجب أن يكون قابلاً للتفسير.
تسريع مراحل سير عمل الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.
وقد طورت IBM إطار عمل لتوضيح هذه المبادئ. دعونا نلقي نظرة على الخصائص التي تشكل «ركائز الثقة». وإذا أخذنا هذه الخصائص معًا، فإنها تجيب على السؤال التالي: "ما الذي يتطلبه الأمر للثقة بمخرجات نموذج الذكاء الاصطناعي؟" ويُعد الذكاء الاصطناعي الموثوق به ضرورة استراتيجية وأخلاقية في شركة IBM، ولكن يُمكن لأي مؤسسة استخدام هذه الركائز لتوجيه جهودها في مجال الذكاء الاصطناعي.
تحقق نماذج التعلّم الآلي مثل الشبكات العصبية العميقة دقة مذهلة في مهام مختلفة. ولكن قابلية التفسير والتوضيح ضرورية أكثر من أي وقت مضى لتصميم ذكاء اصطناعي جدير بالثقة. هناك ثلاثة مبادئ تشكل نهج IBM في قابلية التفسير.
تُعد الدقة عنصرًا أساسيًا في قياس مدى نجاح استخدام الذكاء الاصطناعي في التشغيل اليومي. فيمكن تحديد دقة التنبؤ من خلال إجراء عمليات محاكاة ومقارنة مخرجات الذكاء الاصطناعي بالنتائج في مجموعة بيانات التدريب. وتعد التقنية الأكثر شيوعًا المستخدمة لهذا الغرض هي التفسيرات المحلية القابلة للتفسير غير المعتمدة على النماذج (LIME)، والتي تشرح تنبؤ المصنفات من خلال خوارزمية التعلم الآلي.
تُعد إمكانية التتبع إحدى خصائص الذكاء الاصطناعي التي تشير إلى ما إذا كان يسمح للمستخدمين بتتبع تنبؤاته وعملياته. ويتضمن توثيق البيانات وكيفية معالجتها من خلال النماذج. تُعد إمكانية التتبع تقنية رئيسية أخرى لتحقيق قابلية التفسير، ويتم تحقيقها، على سبيل المثال، عن طريق الحد من الطريقة التي يمكن بها اتخاذ القرارات وإعداد نطاق أضيق لقواعد التعلم الآلي وميزاته.
هذا هو العامل البشري. يجب أن يكون الممارسون قادرين على فهم كيف يستخلص الذكاء الاصطناعي الاستنتاجات ولماذا. ويتم تحقيق ذلك من خلال التعليم المستمر.
يتم استخدام نماذج التعلّم الآلي بشكل متزايد لتوجيه عملية اتخاذ القرارات عالية المخاطر التي تتعلق بالأشخاص. وعلى الرغم من أن التعلم الآلي، بطبيعته، هو شكل من أشكال التمييز الإحصائي، إلا أن التمييز يصبح مرفوضًا عندما يجعل المجموعات المميزة تحظى بميزة منهجية وبعض المجموعات غير المميزة تتعرض لضرر منهجي، ما قد يتسبب في أضرار متنوعة. ينتج عن التحيزات في بيانات التدريب، إما بسبب التحيز في التصنيفات أو بسبب أخذ عينات أقل أو أكثر من اللازم، نماذج ذات تحيز غير مرغوب فيه.
بيانات متنوعة وتمثيلية
ضمان أن بيانات التدريب المستخدمة في بناء نماذج الذكاء الاصطناعي متنوعة وممثلة للسكان الذين من المفترض أن تخدمهم. وتضمين مدخلات البيانات من مختلف المجموعات الديموغرافية لتجنب التمثيل الناقص أو التحيز. التحقق من بيانات التدريب وتقييمها بانتظام للتحقق من التحيزات. استخدم الأدوات والأساليب لتحديد التحيزات وتصحيحها في مجموعة البيانات قبل تدريب النموذج.
الخوارزميات المدركة للتحيز
دمج مقاييس العدالة في عملية التطوير لتقييم مدى تأثر المجموعات الفرعية المختلفة بتنبؤات النموذج. رصد التباينات في النتائج بين مختلف المجموعات الديموغرافية وتقليلها إلى الحد الأدنى. تطبيق القيود في الخوارزمية لضمان التزام النموذج بمعايير الإنصاف المحددة مسبقًا أثناء التدريب والنشر.
تقنيات التخفيف من التحيز
تطبيق تقنيات مثل إعادة أخذ العينات وإعادة الترجيح والتدريب العدائي للتخفيف من التحيزات في تنبؤات النموذج.
فرق تطوير متنوعة
تجميع فرق متعددة التخصصات ومتنوعة تشارك في تطوير الذكاء الاصطناعي. يمكن للفرق المتنوعة أن تطرح وجهات نظر مختلفة، ما يساعد على تحديد التحيزات التي قد تغفلها الفرق المتجانسة وتصحيحها.
مجالس مراجعة أخلاقيات الذكاء الاصطناعي
إنشاء مجالس أو لجان مراجعة لتقييم التحيزات المحتملة والآثار الأخلاقية المترتبة على مشاريع الذكاء الاصطناعي. ويمكن لهذه المجالس تقديم إرشادات بشأن الاعتبارات الأخلاقية خلال دورة حياة التطوير.
يتعامل الذكاء الاصطناعي القوي بفعالية مع الظروف الاستثنائية، مثل الحالات غير الطبيعية في المدخلات أو الهجمات الضارة من دون التسبب في ضرر غير مقصود. كما أنه مصمم لتحمل التداخل المتعمد وغير المتعمد من خلال الحماية من نقاط الضعف المكشوفة. ويتعرّض اعتمادنا المتزايد على هذه النماذج والقيمة التي تمثلها كتراكم للمعرفة السرية والمملوكة لنا لخطر الهجمات المتزايدة. تشكل هذه النماذج مخاطر أمنية فريدة من نوعها يجب أخذها في الحسبان والتخفيف من حدتها.
يجب أن يكون المستخدمون قادرين على رؤية كيفية عمل الخدمة وتقييم وظائفها وفهم نقاط قوتها وحدودها. توفر زيادة الشفافية معلومات لمستهلكي الذكاء الاصطناعي لفهم كيفية إنشاء نموذج أو خدمة الذكاء الاصطناعي بشكل أفضل. ويساعد ذلك مستخدم النموذج على تحديد إذا كان النموذج مناسبًا لحالة استخدام معينة، أو لتقييم كيفية إنتاج الذكاء الاصطناعي لاستنتاجات غير دقيقة أو متحيزة.
تُلزم العديد من الأطر التنظيمية، بما في ذلك اللائحة العامة لحماية البيانات، المؤسسات بالالتزام بمبادئ معينة للخصوصية عند معالجة المعلومات الشخصية. لا يزال بإمكان الأطراف الخارجية الضارة التي تتمتع بإمكانية الوصول إلى نموذج تعلّم الآلة المدرّب، حتى من دون الوصول إلى بيانات التدريب نفسها، أن تكشف عن معلومات شخصية حساسة عن الأشخاص الذين استُخدمت بياناتهم لتدريب النموذج. فمن الضروري أن تكون قادرًا على حماية نماذج الذكاء الاصطناعي التي قد تحتوي على معلومات شخصية، والتحكم في البيانات التي تدخل في النموذج في المقام الأول.
يتضمن تطبيق ممارسات الذكاء الاصطناعي المسؤول على مستوى المؤسسة نهجًا شاملاً ومتكاملاً يتناول مختلف مراحل تطوير الذكاء الاصطناعي ونشره.
وضع مجموعة من مبادئ الذكاء الاصطناعي المسؤول التي تتوافق مع قيم المؤسسة وأهدافها. ضع في حسبانك الجوانب الرئيسية الموضحة أعلاه في "ركائز الثقة". يمكن تطوير هذه المبادئ والحفاظ عليها من خلال فريق أخلاقيات الذكاء الاصطناعي متعدد الوظائف المخصص الذي يضم ممثلين من مختلف الأقسام، بما في ذلك المتخصصون في الذكاء الاصطناعي وعلماء الأخلاقيات والخبراء القانونيون وقادة الأعمال.
إجراء برامج تدريبية لتثقيف الموظفين وأصحاب المصلحة ومتخذي القرار حول ممارسات الذكاء الاصطناعي المسؤول. يتضمن ذلك فهم التحيزات المحتملة والاعتبارات الأخلاقية وأهمية دمج الذكاء الاصطناعي المسؤول في عمليات الأعمال.
تضمين ممارسات الذكاء الاصطناعي المسؤول عبر مسار تطوير الذكاء الاصطناعي، من جمع البيانات والتدريب على النماذج إلى النشر والمراقبة المستمرة. توظيف تقنيات لمعالجة وتخفيف التحيزات في أنظمة الذكاء الاصطناعي. تقييم نماذج الإنصاف بانتظام، خاصة فيما يتعلق بالسمات الحساسة مثل العرق أو الجنس أو الوضع الاجتماعي والاقتصادي. إعطاء الأولوية للشفافية من خلال جعل الأنظمة الذكاء الاصطناعي قابلة للتفسير. توفير وثائق واضحة حول مصادر البيانات والخوارزميات وعمليات اتخاذ القرار. يجب أن يكون المستخدمون والأطراف المعنية قادرين على فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي للقرارات.
إنشاء ممارسات حوكمة الذكاء الاصطناعي وبيانات قوية وضمانات قوية لحماية خصوصية المستخدم النهائي والبيانات الحساسة. الإبلاغ بوضوح عن سياسات استخدام البيانات، والحصول على موافقة مسبقة والامتثال للوائح حماية البيانات.
دمج آليات الإشراف البشري في عمليات اتخاذ القرارات الحرجة. وتحديد خطوط واضحة للمساءلة لضمان تحديد الأطراف المسؤولة وتحميلها المسؤولية عن نتائج أنظمة الذكاء الاصطناعي. وإنشاء مراقبة مستمرة لأنظمة الذكاء الاصطناعي لتحديد المخاوف الأخلاقية أو التحيزات أو المشاكل التي قد تنشأ بمرور الوقت ومعالجتها. مراجعة نماذج الذكاء الاصطناعي بانتظام لتقييم الامتثال للمبادئ التوجيهية الأخلاقية.
تعزيز التعاون مع المنظمات الخارجية والمؤسسات البحثية والمجموعات مفتوحة المصدر التي تعمل على الذكاء الاصطناعي المسؤول. البقاء على اطلاع على أحدث التطورات في ممارسات ومبادرات الذكاء الاصطناعي المسؤول والإسهام في الجهود المبذولة على مستوى الصناعة.
نهج IBM متعدد التخصصات ومتعدد الأبعاد للذكاء الاصطناعي الجدير بالثقة.
بناء سير عمل ذكاء اصطناعي مسؤول وشفاف وقابل للتفسير.
تساعدك IBM Consulting على نسج حوكمة الذكاء الاصطناعي المسؤول في نسيج عملك.
حددت شركة IBM علنًا نهجها متعدد التخصصات ومتعدد الأبعاد لأخلاقيات الذكاء الاصطناعي، وهو نهج قائم على مبادئ الثقة والشفافية.
اكتسبت شركة IBM على مدار أكثر من قرن من الزمان ثقة عملائنا من خلال إدارة بياناتهم الأكثر قيمة بشكل مسؤول، وعملنا على كسب ثقة المجتمع من خلال إدخال تقنيات جديدة قوية إلى العالم بمسؤولية وهدف واضح.
الذكاء الاصطناعي القابل للتفسير (XAI) هو مجموعة من العمليات والأساليب التي تسمح للمستخدمين البشر بفهم النتائج والمخرجات التي أنشأتها خوارزميات التعلم الآلي والثقة بها.
1 رؤية التقنية 2022 (الرابط موجود خارج موقع ibm.com)، أكسنتشر، 2022.