تاريخ النشر: 20 سبتمبر 2024
المساهمون: ألكسندرا جونكر وجولي روجر
يحدث التحيز الخوارزمي عندما تؤدي الأخطاء المنهجية في خوارزميات التعلم الآلي إلى نتائج غير عادلة أو نتائج تمييزية. وغالبًا ما يعكس أو يعزز التحيزات الاجتماعية والاقتصادية والعرقية والجنسية القائمة.
تستخدم أنظمة الذكاء الاصطناعي الخوارزميات لاكتشاف الأنماط والرؤى في البيانات، أو للتنبؤ بقيم المخرجات من مجموعة معينة من متغيرات الإدخال. يمكن أن تؤثر الخوارزميات المتحيزة في هذه الرؤى والمخرجات بطرق تؤدي إلى قرارات أو إجراءات ضارة، وتعزز التمييز وعدم المساواة وتسهم في إدامتهما، كما تؤدي إلى إضعاف الثقة في الذكاء الاصطناعي والمؤسسات التي تستخدم الذكاء الاصطناعي. وقد تنشأ عن هذه الآثار مخاطر قانونية ومالية للشركات. على سبيل المثال، بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي، قد يؤدي عدم الامتثال لممارسات الذكاء الاصطناعي المحظورة إلى تكبّد غرامات يصل قدرها إلى 35000000 يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.
يثير التحيز الخوارزمي القلق بشكل خاص عند وجوده مع أنظمة الذكاء الاصطناعي التي تدعم القرارات المغيرة للحياة في مجالات مثل الرعاية الصحية وإنفاذ القانون والموارد البشرية. قد يخترق التحيز الخوارزميات بعدة طرق، مثل بيانات إدخال التدريب المنحرفة أو المحدودة أو قرارات البرمجة غير الموضوعية أو تفسير النتائج.
يمكن الشروع في الحد من التحيز الخوارزمي من خلال تطبيق مبادئ حوكمة الذكاء الاصطناعي، بما في ذلك الشفافية وقابلية التفسير، عبر دورة حياة الذكاء الاصطناعي.
لا يحدث التحيز الخوارزمي نتيجة الخوارزمية نفسها، ولكن نتيجة الطريقة التي يجمع بها فريق علوم البيانات بيانات التدريب ويشفرّها. تشمل الأسباب المحددة ما يأتي:
توصف البيانات المعيبة بأنها غير تمثيلية أو تفتقر إلى معلومات أو متحيزة تاريخيًا أو أنّها بيانات "غير دقيقة".1 وتنتج عنها خوارزميات تؤدي إلى نتائج غير عادلة وتزيد أي تحيزات في البيانات. أنظمة الذكاء الاصطناعي هي أنظمة تستخدم النتائج المتحيزة كبيانات إدخال لاتخاذ القرار، وتنشئ حلقة تعليقات قد تعزز كذلك التحيز بمرور الوقت. تؤدي هذه الدورة، التي تتعلم فيها الخوارزمية الأنماط المتحيزة نفسها باستمرار وتعمل على إدامتها، إلى نتائج منحرفة بشكل متزايد.
قد ينشأ التحيز أيضًا في أثناء مرحلة التدريب إذا تم تصنيف البيانات أو تقييمها بشكل غير صحيح. في بعض الأحيان، قد "تتعلم" الخوارزميات من ارتباط البيانات بدلاً من السببية، حيث إنّها لا تمتلك الإمكانات التي تساعدها على فهم الفرق. عندما يحدث هذا، فقد تكون مخرجات الخوارزمية متحيزة حيث فشل النموذج في مراعاة العوامل الأخرى في البيانات التي قد تكون أكثر أهمية.
من الأمثلة الشائعة على تحيز الارتباط نموذج افتراضي يحدد العلاقة السببية بين زيادة هجمات أسماك القرش وارتفاع مبيعات الآيس كريم. في الواقع، عادة ما تحدث كلتا الحالتين خلال فصل الصيف وتمتلك علاقة مترابطة فقط.
يمكن أن يؤدي تصميم الخوارزميات أيضًا إلى التحيز. وقد تنتقل أخطاء البرمجة، مثل ترجيح مصمم الذكاء الاصطناعي بشكل غير عادل في عملية اتخاذ القرار، إلى النظام من دون قصد. وغالبًا ما يكون الترجيح تقنية لتفادي التحيز، لأنه يتضمن تعديلات على البيانات بحيث تعكس المجتمع الفعلي بشكل أفضل. ومع ذلك، قد يتطلب ذلك افتراضات من المصممين، ما قد يؤدي إلى حالات من عدم الدقة ويُحدث التحيز. وقد يقوم المطورون أيضًا بتضمين الخوارزمية مع قواعد موضوعية بناءً على تحيزاتهم الشخصية الواعية أو غير الواعية.
تستخدم أنظمة الذكاء الاصطناعي أحيانًا الوكلاء كبديل للسمات المحمية، مثل العرق أو الجنس. ومع ذلك، قد يكون الوكلاء متحيزين عن غير قصد حيث قد يكون لديهم ارتباط خاطئ أو عرضي بالسمات الحساسة التي كان من المفترض أن يحلوا محلها. على سبيل المثال، إذا كانت الخوارزمية تستخدم الرموز البريدية كوكيل للوضع الاقتصادي، فقد تضر بشكل غير عادل بمجموعات معينة حيث ترتبط الرموز البريدية بديموغرافيات عرقية محددة.
تحدث التحيزات في التقييم عندما يتم تفسير نتائج الخوارزمية بناءً على الأفكار المسبقة للأفراد المعنيين، بدلاً من النتائج الموضوعية. حتى إذا كانت الخوارزمية محايدة وقائمة على البيانات، فإن كيفية تطبيق الفرد أو الشركة لمخرجات الخوارزمية قد تؤدي إلى نتائج غير عادلة بناءً على طريقة فهمهم للمخرجات.
في حال عدم معالجة التحيز الخوارزمي، يمكن أن يؤدي إلى استمرار التمييز وعدم المساواة، وقد تنشأ عنه أضرارًا قانونية وأخرى متعلقة بالسمعة، ويُضعف الثقة.
تعزز القرارات الخوارزمية المتحيزة الفوارق المجتمعية القائمة التي تواجهها الفئات المهمشة، وتؤدي هذه التحيزات البشرية إلى نتائج غير عادلة ومن المحتمل أن تكون ضارة من أنظمة الذكاء الاصطناعي. في حين أن العديد من تطبيقات الذكاء الاصطناعي الأكثر شيوعًا قد تبدو منخفضة المخاطر (مثل محركات البحث وروبوتات المحادثة ومواقع التواصل الاجتماعي)، فإن تطبيقات أخرى للذكاء الاصطناعي يمكن أن تؤثر في القرارات المغيرة للحياة. يمكن أن يؤدي استخدام أدوات الذكاء الاصطناعي المتحيزة في مجالات مثل العدالة الجنائية والرعاية الصحية والتوظيف إلى نتائج مدمرة.
على سبيل المثال، ينعكس تهميش الأمريكيين من أصل إفريقي في الماضي في بيانات الاعتقال التاريخية من مدينة أوكلاند بكاليفورنيا في الولايات المتحدة. إذا تم استخدام هذه البيانات لتدريب خوارزمية الشرطة التنبؤية الحالية (PPA)، فمن المرجح أن تعكس القرارات التي تتخذها خوارزمية الشرطة التنبؤية التحيزات العنصرية السابقة وتعززها.
قد تواجه المؤسسات التي تستخدم أنظمة ذكاء اصطناعي متحيزة عواقب قانونية وضررًا بالسمعة، حيث يمكن أن ينتج عن التوصيات المتحيزة ما يعرف بالتأثير المتباين. وهذا مصطلح قانوني يشير إلى الحالات التي يمكن أن تؤثر فيها السياسات والممارسات التي تبدو محايدة بشكل غير متناسب على أفراد من الطبقات المحمية، مثل أولئك المعرضين للتمييز على أساس العرق والدين والجنس وغيرها من الخصائص.
قد ترفع المجموعات المحمية المتأثرة بقرارات الذكاء الاصطناعي المتحيزة دعاوى قضائية، وهو ما قد يؤدي احتمالاً إلى التزامات مالية كبيرة وإضرار بالسمعة على المدى الطويل وإدانة من الأطراف المعنية. وقد تواجه المؤسسات أيضًا عقوبات مالية إذا ثبت انتهاكها لأي قوانين معمول بها لمكافحة التمييز.
تؤدي النتائج المتحيزة من أدوات الذكاء الاصطناعي إلى إضعاف الثقة في الذكاء الاصطناعي بطرق متعددة. إذا اكتُشف أن المؤسسة لديها أنظمة ذكاء اصطناعي متحيزة، فقد تفقد ثقة الأطراف المعنية داخل الشركة الذين لم تعد لديهم ثقة في عمليات اتخاذ القرار الخوارزمية. ومن المحتمل أيضًا أن الأطراف المعنية هذه لم تعد تنظر في قيمة تحسين الذكاء الاصطناعي للتغلب على مخاطره مع فقدان الثقة في التقنية ككل.
يمكن أن يفقد أيضًا التحيز الخوارزمي ثقة العملاء. لا يتطلب الأمر سوى حالة واحدة من التمييز لتدمير سمعة العلامة التجارية، ولا سيما في عصر الأخبار سريعة الانتشار. تُعد الثقة في الذكاء الاصطناعي مهمة بشكل خاص للاحتفاظ بها مع الفئات المهمشة مثل أصحاب البشرة السوداء، الذين يعانون بالفعل من التحيز والتمييز في العالم الحقيقي.
يمكن أن يحدث التحيز الخوارزمي في أي سيناريو أو قطاع يستخدم نظام الذكاء الاصطناعي من أجل اتخاذ القرارات. فيما يأتي بعض الأمثلة الواقعية المحتملة على التحيز الخوارزمي:
تستخدم محاكم الولايات المتحدة أداة إدارة المخالفين الإصلاحيين للعقوبات البديلة (COMPAS) لتقييم مخاطر عودة المتهمين إلى الجريمة. أفادت دراسة أجرتها ProPublica أنه يُحتمل أن خوارزمية الأدوات قد صنفت المتهمين البيض والسود بشكل مختلف. على سبيل المثال، في تقييم المخاطر، كان المتهمون السود أكثر عرضة بمقدار مرتين من المتهمين البيض للتصنيف الخاطئ بأنّهم يواجهون مخاطر أكبر للعودة إلى الإجرام. تُشكك الشركة التي ابتكرت الأداة في هذا التحليل؛ لكنها لا تفصح عن الطرق المستخدمة للتوصل إلى درجات المخاطر.2
أنشأ الباحثون خوارزمية الشرطة التنبؤية الخاصة بهم المدرَّبة على بيانات بلاغات الضحايا من بوغوتا، كولومبيا. عندما قارنوا بين تنبؤات النموذج ومجموعات بيانات الجريمة الفعلية، اكتشفوا أخطاءً كبيرة. على سبيل المثال، توقعت مواقع الجريمة المرتفعة بنسبة 20% أكثر من النسبة الفعلية في المناطق التي يرتفع فيها عدد البلاغات. إلا أنّ ذلك عكس تحيزًا اجتماعيًا: من المرجح أن يتم الإبلاغ عن السود أكثر من البيض.3
في مجال الرعاية الصحية، يمكن أن يؤدي التمثيل الناقص لمجموعات الأقليات في البيانات إلى تحريف خوارزميات الذكاء الاصطناعي التنبؤية. على سبيل المثال، تم اكتشاف أن أنظمة التشخيص بمساعدة الحاسوب (CAD) تعطي نتائج أقل دقة للمرضى السود مقارنةً بالمرضى البيض.
تخلت أمازون عن أداة التوظيف بالذكاء الاصطناعي بعد أن اكتشفت أنها تميز بشكل منهجي ضد الإناث المتقدمات للوظائف. قام المطورون بتدريب خوارزمية التوظيف باستخدام السير الذاتية من الموظفين السابقين -الذين كانوا في الغالب من الذكور. ونتيجة لذلك، فضلت الخوارزمية بشكل غير عادل الكلمات الرئيسية والخصائص الموجودة في السير الذاتية للرجال.4
قد تترتب على التحيز في الخدمات المالية عواقب وخيمة على سبل المعيشة للأشخاص، حيث يمكن أن تحتوي البيانات التاريخية على تحيزات ديموغرافية تؤثر في الجدارة الائتمانية والموافقات على القروض، وغير ذلك. فعلى سبيل المثال، كشفت دراسة أجرتها جامعة كاليفورنيا في بيركلي أن نظام الذكاء الاصطناعي للرهون العقارية يفرض بشكل روتيني معدلات فائدة أعلى على المقترضين من الأقليات مقابل القروض نفسها مقارنة بالمقترضين البيض.5
وجد باحثون أكاديميون تحيزًا بين الجنسين في تطبيق Midjourney المستخدم في توليد الصور بالذكاء الاصطناعي. وخلال تحليل أكثر من 100 صورة تم إنشاؤها، اكتشفوا كذلك حالات من التحيز العنصري والطبقي والعمري في النتائج. فعلى سبيل المثال، حين طُلب منه إنشاء صور لأشخاص يعملون في مهن متخصصة، أظهر صغار السن وكبار السن، إلا أنَّ كبار السن كانوا دائمًا من الرجال، ما يعزز التحيز الجنسي حول نسبة المرأة في مكان العمل.6
أثبتت الأبحاث التي أجراها معهد ماساتشوستس للتكنولوجيا أن بعض أنظمة التعرف على الوجه التجارية للأغراض العامة —المستخدمة لمطابقة الوجوه في الصور، على سبيل المثال —لم تكن قادرة على التعرف على الأفراد أصحاب البشرة السوداء. كان التعرّف على الوجه بالنسبة إلى النساء ذوات البشرة السوداء أشد سوءًا. أدت بيانات التدريب التي أساءت تمثيل التركيبة السكانية الحقيقية إلى تحريف النتائج.7
بعد أن أجبر قانون في شيكاغو شركات النقل الخاصة على الإفصاح عن أسعارها، اكتشف الباحثون أن خوارزمية التسعير الخاصة بشركتي أوبر وليفت تفرض رسومًا أكبر على التوصيل في الأحياء التي يقطنها عدد كبير من السكان غير البيض.8
يبدأ التخفيف من حدة التحيز الناجم عن أنظمة الذكاء الاصطناعي بحوكمة الذكاء الاصطناعي، والتي تشير إلى سُبل الحماية التي تضمن أن أدوات وأنظمة الذكاء الاصطناعي آمنة وأخلاقية وتظل كذلك. فهي تحدد أطر العمل والقواعد والمعايير التي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه للمساعدة على ضمان سلامة حقوق الإنسان وعدالتها واحترامها.
قد تنظر المؤسسات في مبادئ حوكمة الذكاء الاصطناعي التالية لتجنب التحيز الذكاء الاصطناعي المحتمل على مدار دورة حياة النظام:
تعتمد جودة التعلم الآلي على قدر جودة البيانات التي تستخدم لتدريبه. لكي يعكس الذكاء الاصطناعي المجتمعات المتنوعة التي يخدمها بشكل أفضل، يجب تمثيل مجموعة متنوعة من بيانات البشر في النماذج. يجب أن تكون البيانات التي يتم إدخالها في نماذج التعلم الآلي وأنظمة التعلم العميق شاملة ومتوازنة، وتمثل جميع الفئات من الأشخاص وتعكس التركيبة السكانية الفعلية للمجتمع.
لا توجد أي أنظمة كمبيوتر "مدربة" بالكامل أو "مكتملة" على الإطلاق. يمكن أن تساعد المراقبة المستمرة وإجراء الاختبارات (من خلال مبادرات مثل تقييمات التأثير والتدقيق الحسابي واختبارات السببية) على الكشف عن التحيزات المحتملة وتصحيحها قبل أن تتسبب في حدوث مشكلات. تتطلب عمليات مثل نظام "التدخل البشري" مراجعة التوصيات من قبل البشر قبل اتخاذ قرار لتوفير طبقة أخرى من ضمان الجودة.
يمكن أن تكون أنظمة الذكاء الاصطناعي "صناديق سوداء"، ما يجعل من الصعب فهم نتائجها. توثق أنظمة الذكاء الاصطناعي الشفافة بوضوح منهجية الخوارزمية الأساسية ومن قام بتدريبها وتشرحها. كلما زاد فهم الأشخاص لكيفية تدريب أنظمة الذكاء الاصطناعي وضبطها وكيفية اتخاذ القرارات، أصبح بإمكان الأطراف المعنية والمجتمع ككل أن يثقوا بدقة الذكاء الاصطناعي ونزاهته.
يبدأ الذكاء الاصطناعي الشامل بفريق متنوع ومتعدد التخصصات من مبرمجي الذكاء الاصطناعي والمطورين وعلماء البيانات ومهندسي التعلم الآلي وغيرهم ممن يتنوعون عرقيًا واقتصاديًا وحسب المستوى التعليمي والجنس والوصف الوظيفي وغيرها من المقاييس الديموغرافية الأخرى. سيؤدي التنوع في التصميم والتطوير إلى جلب وجهات نظر مختلفة للمساعدة في تحديد وتقليل التحيزات التي قد تمر دون أن يلاحظها أحد.
تعمل الحكومات وصانعو السياسات على إنشاء أطر عمل ولوائح للذكاء الاصطناعي للمساعدة على توجيه الاستخدام الآمن والمسؤول للذكاء الاصطناعي وفي بعض الحالات إنفاذه. على سبيل المثال:
متوفر الآن — حوكمة نماذج الذكاء الاصطناعي التوليدي المبنية على أي منصة والمنشورة على السحابة أو البيئة المحلية.
بناء وتدريب نماذج تنبؤية عالية الجودة بسرعة. تبسيط إدارة دورة حياة الذكاء الاصطناعي.
تؤدي كل الروابط إلى صفحات خارج ibm.com
1. “Algorithmic Bias: A New Legal Frontier,” International Association of Defense Counsel, 2019.
2. “How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, 23 May 2016.
3. “Predictive policing is still racist—whatever data it uses,” MIT Technology Review, 5 February 2021.
4. “Why Amazon’s Automated Hiring Tool Discriminated Against Women,” ACLU, 12 October 2018.
5. “AI is Making Housing Discrimination Easier Than Ever Before,” The Kreisman Initiative for Housing Law and Policy, University of Chicago, 12 February 2024.
6. “Ageism, sexism, classism and more: 7 examples of bias in AI-generated images,” The Conversation, 9 July 2023.
7. “Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms,” Brookings, 22 May 2019.
8. “Algorithmic Bias Explained,” The Greenlining Institute, February 2021.
9. “Algorithmic Impact Assessments Report: A Practical Framework for Public Agency Accountability,” AI Now Institute. 9 April 2018.