رسم توضيحي يحتوي على مجموعة من الرموز التوضيحية على شكل سُحُب، ومخطط دائري، ورسم بياني من الرموز التوضيحية

تاريخ النشر: 20 سبتمبر 2024
المساهمون: ألكسندرا جونكر وجولي روجر

ما التحيز الخوارزمي؟

يحدث التحيز الخوارزمي عندما تؤدي الأخطاء المنهجية في خوارزميات التعلم الآلي إلى نتائج غير عادلة أو نتائج تمييزية. وغالبًا ما يعكس أو يعزز التحيزات الاجتماعية والاقتصادية والعرقية والجنسية القائمة.

تستخدم أنظمة الذكاء الاصطناعي الخوارزميات لاكتشاف الأنماط والرؤى في البيانات، أو للتنبؤ بقيم المخرجات من مجموعة معينة من متغيرات الإدخال. يمكن أن تؤثر الخوارزميات المتحيزة في هذه الرؤى والمخرجات بطرق تؤدي إلى قرارات أو إجراءات ضارة، وتعزز التمييز وعدم المساواة وتسهم في إدامتهما، كما تؤدي إلى إضعاف الثقة في الذكاء الاصطناعي والمؤسسات التي تستخدم الذكاء الاصطناعي. وقد تنشأ عن هذه الآثار مخاطر قانونية ومالية للشركات. على سبيل المثال، بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي، قد يؤدي عدم الامتثال لممارسات الذكاء الاصطناعي المحظورة إلى تكبّد غرامات يصل قدرها إلى 35000000 يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

يثير التحيز الخوارزمي القلق بشكل خاص عند وجوده مع أنظمة الذكاء الاصطناعي التي تدعم القرارات المغيرة للحياة في مجالات مثل الرعاية الصحية وإنفاذ القانون والموارد البشرية. قد يخترق التحيز الخوارزميات بعدة طرق، مثل بيانات إدخال التدريب المنحرفة أو المحدودة أو قرارات البرمجة غير الموضوعية أو تفسير النتائج.

يمكن الشروع في الحد من التحيز الخوارزمي من خلال تطبيق مبادئ حوكمة الذكاء الاصطناعي، بما في ذلك الشفافية وقابلية التفسير، عبر دورة حياة الذكاء الاصطناعي.

ما الذي يسبب التحيز الخوارزمي؟

لا يحدث التحيز الخوارزمي نتيجة الخوارزمية نفسها، ولكن نتيجة الطريقة التي يجمع بها فريق علوم البيانات بيانات التدريب ويشفرّها. تشمل الأسباب المحددة ما يأتي:

  • التحيزات في بيانات التدريب
  • التحيزات في تصميم الخوارزمية
  • التحيزات في بيانات الوكيل
  • التحيزات في التقييم

التحيزات في البيانات

 

توصف البيانات المعيبة بأنها غير تمثيلية أو تفتقر إلى معلومات أو متحيزة تاريخيًا أو أنّها بيانات "غير دقيقة".1 وتنتج عنها خوارزميات تؤدي إلى نتائج غير عادلة وتزيد أي تحيزات في البيانات. أنظمة الذكاء الاصطناعي هي أنظمة تستخدم النتائج المتحيزة كبيانات إدخال لاتخاذ القرار، وتنشئ حلقة تعليقات قد تعزز كذلك التحيز بمرور الوقت. تؤدي هذه الدورة، التي تتعلم فيها الخوارزمية الأنماط المتحيزة نفسها باستمرار وتعمل على إدامتها، إلى نتائج منحرفة بشكل متزايد. 

قد ينشأ التحيز أيضًا في أثناء مرحلة التدريب إذا تم تصنيف البيانات أو تقييمها بشكل غير صحيح. في بعض الأحيان، قد "تتعلم" الخوارزميات من ارتباط البيانات بدلاً من السببية، حيث إنّها لا تمتلك الإمكانات التي تساعدها على فهم الفرق. عندما يحدث هذا، فقد تكون مخرجات الخوارزمية متحيزة حيث فشل النموذج في مراعاة العوامل الأخرى في البيانات التي قد تكون أكثر أهمية.

من الأمثلة الشائعة على تحيز الارتباط نموذج افتراضي يحدد العلاقة السببية بين زيادة هجمات أسماك القرش وارتفاع مبيعات الآيس كريم. في الواقع، عادة ما تحدث كلتا الحالتين خلال فصل الصيف وتمتلك علاقة مترابطة فقط.

 

التحيزات في التصميم الخوارزمي

 

يمكن أن يؤدي تصميم الخوارزميات أيضًا إلى التحيز. وقد تنتقل أخطاء البرمجة، مثل ترجيح مصمم الذكاء الاصطناعي بشكل غير عادل في عملية اتخاذ القرار، إلى النظام من دون قصد. وغالبًا ما يكون الترجيح تقنية لتفادي التحيز، لأنه يتضمن تعديلات على البيانات بحيث تعكس المجتمع الفعلي بشكل أفضل. ومع ذلك، قد يتطلب ذلك افتراضات من المصممين، ما قد يؤدي إلى حالات من عدم الدقة ويُحدث التحيز. وقد يقوم المطورون أيضًا بتضمين الخوارزمية مع قواعد موضوعية بناءً على تحيزاتهم الشخصية الواعية أو غير الواعية.

 

التحيزات في بيانات الوكيل

 

تستخدم أنظمة الذكاء الاصطناعي أحيانًا الوكلاء كبديل للسمات المحمية، مثل العرق أو الجنس. ومع ذلك، قد يكون الوكلاء متحيزين عن غير قصد حيث قد يكون لديهم ارتباط خاطئ أو عرضي بالسمات الحساسة التي كان من المفترض أن يحلوا محلها. على سبيل المثال، إذا كانت الخوارزمية تستخدم الرموز البريدية كوكيل للوضع الاقتصادي، فقد تضر بشكل غير عادل بمجموعات معينة حيث ترتبط الرموز البريدية بديموغرافيات عرقية محددة.

 

التحيزات في التقييم

 

تحدث التحيزات في التقييم عندما يتم تفسير نتائج الخوارزمية بناءً على الأفكار المسبقة للأفراد المعنيين، بدلاً من النتائج الموضوعية. حتى إذا كانت الخوارزمية محايدة وقائمة على البيانات، فإن كيفية تطبيق الفرد أو الشركة لمخرجات الخوارزمية قد تؤدي إلى نتائج غير عادلة بناءً على طريقة فهمهم للمخرجات.

مخاطر التحيز الخوارزمي

في حال عدم معالجة التحيز الخوارزمي، يمكن أن يؤدي إلى استمرار التمييز وعدم المساواة، وقد تنشأ عنه أضرارًا قانونية وأخرى متعلقة بالسمعة، ويُضعف الثقة.

التمييز وعدم المساواة

 

تعزز القرارات الخوارزمية المتحيزة الفوارق المجتمعية القائمة التي تواجهها الفئات المهمشة، وتؤدي هذه التحيزات البشرية إلى نتائج غير عادلة ومن المحتمل أن تكون ضارة من أنظمة الذكاء الاصطناعي. في حين أن العديد من تطبيقات الذكاء الاصطناعي الأكثر شيوعًا قد تبدو منخفضة المخاطر (مثل محركات البحث وروبوتات المحادثة ومواقع التواصل الاجتماعي)، فإن تطبيقات أخرى للذكاء الاصطناعي يمكن أن تؤثر في القرارات المغيرة للحياة. يمكن أن يؤدي استخدام أدوات الذكاء الاصطناعي المتحيزة في مجالات مثل العدالة الجنائية والرعاية الصحية والتوظيف إلى نتائج مدمرة.

على سبيل المثال، ينعكس تهميش الأمريكيين من أصل إفريقي في الماضي في بيانات الاعتقال التاريخية من مدينة أوكلاند بكاليفورنيا في الولايات المتحدة. إذا تم استخدام هذه البيانات لتدريب خوارزمية الشرطة التنبؤية الحالية (PPA)، فمن المرجح أن تعكس القرارات التي تتخذها خوارزمية الشرطة التنبؤية التحيزات العنصرية السابقة وتعززها.

 

الضرر القانوني والإضرار بالسمعة

 

قد تواجه المؤسسات التي تستخدم أنظمة ذكاء اصطناعي متحيزة عواقب قانونية وضررًا بالسمعة، حيث يمكن أن ينتج عن التوصيات المتحيزة ما يعرف بالتأثير المتباين. وهذا مصطلح قانوني يشير إلى الحالات التي يمكن أن تؤثر فيها السياسات والممارسات التي تبدو محايدة بشكل غير متناسب على أفراد من الطبقات المحمية، مثل أولئك المعرضين للتمييز على أساس العرق والدين والجنس وغيرها من الخصائص.

قد ترفع المجموعات المحمية المتأثرة بقرارات الذكاء الاصطناعي المتحيزة دعاوى قضائية، وهو ما قد يؤدي احتمالاً إلى التزامات مالية كبيرة وإضرار بالسمعة على المدى الطويل وإدانة من الأطراف المعنية. وقد تواجه المؤسسات أيضًا عقوبات مالية إذا ثبت انتهاكها لأي قوانين معمول بها لمكافحة التمييز.

 

إضعاف الثقة

 

تؤدي النتائج المتحيزة من أدوات الذكاء الاصطناعي إلى إضعاف الثقة في الذكاء الاصطناعي بطرق متعددة. إذا اكتُشف أن المؤسسة لديها أنظمة ذكاء اصطناعي متحيزة، فقد تفقد ثقة الأطراف المعنية داخل الشركة الذين لم تعد لديهم ثقة في عمليات اتخاذ القرار الخوارزمية. ومن المحتمل أيضًا أن الأطراف المعنية هذه لم تعد تنظر في قيمة تحسين الذكاء الاصطناعي للتغلب على مخاطره مع فقدان الثقة في التقنية ككل.

يمكن أن يفقد أيضًا التحيز الخوارزمي ثقة العملاء. لا يتطلب الأمر سوى حالة واحدة من التمييز لتدمير سمعة العلامة التجارية، ولا سيما في عصر الأخبار سريعة الانتشار. تُعد الثقة في الذكاء الاصطناعي مهمة بشكل خاص للاحتفاظ بها مع الفئات المهمشة مثل أصحاب البشرة السوداء، الذين يعانون بالفعل من التحيز والتمييز في العالم الحقيقي.

أمثلة واقعية على التحيز الخوارزمي

يمكن أن يحدث التحيز الخوارزمي في أي سيناريو أو قطاع يستخدم نظام الذكاء الاصطناعي من أجل اتخاذ القرارات. فيما يأتي بعض الأمثلة الواقعية المحتملة على التحيز الخوارزمي:

  • التحيز في نظام العدالة الجنائية
  • التحيز في الرعاية الصحية
  • التحيز في التوظيف
  • التحيز في الخدمات المالية
  • التحيز في أنظمة التعرف على الوجه
  • التحيز في التسعير

التحيز في العدالة الجنائية

 

تستخدم محاكم الولايات المتحدة أداة إدارة المخالفين الإصلاحيين للعقوبات البديلة (COMPAS) لتقييم مخاطر عودة المتهمين إلى الجريمة. أفادت دراسة أجرتها ProPublica أنه يُحتمل أن خوارزمية الأدوات قد صنفت المتهمين البيض والسود بشكل مختلف. على سبيل المثال، في تقييم المخاطر، كان المتهمون السود أكثر عرضة بمقدار مرتين من المتهمين البيض للتصنيف الخاطئ بأنّهم يواجهون مخاطر أكبر للعودة إلى الإجرام. تُشكك الشركة التي ابتكرت الأداة في هذا التحليل؛ لكنها لا تفصح عن الطرق المستخدمة للتوصل إلى درجات المخاطر.2

 

التحيز في الشرطة التنبؤية

 

أنشأ الباحثون خوارزمية الشرطة التنبؤية الخاصة بهم المدرَّبة على بيانات بلاغات الضحايا من بوغوتا، كولومبيا. عندما قارنوا بين تنبؤات النموذج ومجموعات بيانات الجريمة الفعلية، اكتشفوا أخطاءً كبيرة. على سبيل المثال، توقعت مواقع الجريمة المرتفعة بنسبة 20% أكثر من النسبة الفعلية في المناطق التي يرتفع فيها عدد البلاغات. إلا أنّ ذلك عكس تحيزًا اجتماعيًا: من المرجح أن يتم الإبلاغ عن السود أكثر من البيض.3

 

التحيز في الرعاية الصحية

 

في مجال الرعاية الصحية، يمكن أن يؤدي التمثيل الناقص لمجموعات الأقليات في البيانات إلى تحريف خوارزميات الذكاء الاصطناعي التنبؤية. على سبيل المثال، تم اكتشاف أن أنظمة التشخيص بمساعدة الحاسوب (CAD) تعطي نتائج أقل دقة للمرضى السود مقارنةً بالمرضى البيض. 

 

التحيز في التوظيف
 

تخلت أمازون عن أداة التوظيف بالذكاء الاصطناعي بعد أن اكتشفت أنها تميز بشكل منهجي ضد الإناث المتقدمات للوظائف. قام المطورون بتدريب خوارزمية التوظيف باستخدام السير الذاتية من الموظفين السابقين -الذين كانوا في الغالب من الذكور. ونتيجة لذلك، فضلت الخوارزمية بشكل غير عادل الكلمات الرئيسية والخصائص الموجودة في السير الذاتية للرجال.4

 

التحيز في الخدمات المالية

 

قد تترتب على التحيز في الخدمات المالية عواقب وخيمة على سبل المعيشة للأشخاص، حيث يمكن أن تحتوي البيانات التاريخية على تحيزات ديموغرافية تؤثر في الجدارة الائتمانية والموافقات على القروض، وغير ذلك. فعلى سبيل المثال، كشفت دراسة أجرتها جامعة كاليفورنيا في بيركلي أن نظام الذكاء الاصطناعي للرهون العقارية يفرض بشكل روتيني معدلات فائدة أعلى على المقترضين من الأقليات مقابل القروض نفسها مقارنة بالمقترضين البيض.5

التحيز في توليد الصور

 

وجد باحثون أكاديميون تحيزًا بين الجنسين في تطبيق Midjourney المستخدم في توليد الصور بالذكاء الاصطناعي. وخلال تحليل أكثر من 100 صورة تم إنشاؤها، اكتشفوا كذلك حالات من التحيز العنصري والطبقي والعمري في النتائج. فعلى سبيل المثال، حين طُلب منه إنشاء صور لأشخاص يعملون في مهن متخصصة، أظهر صغار السن وكبار السن، إلا أنَّ كبار السن كانوا دائمًا من الرجال، ما يعزز التحيز الجنسي حول نسبة المرأة في مكان العمل.6

التحيز في أنظمة التعرف على الوجه

 

أثبتت الأبحاث التي أجراها معهد ماساتشوستس للتكنولوجيا أن بعض أنظمة التعرف على الوجه التجارية للأغراض العامة —المستخدمة لمطابقة الوجوه في الصور، على سبيل المثال —لم تكن قادرة على التعرف على الأفراد أصحاب البشرة السوداء. كان التعرّف على الوجه بالنسبة إلى النساء ذوات البشرة السوداء أشد سوءًا. أدت بيانات التدريب التي أساءت تمثيل التركيبة السكانية الحقيقية إلى تحريف النتائج.7

التحيز في التسعير

 

بعد أن أجبر قانون في شيكاغو شركات النقل الخاصة على الإفصاح عن أسعارها، اكتشف الباحثون أن خوارزمية التسعير الخاصة بشركتي أوبر وليفت تفرض رسومًا أكبر على التوصيل في الأحياء التي يقطنها عدد كبير من السكان غير البيض.8

كيفية تجنب التحيز الخوارزمي

يبدأ التخفيف من حدة التحيز الناجم عن أنظمة الذكاء الاصطناعي بحوكمة الذكاء الاصطناعي، والتي تشير إلى سُبل الحماية التي تضمن أن أدوات وأنظمة الذكاء الاصطناعي آمنة وأخلاقية وتظل كذلك. فهي تحدد أطر العمل والقواعد والمعايير التي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه للمساعدة على ضمان سلامة حقوق الإنسان وعدالتها واحترامها.

قد تنظر المؤسسات في مبادئ حوكمة الذكاء الاصطناعي التالية لتجنب التحيز الذكاء الاصطناعي المحتمل على مدار دورة حياة النظام:

  • بيانات متنوعة وتمثيلية
  • كشف التحيز والتخفيف من حدته
  • الشفافية وقابلية التفسير
  • التصميم والتطوير الشامل

بيانات متنوعة وتمثيلية

 

تعتمد جودة التعلم الآلي على قدر جودة البيانات التي تستخدم لتدريبه. لكي يعكس الذكاء الاصطناعي المجتمعات المتنوعة التي يخدمها بشكل أفضل، يجب تمثيل مجموعة متنوعة من بيانات البشر في النماذج. يجب أن تكون البيانات التي يتم إدخالها في نماذج التعلم الآلي وأنظمة التعلم العميق شاملة ومتوازنة، وتمثل جميع الفئات من الأشخاص وتعكس التركيبة السكانية الفعلية للمجتمع.

 

كشف التحيز والتخفيف من حدته

 

لا توجد أي أنظمة كمبيوتر "مدربة" بالكامل أو "مكتملة" على الإطلاق. يمكن أن تساعد المراقبة المستمرة وإجراء الاختبارات (من خلال مبادرات مثل تقييمات التأثير والتدقيق الحسابي واختبارات السببية) على الكشف عن التحيزات المحتملة وتصحيحها قبل أن تتسبب في حدوث مشكلات. تتطلب عمليات مثل نظام "التدخل البشري" مراجعة التوصيات من قبل البشر قبل اتخاذ قرار لتوفير طبقة أخرى من ضمان الجودة.

 

الشفافية وقابلية التفسير

 

يمكن أن تكون أنظمة الذكاء الاصطناعي "صناديق سوداء"، ما يجعل من الصعب فهم نتائجها. توثق أنظمة الذكاء الاصطناعي الشفافة بوضوح منهجية الخوارزمية الأساسية ومن قام بتدريبها وتشرحها. كلما زاد فهم الأشخاص لكيفية تدريب أنظمة الذكاء الاصطناعي وضبطها وكيفية اتخاذ القرارات، أصبح بإمكان الأطراف المعنية والمجتمع ككل أن يثقوا بدقة الذكاء الاصطناعي ونزاهته.

 

التصميم الشامل والتطوير  
 

يبدأ الذكاء الاصطناعي الشامل بفريق متنوع ومتعدد التخصصات من مبرمجي الذكاء الاصطناعي والمطورين وعلماء البيانات ومهندسي التعلم الآلي وغيرهم ممن يتنوعون عرقيًا واقتصاديًا وحسب المستوى التعليمي والجنس والوصف الوظيفي وغيرها من المقاييس الديموغرافية الأخرى. سيؤدي التنوع في التصميم والتطوير إلى جلب وجهات نظر مختلفة للمساعدة في تحديد وتقليل التحيزات التي قد تمر دون أن يلاحظها أحد.

تنظيم التحيز الخوارزمي

تعمل الحكومات وصانعو السياسات على إنشاء أطر عمل ولوائح للذكاء الاصطناعي للمساعدة على توجيه الاستخدام الآمن والمسؤول للذكاء الاصطناعي وفي بعض الحالات إنفاذه. على سبيل المثال:

  • قدم الاتحاد الأوروبي قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يتضمن متطلبات محددة لأنظمة الذكاء الاصطناعي عالية المخاطر مثل تدابير منع التحيزات وتقليلها.

  • يعد تقرير تقييمات الأثر الخوارزمي الصادر عن معهد الذكاء الاصطناعي AI Now التابع لجامعة نيويورك إطار عمل عمليًا. وعلى غرار تقييم الأثر البيئي، فإنه يوجّه الوكالات العامة في تقييم أنظمة الذكاء الاصطناعي لضمان المساءلة العامة.9

  • يحتوي مخطط البيت الأبيض لوثيقة حقوق الذكاء الاصطناعي على مبدأ مخصص للحماية من التمييز الخوارزمي. يتضمن توقعات وإرشادات بشأن كيفية وضع هذا المبدأ موضع التنفيذ.

  • يضع الأمر التنفيذي لإدارة بايدن بشأن تطوير واستخدام الذكاء الاصطناعي بشكل آمن وجدير بالثقة مبادئ توجيهية لتطوير واستخدام الذكاء الاصطناعي، بما في ذلك معالجة التمييز الخوارزمي من خلال التدريب والمساعدة الفنية والتنسيق بين وزارة العدل الأمريكية ومكاتب الحقوق المدنية الفيدرالية.
حلول ذات صلة
IBM® watsonx.governance

متوفر الآن — حوكمة نماذج الذكاء الاصطناعي التوليدي المبنية على أي منصة والمنشورة على السحابة أو البيئة المحلية.

استكشف IBM watsonx.governance
IBM® AutoAI

بناء وتدريب نماذج تنبؤية عالية الجودة بسرعة. تبسيط إدارة دورة حياة الذكاء الاصطناعي.

استكشف IBM AutoAI
الموارد ما المقصود بالذكاء الاصطناعي (AI)؟
يمكن الذكاء الاصطناعي أجهزة الكمبيوتر من محاكاة التعلم البشري والفهم وحل المشكلات والابتكار.
ما المقصود بالتعلم الآلي (ML)؟
التعلم الآلي هو فرع من فروع الذكاء الاصطناعي يركز على استخدام الخوارزميات لتمكين الذكاء الاصطناعي من تقليد الطريقة التي يتعلم بها البشر.
ما تحيز الذكاء الاصطناعي؟
يشير تحيز الذكاء الاصطناعي إلى حدوث نتائج متحيزة قائمة على التحيزات البشرية —ما يؤدي إلى مخرجات مشوهة ونتائج ضارة محتملة.
ما المقصود باتخاذ القرارات القائمة على البيانات؟
اتخاذ القرارات القائمة على البيانات (DDDM) هو نهج يركز على استخدام البيانات والتحليل بدلاً من الحدس في اتخاذ قرارات الأعمال.
ما الذكاء الاصطناعي المسؤول؟
الذكاء الاصطناعي المسؤول هو مجموعة من المبادئ التي تساعد على توجيه تصميم الذكاء الاصطناعي وتطويره ونشره واستخدامه.
ما المقصود بإدارة مخاطر الذكاء الاصطناعي؟
إدارة مخاطر الذكاء الاصطناعي هي عملية تحديد المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي وتخفيف حدتها ومعالجتها بشكل منهجي.
اتخِذ الخطوة التالية

تمكَّن من تسريع عمليات سير عمل الذكاء الاصطناعي الواضح والقابل للتفسير والمتسم بالمسؤولية عبر دورة الحياة في كل من نماذج الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي. كما يمكنك توجيه أنشطة الذكاء الاصطناعي في مؤسستك وإدارتها ومراقبتها لتحسين إدارة لوائح الذكاء الاصطناعي المتزايدة واكتشاف المخاطر والتخفيف من حدتها.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

تؤدي كل الروابط إلى صفحات خارج ibm.com

1. Algorithmic Bias: A New Legal Frontier,” International Association of Defense Counsel, 2019.

2. How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, 23 May 2016.

3. “Predictive policing is still racist—whatever data it uses,” MIT Technology Review, 5 February 2021.

4. Why Amazon’s Automated Hiring Tool Discriminated Against Women,” ACLU, 12 October 2018.

5.  AI is Making Housing Discrimination Easier Than Ever Before,” The Kreisman Initiative for Housing Law and Policy, University of Chicago, 12 February 2024.

6. Ageism, sexism, classism and more: 7 examples of bias in AI-generated images,” The Conversation, 9 July 2023.

7. Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms,” Brookings, 22 May 2019.

8. Algorithmic Bias Explained,” The Greenlining Institute, February 2021.

9. Algorithmic Impact Assessments Report: A Practical Framework for Public Agency Accountability,” AI Now Institute. 9 April 2018.