تسليط الضوء على تحيز الذكاء الاصطناعي من خلال أمثلة من أرض الواقع

16 أكتوبر 2023

قراءة لمدة 6 دقائق

مؤلف

IBM Data and AI Team

مع زيادة استخدام الشركات للذكاء الاصطناعي (AI)، يتساءل الناس عن مدى التحيزات البشرية التي شقت طريقها إلى أنظمة الذكاء الاصطناعي. تُظهر لنا أمثلة على تحيز الذكاء الاصطناعي أ{ض الواقع أنه عندما يتم تضمين البيانات والخوارزميات التمييزية في نماذج الذكاء الاصطناعي، فإن النماذج تنشر التحيزات على نطاق واسع وتضخم الآثار السلبية الناتجة.

إن الشركات متحمسة لمواجهة تحدي التحيز في الذكاء الاصطناعي ليس فقط لتحقيق العدالة، ولكن أيضًا لضمان تحقيق نتائج أفضل. ومع ذلك، وكما ثبت أنه من الصعب القضاء على التحيز العنصري والجنسي المنهجي في العالم الحقيقي، فإن القضاء على التحيز في الذكاء الاصطناعي ليس بالمهمة السهلة.

في المقال الذي يحمل عنوان What AI can and can’t do (yet) for your business، يقول كاتبوا المقال Michael Chui وJames Manyika وMehdi Miremadi من McKinsey: "تميل مثل هذه التحيزات إلى البقاء راسخة، لأن التعرّف عليها ومعالجتها يتطلب إتقانًا عميقًا لتقنيات علوم البيانات،إلى جانب فهم أوسع للقوى الاجتماعية السائدة، بما في ذلك كيفية جمع البيانات. وإجمالاً، يُثبت عدم التحيز أنه من بين العقبات الأكثر صعوبة، وبالتأكيد الأكثر صعوبة اجتماعيًا، حتى الآن".

توفر الأمثلة على تحيز الذكاء الاصطناعي من الحياة الواقعية للمؤسسات رؤى مفيدة حول كيفية تحديد التحيز ومعالجته. من خلال النظر بشكل نقدي في هذه الأمثلة والنجاحات التي تحققت في التغلب على التحيز، يمكن لعلماء البيانات البدء في بناء خارطة طريق لتحديد ومنع التحيز في نماذج التعلم الآلي الخاصة بهم.

ما المقصود بالتحيّز في الذكاء الاصطناعي؟

يشير تحيّز الذكاء الاصطناعي، ويُعرف أيضًا باسم تحيّز التعلم الآلي أو تحيّز الخوارزميات، إلى الأنظمة التي تُنتج نتائج متحيّزة تعكس التحيزات البشرية داخل المجتمع وتُكرّسها، بما في ذلك أوجه عدم المساواة الاجتماعية، سواء التاريخية أو الراهنة. يمكن أن ينشأ التحيّز من بيانات التدريب الأولية، أو من الخوارزمية نفسها، أو من التنبؤات الناتجة عنها.

عندما لا يتم التصدي للتحيز، فإنه يعيق قدرة الأشخاص على المشاركة في الاقتصاد والمجتمع. كما أنه يقلل من إمكانات الذكاء الاصطناعي. لا يمكن للشركات الاستفادة من الأنظمة التي تنتج نتائج مشوهة وتعزز عدم الثقة بين الأشخاص الملونين أو النساء أو الأشخاص ذوي الإعاقة أو مجتمع LGBTQ أو المجموعات المهمشة الأخرى من الـأشخاص.

أحدث اتجاهات الذكاء الاصطناعي، يقدمها لك الخبراء

احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! لقد اشتركت بنجاح.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

مصدر التحيز في الذكاء الاصطناعي

يتطلب القضاء على تحيز الذكاء الاصطناعي التعمق في مجموعات البيانات وخوارزميات التعلم الآلي والعناصر الأخرى المكونة لأنظمة الذكاء الاصطناعي لتحديد مصادر التحيز المحتمل.

تحيز بيانات التدريب

تتعلم أنظمة الذكاء الاصطناعي اتخاذ القرارات بناءً على بيانات التدريب، لذلك من الضروري تقييم مجموعات البيانات بحثًا عن وجود تحيز. وتتمثل إحدى الطرق في مراجعة عينات البيانات بحثاً عن المجموعات الممثلة تمثيلاً زائداً أو ناقصاً ضمن بيانات التدريب. على سبيل المثال، قد تؤدي بيانات التدريب لخوارزمية التعرف على الوجه التي تفرط في تمثيل الأشخاص البيض إلى حدوث أخطاء عند محاولة التعرف على الوجه للأشخاص الملونين. وبالمثل، يمكن للبيانات الأمنية التي تتضمن معلومات تم جمعها في مناطق جغرافية يغلب عليها السود أن تخلق تحيزًا عرقيًا في أدوات الذكاء الاصطناعي التي تستخدمها الشرطة.

يمكن أن ينتج التحيز أيضًا عن كيفية تسمية بيانات التدريب. على سبيل المثال، يمكن لأدوات التوظيف بالذكاء الاصطناعي التي تستخدم تصنيفات غير متسقة أو تستبعد أو تفرط في تمثيل خصائص معينة أن تستبعد المتقدمين المؤهلين للوظائف من الدراسة.

التحيز الخوارزمي

يمكن أن يؤدي استخدام بيانات التدريب المعيبة إلى خوارزميات تنتج أخطاءً متكررة أو نتائج غير عادلة أو حتى تضخيم التحيز المتأصل في البيانات المعيبة. يمكن أن يحدث التحيز الخوارزمي أيضًا بسبب أخطاء في البرمجة، مثل قيام المطور بترجيح عوامل غير عادلة في اتخاذ القرارات الخوارزمية بناءً على تحيزاته الواعية أو اللاواعية. على سبيل المثال، يمكن أن تستخدم الخوارزمية مؤشرات مثل الدخل أو المفردات اللغوية للتمييز عن غير قصد ضد أشخاص من عرق أو جنس معين.

التحيز المعرفي

عندما يقوم الأشخاص بمعالجة المعلومات وإصدار الأحكام، فإننا نتأثر حتما بتجاربنا وتفضيلاتنا. ونتيجة لذلك، قد يقوم الأشخاص ببناء هذه التحيزات في أنظمة الذكاء الاصطناعي من خلال اختيار البيانات أو كيفية ترجيح البيانات. على سبيل المثال، يمكن أن يؤدي التحيز المعرفي إلى تفضيل مجموعات البيانات التي تم جمعها من الأمريكيين بدلاً من أخذ عينات من مجموعة من السكان حول العالم.

وفقًا للمعهد الوطني للمعايير والتكنولوجيا (NIST)، يعد مصدر التحيز هذا أكثر شيوعًا مما تعتقد. ففي تقريره بعنوان "نحو معيار قياسي لتحديد وإدارة التحيز في الذكاء الاصطناعي" (المنشور الخاص للمعهد الوطني للمعايير والتكنولوجيا رقم 1270)، لاحظ المعهد الوطني للمعايير والتكنولوجيا أن "العوامل المؤسسية والمجتمعية البشرية والنظامية تشكل أيضًا مصادر مهمة للتحيز في الذكاء الاصطناعي، ويتم تجاهلها حاليًا. وسيتطلب النجاح في مواجهة هذا التحدي أخذ جميع أشكال التحيز في الاعتبار. وهذا يعني توسيع منظورنا إلى ما هو أبعد من مسار التعلم الآلي للتعرف على كيفية إنشاء هذه التكنولوجيا داخل مجتمعنا وتأثيرها على حد سواء".

أمثلة على تحيز الذكاء الاصطناعي في الحياة الواقعية

مع ازدياد وعي المجتمع بكيفية عمل الذكاء الاصطناعي وإمكانية حدوث التحيز، كشفت المؤسسات عن العديد من الأمثلة البارزة على التحيز في الذكاء الاصطناعي في مجموعة واسعة من حالات الاستخدام.

  • الرعاية الصحية: يمكن أن تؤدي البيانات الممثلة تمثيلاً ناقصا للنساء أو مجموعات الأقليات إلى تحريف خوارزميات الذكاء الاصطناعي التنبؤية. على سبيل المثال، وُجد أن أنظمة التشخيص بمساعدة الحاسوب (CAD) تعطي نتائج أقل دقة للمرضى السود مقارنةً بالمرضى البيض.
  • أنظمة تتبع مقدمي الطلبات- يمكن أن تؤدي المشكلات المتعلقة بخوارزميات معالجة اللغة الطبيعية إلى نتائج متحيزة داخل أنظمة تتبع مقدمي الطلبات. على سبيل المثال، توقفت Amazon عن استخدام خوارزمية التوظيف بعد أن وجدت أنها تفضل المتقدمين بناء على كلمات مثل "executed" أو "captured"، والتي كانت أكثر شيوعًا في سير الذاتية للرجال.
  • الإعلان عبر الإنترنت: يمكن أن تؤدي التحيزات في خوارزميات الإعلانات بمحركات البحث إلى تعزيز التحيز الجنساني في أدوار الوظائف، حيث كشفت أبحاث مستقلة في جامعة Carnegie Mellon University في بيتسبرغ أن نظام Google للإعلانات عبر الإنترنت يعرض وظائف ذات رواتب عالية للذكور أكثر من النساء.
  • إنشاء الصور- وجدت أبحاث أكاديمية تحيزًا في تطبيق Midjourney الخاص بإنشاء الصور والرسومات بالذكاء الاصطناعي التوليدي، إذ عندما طُلب منه إنشاء صور لأشخاص يعملون في مهن متخصصة، أظهر صغار سن وكبار سن، لكن كبار السن كانوا دائمًا من الرجال، مما يعزز التحيز الجنساني لدور المرأة في مكان العمل.
  • أدوات التنبؤ بالجريمة تُستخدم أدوات التنبؤ بالجريمة المدعومة بالذكاء الاصطناعي في بعض مؤسسات نظام العدالة الجنائية بهدف تحديد المناطق التي يُحتمل أن تحدث فيها الجرائم. ولكنها غالبًا ما تعتمد على بيانات الاعتقالات السابقة، مما قد يُكرّس الأنماط القائمة من التنميط العنصري والاستهداف غير المتوازن لمجتمعات الأقليات.

الحد من التحيز وحوكمة الذكاء الاصطناعي

يبدأ تحديد التحيز في الذكاء الاصطناعي ومعالجته بحوكمة الذكاء الاصطناعي، أو القدرة على توجيه أنشطة الذكاء الاصطناعي في المؤسسة وإدارتها ومراقبتها. من الناحية العملية، تُنشئ حوكمة الذكاء الاصطناعي مجموعة من السياسات والممارسات والأطر لتوجيه التطوير المسؤول لتقنيات الذكاء الاصطناعي واستخدامها. عندما تتم حوكمة الذكاء الاصطناعي بشكل جيد، تضمن حوكمة الذكاء الاصطناعي تحقيق التوازن بين الفوائد التي تعود على الشركات والعملاء والموظفين والمجتمع ككل.

من خلال سياسات حوكمة الذكاء الاصطناعي، يمكن للشركات بناء الممارسات التالية:

  • الامتثال - يجب أن تكون حلول الذكاء الاصطناعي والقرارات المتعلقة بالذكاء الاصطناعي متسقة مع لوائح المجال والمتطلبات القانونية ذات الصلة.
  • الثقة — تبني الشركات التي تعمل على حماية معلومات العملاء ثقةً في العلامة التجارية ومن المرجح أن تنشئ أنظمة الذكاء الاصطناعي الجديرة بالثقة.
  • الشفافية - بسبب تعقيدات الذكاء الاصطناعي، يمكن أن تكون الخوارزمية عبارة نظام صندوق أسود مع القليل من المعلومات عن البيانات المستخدمة في إنشائها. تساعد الشفافية على ضمان استخدام بيانات غير متحيزة لبناء النظام وأن تكون النتائج عادلة.
  • الكفاءة - أحد أكبر وعود الذكاء الاصطناعي هو تقليل العمل اليدوي وتوفير وقت الموظفين. يجب تصميم الذكاء الاصطناعي للمساعدة في تحقيق أهداف العمل وتحسين سرعة الوصول إلى السوق وتقليل التكاليف.
  • الإنصاف - غالبًا ما تتضمن حوكمة الذكاء الاصطناعي أساليب تهدف إلى تقييم الإنصاف والمساواة والشمول. وتتمكن مناهج مثل الإنصاف المضاد للواقع من تحديد التحيز في قرارات النموذج وتضمن نتائج عادلة حتى عند تغيير السمات الحساسة، مثل الجنس أو العرق أو التوجه الجنسي.
  • اللمسة البشرية - تقدم عمليات مثل نظام "التدخل البشري" (human-in-the-loop) خيارات أو تقدم توصيات تتم مراجعتها بعد ذلك من قبل البشر قبل اتخاذ قرار لتوفير طبقة أخرى من ضمان الجودة.
  • يُعد التعلم المعزَّز من تقنيات التعلم غير الخاضع للإشراف، ويعتمد على نظام المكافآت والعقوبات لتعليم النماذج كيفية تنفيذ المهام. وتشير McKinsey إلى أن هذا النوع من التعلم يتجاوز التحيزات البشرية، ويملك القدرة على إنتاج حلول واستراتيجيات غير مسبوقة لم تكن لتخطر حتى على بال أكثر الخبراء خبرة.

التحيز والذكاء الاصطناعي وIBM

يمكن أن يكون المزيج المناسب من التقنيات عاملًا حاسمًا في بناء استراتيجية فعالة لحوكمة البيانات والذكاء الاصطناعي، على أن تضم هذه الاستراتيجية هيكل بيانات حديث وذكاءً اصطناعيًا موثوقًا. وتُعد أدوات تنسيق السياسات داخل بنية نسيج البيانات خيارًا مثاليًا لتبسيط عمليات تدقيق الذكاء الاصطناعي المعقدة. ومن خلال دمج تدقيق الذكاء الاصطناعي والعمليات المرتبطة به ضمن سياسات الحوكمة في هيكل البيانات، يمكن للمؤسسات تحديد المجالات التي تتطلب رقابة مستمرة.

في شركة IBM Consulting، نساعد العملاء على إعداد عملية تقييم للتحيز ومجالات أخرى. ومع توسع نطاق تبني الذكاء الاصطناعي وتطور الابتكارات، سينضج التوجيه الأمني، كما هو الحال مع كل تقنية تم دمجها في نسيج المؤسسة على مر السنين. فيما يلي، نشارك بعض أفضل الممارسات من IBM لمساعدة المؤسسات على الاستعداد للنشر الآمن للذكاء الاصطناعي عبر بيئاتها:

  1. الاستفادة من الذكاء الاصطناعي الموثوق به من خلال تقييم سياسات وممارسات البائعين.
  2. تمكين الوصول الآمن إلى المستخدمين والنماذج والبيانات.
  3. حماية نماذج الذكاء الاصطناعي والبيانات والبنية التحتية من الهجمات المعادية.
  4. تنفيذ حماية خصوصية البيانات في مراحل التدريب والاختبار والعمليات.
  5. إجراء نمذجة التهديدات وممارسات الترميز الآمن في دورة حياة مطوري الذكاء الاصطناعي.
  6. إجراء الكشف عن التهديدات والاستجابة لها لتطبيقات الذكاء الاصطناعي والبنية التحتية.
  7. تقييم نضج الذكاء الاصطناعي باستخدام إطار عمل IBM للذكاء الاصطناعي
 
حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا