مع زيادة استخدام الشركات للذكاء الاصطناعي (AI)، يتساءل الناس عن مدى التحيزات البشرية التي شقت طريقها إلى أنظمة الذكاء الاصطناعي. تُظهر لنا أمثلة على تحيز الذكاء الاصطناعي أ{ض الواقع أنه عندما يتم تضمين البيانات والخوارزميات التمييزية في نماذج الذكاء الاصطناعي، فإن النماذج تنشر التحيزات على نطاق واسع وتضخم الآثار السلبية الناتجة.
إن الشركات متحمسة لمواجهة تحدي التحيز في الذكاء الاصطناعي ليس فقط لتحقيق العدالة، ولكن أيضًا لضمان تحقيق نتائج أفضل. ومع ذلك، وكما ثبت أنه من الصعب القضاء على التحيز العنصري والجنسي المنهجي في العالم الحقيقي، فإن القضاء على التحيز في الذكاء الاصطناعي ليس بالمهمة السهلة.
في المقال الذي يحمل عنوان What AI can and can’t do (yet) for your business، يقول كاتبوا المقال Michael Chui وJames Manyika وMehdi Miremadi من McKinsey: "تميل مثل هذه التحيزات إلى البقاء راسخة، لأن التعرّف عليها ومعالجتها يتطلب إتقانًا عميقًا لتقنيات علوم البيانات،إلى جانب فهم أوسع للقوى الاجتماعية السائدة، بما في ذلك كيفية جمع البيانات. وإجمالاً، يُثبت عدم التحيز أنه من بين العقبات الأكثر صعوبة، وبالتأكيد الأكثر صعوبة اجتماعيًا، حتى الآن".
توفر الأمثلة على تحيز الذكاء الاصطناعي من الحياة الواقعية للمؤسسات رؤى مفيدة حول كيفية تحديد التحيز ومعالجته. من خلال النظر بشكل نقدي في هذه الأمثلة والنجاحات التي تحققت في التغلب على التحيز، يمكن لعلماء البيانات البدء في بناء خارطة طريق لتحديد ومنع التحيز في نماذج التعلم الآلي الخاصة بهم.
يشير تحيّز الذكاء الاصطناعي، ويُعرف أيضًا باسم تحيّز التعلم الآلي أو تحيّز الخوارزميات، إلى الأنظمة التي تُنتج نتائج متحيّزة تعكس التحيزات البشرية داخل المجتمع وتُكرّسها، بما في ذلك أوجه عدم المساواة الاجتماعية، سواء التاريخية أو الراهنة. يمكن أن ينشأ التحيّز من بيانات التدريب الأولية، أو من الخوارزمية نفسها، أو من التنبؤات الناتجة عنها.
عندما لا يتم التصدي للتحيز، فإنه يعيق قدرة الأشخاص على المشاركة في الاقتصاد والمجتمع. كما أنه يقلل من إمكانات الذكاء الاصطناعي. لا يمكن للشركات الاستفادة من الأنظمة التي تنتج نتائج مشوهة وتعزز عدم الثقة بين الأشخاص الملونين أو النساء أو الأشخاص ذوي الإعاقة أو مجتمع LGBTQ أو المجموعات المهمشة الأخرى من الـأشخاص.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
يتطلب القضاء على تحيز الذكاء الاصطناعي التعمق في مجموعات البيانات وخوارزميات التعلم الآلي والعناصر الأخرى المكونة لأنظمة الذكاء الاصطناعي لتحديد مصادر التحيز المحتمل.
تتعلم أنظمة الذكاء الاصطناعي اتخاذ القرارات بناءً على بيانات التدريب، لذلك من الضروري تقييم مجموعات البيانات بحثًا عن وجود تحيز. وتتمثل إحدى الطرق في مراجعة عينات البيانات بحثاً عن المجموعات الممثلة تمثيلاً زائداً أو ناقصاً ضمن بيانات التدريب. على سبيل المثال، قد تؤدي بيانات التدريب لخوارزمية التعرف على الوجه التي تفرط في تمثيل الأشخاص البيض إلى حدوث أخطاء عند محاولة التعرف على الوجه للأشخاص الملونين. وبالمثل، يمكن للبيانات الأمنية التي تتضمن معلومات تم جمعها في مناطق جغرافية يغلب عليها السود أن تخلق تحيزًا عرقيًا في أدوات الذكاء الاصطناعي التي تستخدمها الشرطة.
يمكن أن ينتج التحيز أيضًا عن كيفية تسمية بيانات التدريب. على سبيل المثال، يمكن لأدوات التوظيف بالذكاء الاصطناعي التي تستخدم تصنيفات غير متسقة أو تستبعد أو تفرط في تمثيل خصائص معينة أن تستبعد المتقدمين المؤهلين للوظائف من الدراسة.
يمكن أن يؤدي استخدام بيانات التدريب المعيبة إلى خوارزميات تنتج أخطاءً متكررة أو نتائج غير عادلة أو حتى تضخيم التحيز المتأصل في البيانات المعيبة. يمكن أن يحدث التحيز الخوارزمي أيضًا بسبب أخطاء في البرمجة، مثل قيام المطور بترجيح عوامل غير عادلة في اتخاذ القرارات الخوارزمية بناءً على تحيزاته الواعية أو اللاواعية. على سبيل المثال، يمكن أن تستخدم الخوارزمية مؤشرات مثل الدخل أو المفردات اللغوية للتمييز عن غير قصد ضد أشخاص من عرق أو جنس معين.
عندما يقوم الأشخاص بمعالجة المعلومات وإصدار الأحكام، فإننا نتأثر حتما بتجاربنا وتفضيلاتنا. ونتيجة لذلك، قد يقوم الأشخاص ببناء هذه التحيزات في أنظمة الذكاء الاصطناعي من خلال اختيار البيانات أو كيفية ترجيح البيانات. على سبيل المثال، يمكن أن يؤدي التحيز المعرفي إلى تفضيل مجموعات البيانات التي تم جمعها من الأمريكيين بدلاً من أخذ عينات من مجموعة من السكان حول العالم.
وفقًا للمعهد الوطني للمعايير والتكنولوجيا (NIST)، يعد مصدر التحيز هذا أكثر شيوعًا مما تعتقد. ففي تقريره بعنوان "نحو معيار قياسي لتحديد وإدارة التحيز في الذكاء الاصطناعي" (المنشور الخاص للمعهد الوطني للمعايير والتكنولوجيا رقم 1270)، لاحظ المعهد الوطني للمعايير والتكنولوجيا أن "العوامل المؤسسية والمجتمعية البشرية والنظامية تشكل أيضًا مصادر مهمة للتحيز في الذكاء الاصطناعي، ويتم تجاهلها حاليًا. وسيتطلب النجاح في مواجهة هذا التحدي أخذ جميع أشكال التحيز في الاعتبار. وهذا يعني توسيع منظورنا إلى ما هو أبعد من مسار التعلم الآلي للتعرف على كيفية إنشاء هذه التكنولوجيا داخل مجتمعنا وتأثيرها على حد سواء".
مع ازدياد وعي المجتمع بكيفية عمل الذكاء الاصطناعي وإمكانية حدوث التحيز، كشفت المؤسسات عن العديد من الأمثلة البارزة على التحيز في الذكاء الاصطناعي في مجموعة واسعة من حالات الاستخدام.
يبدأ تحديد التحيز في الذكاء الاصطناعي ومعالجته بحوكمة الذكاء الاصطناعي، أو القدرة على توجيه أنشطة الذكاء الاصطناعي في المؤسسة وإدارتها ومراقبتها. من الناحية العملية، تُنشئ حوكمة الذكاء الاصطناعي مجموعة من السياسات والممارسات والأطر لتوجيه التطوير المسؤول لتقنيات الذكاء الاصطناعي واستخدامها. عندما تتم حوكمة الذكاء الاصطناعي بشكل جيد، تضمن حوكمة الذكاء الاصطناعي تحقيق التوازن بين الفوائد التي تعود على الشركات والعملاء والموظفين والمجتمع ككل.
من خلال سياسات حوكمة الذكاء الاصطناعي، يمكن للشركات بناء الممارسات التالية:
يمكن أن يكون المزيج المناسب من التقنيات عاملًا حاسمًا في بناء استراتيجية فعالة لحوكمة البيانات والذكاء الاصطناعي، على أن تضم هذه الاستراتيجية هيكل بيانات حديث وذكاءً اصطناعيًا موثوقًا. وتُعد أدوات تنسيق السياسات داخل بنية نسيج البيانات خيارًا مثاليًا لتبسيط عمليات تدقيق الذكاء الاصطناعي المعقدة. ومن خلال دمج تدقيق الذكاء الاصطناعي والعمليات المرتبطة به ضمن سياسات الحوكمة في هيكل البيانات، يمكن للمؤسسات تحديد المجالات التي تتطلب رقابة مستمرة.
في شركة IBM Consulting، نساعد العملاء على إعداد عملية تقييم للتحيز ومجالات أخرى. ومع توسع نطاق تبني الذكاء الاصطناعي وتطور الابتكارات، سينضج التوجيه الأمني، كما هو الحال مع كل تقنية تم دمجها في نسيج المؤسسة على مر السنين. فيما يلي، نشارك بعض أفضل الممارسات من IBM لمساعدة المؤسسات على الاستعداد للنشر الآمن للذكاء الاصطناعي عبر بيئاتها:
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.