ما تحتاجه المؤسسات لإدارة الذكاء الاصطناعي بشكل مسؤول

زملاء عمل يتعاونون ويتبادلون النقاشات حول العمل

المؤلفون

Teaganne Finn

Staff Writer

IBM Think

سأقولها بصراحة: العديد من المؤسسات تستخدم الذكاء الاصطناعي، سواء أدركت ذلك أم لا. السؤال هو، كيف. كيف تستخدم المؤسسات الذكاء الاصطناعي؟ وكيف تعرف أنها تقوم بذلك بطريقة مسؤولة؟

تقول Phaedra Boinodiris، القائدة العالمية للذكاء الاصطناعي الموثوق في IBM® Consulting، إن كسب الثقة في الذكاء الاصطناعي يُعدّ تحديًا اجتماعيًا-تقنيًا، وأكثر جوانبه صعوبة يتعلق بالعنصر البشري. ويمكن تقسيم المنهجية الشاملة المطلوبة إلى ثلاثة مكونات: الأفراد، والعمليات، والأدوات، إلى جانب بعض المبادئ الأساسية للتعامل معها داخل المؤسسة.

عند التفكير في الأفراد، يتم التركيز على تحديد الثقافة المؤسسية المناسبة المطلوبة لتنظيم الذكاء الاصطناعي بطريقة مسؤولة. ثمة حاجة إلى عمليات حوكمة للذكاء الاصطناعي لجمع الجرد والبيانات الوصفية المناسبة، وإجراء تقييمات للمخاطر، وغير ذلك الكثير. كما يجب على المؤسسات أن تمتلك الأدوات الصحيحة ضمن أطر عمل هندسة الذكاء الاصطناعي، لتُستخدم عبر دورة حياة الذكاء الاصطناعي، لضمان أن النماذج تعكس النية الصحيحة.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

ثلاثة مبادئ أساسية

وتشير Boinodiris إلى أن من بين هذه المكونات الثلاثة، يبقى "الأفراد" هم الجانب الأصعب عند محاولة تحقيق التوازن الصحيح للذكاء الاصطناعي المسؤول داخل المؤسسة.

حيث تقول: "الحصول على ثقافة تنظيمية مناسبة أمر بالغ الصعوبة. وعند التفكير في طبيعة هذه الثقافة التنظيمية المطلوبة لتنظيم الذكاء الاصطناعي بمسؤولية، هناك بعض المبادئ الأساسية".

المبدأ 1: التواضع 

المبدأ الأول هو الدخول إلى هذا المجال بقدر كبير من "التواضع"، لأن أعضاء المؤسسة يأتون إليه وهم بحاجة إلى أن يتعلموا الكثير، وأيضًا أن يتخلّوا عن بعض المفاهيم. وتقصد Boinodiris بعبارة "التخلي عن بعض المفاهيم" أن نُعيد التفكير في مَن يستحق أن يكون له مقعد على طاولة النقاش في هذه المواضيع. ينبغي أن يشمل النقاش حول الذكاء الاصطناعي أفرادًا من تخصصات متعددة وخلفيات متنوعة، من أجل تطوير الذكاء الاصطناعي بطريقة شاملة.

وهذا يعني أن امتلاك "عقلية النمو" سيكون أمرًا أساسيًا لتعزيز الذكاء الاصطناعي المسؤول. وتضيف Boinodiris أن المؤسسات بحاجة إلى توفير الأمان النفسي لموظفيها، ومساحة آمنة لإجراء محادثات قد تكون صعبة تتعلق بموضوع الذكاء الاصطناعي.

المبدأ 2: اختلاف وجهات النظر العالمية

أما المبدأ الثاني، فهو الاعتراف بأن الناس يأتون من تجارب حياتية مختلفة، وكل وجهة نظر لها أهميتها. ويجب على المؤسسات أن تعترف بتنوع قواها العاملة، وبالأشخاص الذين يطوّرون نماذج الذكاء الاصطناعي ويشرفون على حوكمتها. الأمر لا يتعلق فقط بالجنس أو العِرق أو الإثنية أو التوجه الجنسي، بل يتعلق بالمنظور والخبرة الحياتية.

تقول: "ما أعنيه بصدق هو أن الأشخاص الذين عاشوا تجارب حياتية مختلفة يجب أن يكونوا حاضرين على طاولة النقاش عندما نفكر في أسئلة مثل: هل هذا مناسب؟" هل سيحل هذا الأمر المشكلة؟ هل هذه هي البيانات الصحيحة؟ ما الخطأ الذي يمكن أن يحدث؟ ما شكل الضرر المحتمل؟” — هكذا تساءلت Boinodiris.

المبدأ 3: التخصصات المتعددة

وفي النهاية، يجب أن تكون الفرق أو الأفراد الذين يطوّرون هذه النماذج ويشرفون على حوكمتها داخل المؤسسة من تخصصات متعددة. ويعني ذلك وجود فريق من أشخاص ذوي خلفيات متنوعة—مثل علماء الاجتماع، وعلماء الأنثروبولوجيا، والخبراء القانونيين—لأنهم يشكّلون العنصر الأساسي لتطوير الذكاء الاصطناعي بمسؤولية.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال.ومن المفهوم أيضًا أنه موضوع شائك.سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

الاعتراف بالتحيز

وتوضح Boinodiris أن من بين الأساطير الشائعة حول الذكاء الاصطناعي الاعتقاد بأن 100% من العمل يتمثل في البرمجة. لكنها تقول إن هذا غير صحيح.

“نحن نعلم جيدًا أن أكثر من 70% من الجهد يتمثّل في تحديد ما إذا كانت هذه هي البيانات المناسبة للاستخدام أم لا. أكثر ما يثير اهتمامي بشأن البيانات، وهو التعريف المفضل لدي، أنها تمثل أثرًا من آثار التجربة الإنسانية”، بحسب قولها.

فالبشر هم من ينتجون البيانات، وهم من يصمّمون الآلات التي تنتجها، لكن لا بد من الاعتراف بأن الجميع لديه نوعًا من التحيّز—وبحسب Boinodiris، هناك 188 نوعًا من التحيزات. وقد رافقت هذه التحيّزات البشرية الإنسان منذ فجر التاريخ، ولسبب وجيه. 

وتُشبّه Boinodiris الذكاء الاصطناعي بالمرآة من حيث أنه يعكس تحيّزات الفرد إليه. وفي النهاية، فإن المسألة تتعلّق بامتلاك الشجاعة الكافية للنظر إلى تلك "المرآة" ومساءلة النفس: هل تعكس هذه الصورة القيم التي تؤمن بها المؤسسة؟

شفافية القيادة

ويجب على المؤسسات المسؤولة عن تطوير نماذج الذكاء الاصطناعي أن تكون شفافة بشأن أسباب اختيارها لمجموعة بيانات معينة أو لنهج معين. أو أسباب تفضيلها لطريقة عمل على أخرى. ويجب على الأشخاص إنشاء صحيفة وقائع لحلول الذكاء الاصطناعي التي يُطوّرونها، تحتوي على معلومات مهمة عن النموذج.

على سبيل المثال، ما الاستخدام المقصود المناسب؟ من أين جاءت البيانات؟ ما المنهجية المُتبعة؟ من المسؤول؟ متى يُدقَّق النموذج؟ وبأي وتيرة؟ ما سبب تدقيقه؟ وما نتائج تلك التدقيقات؟ وهكذا.

وفي جانب آخر، يجب أن يكون لدى الأفراد الوعي الذاتي الكافي لتحديد ما إذا كانت هذه "الصورة" لا تعكس قيمهم. وإذا كان الأمر كذلك، يجب تغيير المنهجية.

وتقول Boinodiris: “لذا، عندما تسمع شخصًا يقول: ‘نموذج الذكاء الاصطناعي الخاص بي خالٍ تمامًا من التحيّز’، تذكّر هذا: كل البيانات متحيّزة. "الأساس هو أن تكون شفافًا بشأن السبب الذي جعلك ترى أن هذه البيانات هي الأهم لتضمينها في نموذجك." ولا تنسَ أن تظلّ دائمًا في حالة تأمل داخلي، لأن وجهات نظرنا ومبادئنا ستتغير بمرور الوقت.

الثقة في الذكاء الاصطناعي تُكتسب، ولا تُمنح. عليك أن تخوض محادثات صعبة مع أعضاء الفريق حول مصادر تحيّزاتهم، والاعتراف بأن تطوير نموذج ذكاء اصطناعي موثوق ومسؤول ليس مسارًا خطيًّا، بل يتطلب جهدًا حقيقيًا.

حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا