بينما تزداد المنافسة لتحقيق الذكاء الاصطناعي التوليدي، يستمر الجدل الأخلاقي المحيط بالتقنية في التصاعد أيضًا. والمخاطر تزداد باستمرار.
وفقًا لـ Gartner: «تقع على عاتق المؤسسات مسؤولية ضمان أن المشاريع القائمة على الذكاء الاصطناعي التي تطورها أو تنشرها أو تستخدمها لا تُحدث عواقب أخلاقية سلبية.» وفي الوقت نفسه، يقول 79% من المسؤولين التنفيذيين إن أخلاقيات الذكاء الاصطناعي مهمة في نهجهم الشامل تجاه الذكاء الاصطناعي، ولكن أقل من 25% فقط قد طبقوا مبادئ حوكمة الأخلاقيات على أرض الواقع.
يحتل الذكاء الاصطناعي أيضًا مكانة عالية في قائمة اهتمامات حكومة الولايات المتحدة. في أواخر فبراير، أعلن رئيس مجلس النواب Mike Johnson وقائد الديمقراطيين Hakeem Jeffries عن تأسيس فرقة عمل ثنائية الحزب حول الذكاء الاصطناعي لدراسة كيفية ضمان استمرار أمريكا في قيادة الابتكار العالمي في هذا المجال. كما ستنظر فرقة العمل في الضوابط اللازمة لحماية البلاد من التهديدات الحالية والناشئة، وضمان تطوير تقنيات آمنة وجديرة بالثقة.
من الواضح أن الحوكمة الجيدة أساسية للتصدي للمخاطر المرتبطة بالذكاء الاصطناعي.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
مع تبني الشركات للذكاء الاصطناعي بشكل متزايد في عملياتها اليومية، أصبح الاستخدام الأخلاقي لهذه التقنية موضوعًا محوريًا. وتكمن المشكلة في أن المؤسسات غالبًا ما تعتمد على مبادئ مؤسسية واسعة النطاق، جنبًا إلى جنب مع مجالس تقييم قانونية أو مستقلة، لتقييم المخاطر الأخلاقية لحالات استخدام الذكاء الاصطناعي الفردي.
ومع ذلك، وفقًا لدراسة الحالة من Gartner، قد تكون مبادئ أخلاقيات الذكاء الاصطناعي عامة للغاية أو مجردة. وبعد ذلك، يواجه قادة المشاريع صعوبة في تحديد ما إذا كانت حالات استخدام الذكاء الاصطناعي الفردية أخلاقية أم لا. وفي الوقت نفسه، تفتقر فرق القانون وفرق التقييمات إلى رؤية حول كيفية استخدام الذكاء الاصطناعي فعليًا في الأعمال. كل هذا يفتح الباب أمام الاستخدام غير الأخلاقي للذكاء الاصطناعي، سواء كان مقصودًا أم لا، وما يترتب عليه من مخاطر تتعلق بالأعمال والامتثال.
ونظرًا إلى التأثير المحتمل، فلا بد من معالجة المشكلة على مستوى الحوكمة أولاً. بعد ذلك، يجب أن يتبع التنفيذ المؤسسي اللاحق مع الضوابط والتوازنات المناسبة.
وفقًا لدراسة الحالة، طور قادة الأعمال والخصوصية في IBM إطار حوكمة لمعالجة المخاوف الأخلاقية المتعلقة بمشاريع الذكاء الاصطناعي. ويتم تعزيز هذا الإطار من خلال أربعة أدوار أساسية:
لجنة الاستشارات السياسية: يكون القادة الكبار مسؤولين عن تحديد الأهداف التنظيمية والسياسات العامة العالمية، بالإضافة إلى تقييم المخاطر والإستراتيجيات المتعلقة بالخصوصية والبيانات وأخلاقيات التقنية.
مجلس أخلاقيات الذكاء الاصطناعي: يرأسه بشكل مشترك مسؤول أخلاقيات الذكاء الاصطناعي العالمي في IBM Research والمسؤول التنفيذي للخصوصية والثقة، ويضم المجلس فريقًا مركزيًا ومتعدد الوظائف يحدد سياسات وممارسات واتصالات أخلاقيات الذكاء الاصطناعي في IBM ويحافظ عليها ويقدم المشورة بشأنها.
نقاط تركيز أخلاقيات الذكاء الاصطناعي: تحتوي كل وحدة أعمال على نقاط تركيز (ممثلين عن الوحدة) يعملون كنقطة اتصال أولى لتحديد المخاوف المتعلقة بأخلاقيات التقنية بشكل استباقي وتقييمها، وتخفيف المخاطر في حالات الاستخدام الفردية، وإحالة المشاريع إلى مجلس أخلاقيات الذكاء الاصطناعي للمراجعة. ويعتمد جزء كبير من حوكمة الذكاء الاصطناعي على هؤلاء الأفراد، كما سنرى لاحقًا.
شبكة الدعم: شبكة أساسية من الموظفين تعمل على تعزيز ثقافة استخدام الذكاء الاصطناعي بشكل أخلاقي ومسؤول وجدير بالثقة. ويسهم هؤلاء الداعمون في مجالات العمل المفتوحة ويساعدون على توسيع نطاق مبادرات أخلاقيات الذكاء الاصطناعي في جميع أنحاء المؤسسة.
إذا تم تحديد قضية تتعلق بأخلاقيات الذكاء الاصطناعي، تبدأ نقطة التركيز المخصصة لوحدة الأعمال المعنية بحالة الاستخدام عملية تقييم. وتنفذ نقطة التركيز هذه العملية على الخطوط الأمامية، ما يتيح تصنيف الحالات منخفضة المخاطر بشكل فعّال. بالنسبة إلى الحالات ذات المخاطر الأعلى، يتم إكمال التقييم الرسمي للمخاطر وتصعيده إلى مجلس أخلاقيات الذكاء الاصطناعي للمراجعة.
يتم تقييم كل حالة استخدام باستخدام الإرشادات بما في ذلك:
الخصائص المرتبطة والاستخدام المقصود: يحقق في طبيعة حالة الاستخدام المعينة والغرض المقصود منها ومستوى المخاطر المرتبطة بها. هل يمكن أن تسبب حالة الاستخدام ضررًا؟ مَن المستخدم النهائي؟ هل يتم انتهاك أي حقوق فردية؟
الامتثال التنظيمي: يحدد ما إذا كان سيتم التعامل مع البيانات بأمان ووفقًا لقوانين الخصوصية المعمول بها واللوائح التنظيمية.
حالات الاستخدام التي تمت مراجعتها سابقًا: تقدم معارف وتوصيات للخطوات التالية استنادًا إلى حالات الاستخدام التي راجعها مجلس أخلاقيات الذكاء الاصطناعي سابقًا. وتتضمن قائمة بحالات استخدام الذكاء الاصطناعي التي تتطلب موافقة المجلس.
الامتثال لمبادئ أخلاقيات الذكاء الاصطناعي: يحدد ما إذا كانت حالات الاستخدام تستوفي المتطلبات الأساسية، مثل التوافق مع مبادئ العدالة والشفافية وقابلية التفسير والصلابة والخصوصية.
وفقًا لتقرير Gartner، فقد حقق تطبيق إطار حوكمة الذكاء الاصطناعي فوائد لشركة IBM من خلال:
توسيع نطاق أخلاقيات الذكاء الاصطناعي: تعمل نقاط التركيز على تعزيز الامتثال وبدء التقييمات في وحدات أعمالهم، ما يتيح إجراء مراجعات لأخلاقيات الذكاء الاصطناعي على نطاق واسع.
زيادة التوافق الإستراتيجي لرؤية أخلاقيات الذكاء الاصطناعي: تتواصل نقاط التركيز مع المسؤولين التقنيين والفكريين ومسؤولي الأعمال في مجال أخلاقيات الذكاء الاصطناعي داخل الشركة وعلى مستوى العالم.
تسريع إتمام المشاريع والمقترحات منخفضة المخاطر: من خلال تصنيف الخدمات أو المشاريع منخفضة المخاطر، تمكّن نقاط التركيز من مراجعة المشاريع بسرعة أكبر.
تعزيز جاهزية مجلس الإدارة واستعداده: من خلال تمكين نقاط التركيز لتوجيه أخلاقيات الذكاء الاصطناعي في وقت مبكر من العملية، يمكن لمجلس أخلاقيات الذكاء الاصطناعي تقييم أي حالة استخدام متبقية بشكل أكثر كفاءة.
عندما ظهر ChatGPT لأول مرة في يونيو 2020، كان العالم بأسره مليئًا بالتوقعات الجامحة. والآن، تشير اتجاهات الذكاء الاصطناعي الحالية إلى توقعات أكثر واقعية حول التقنية. قد تجذب الأدوات المستقلة مثل ChatGPT اهتمام الجمهور، ولكن التكامل الفعّال لها ضمن الخدمات القائمة سيحدث تغييرات أعمق عبر مختلف الصناعات.
مما لا شك فيه أن الذكاء الاصطناعي يفتح الباب أمام أدوات وتقنيات جديدة قوية لإنجاز العمل. ومع ذلك، فإن المخاطر المرتبطة بها حقيقية أيضًا. يفتح رفع قدرات الذكاء الاصطناعي متعددة الوسائط وتقليل الحواجز أمام الدخول الباب أيضًا للإساءة: فقد تصبح التزييفات العميقة ومشكلات الخصوصية واستمرار التحيز وحتى التهرب من أنظمة الحماية مثل CAPTCHA أكثر سهولة بالنسبة إلى المجموعات الخبيثة.
في حين أن الجهات الفاعلة السيئة تستخدم الذكاء الاصطناعي بالفعل، يجب على عالم الأعمال المشروعة أيضًا اتخاذ تدابير وقائية للحفاظ على سلامة الموظفين والعملاء والمجتمعات.
يقول ChatGPT: "قد تشمل العواقب السلبية استمرار التحيزات التي تفرضها خوارزميات الذكاء الاصطناعي وانتهاكات الخصوصية وتفاقم أوجه عدم المساواة في المجتمع أو الأضرار غير المقصودة للأفراد أو المجتمعات. بالإضافة إلى ذلك، قد تكون هناك آثار على الثقة أو ضرر بالسمعة أو تبعات قانونية ناجمة عن ممارسات الذكاء الاصطناعي غير الأخلاقية."
لحماية الأنظمة من هذه الأنواع من المخاطر، تُعد حوكمة أخلاقيات الذكاء الاصطناعي أمرًا أساسيًا.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.