ما المقصود بحوكمة الذكاء الاصطناعي؟

10 أكتوبر 2024

المؤلفين

Tim Mucci

IBM Writer

Gather

Cole Stryker

Editorial Lead, AI Models

ما المقصود بحوكمة الذكاء الاصطناعي؟

تشير حوكمة الذكاء الاصطناعي (AI) إلى العمليات والمعايير والضوابط التي تساعد في ضمان أن تكون أنظمة وأدوات الذكاء الاصطناعي آمنة وأخلاقية. إطارات حوكمة الذكاء الاصطناعي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه للمساعدة في ضمان السلامة والعدالة واحترام حقوق الإنسان.

تتضمن الحوكمة الفعَّالة للذكاء الاصطناعي آليات الإشراف التي تعالج المخاطر مثل التحيز وانتهاك الخصوصية وسوء الاستخدام مع تعزيز الابتكار وبناء الثقة. يتطلب النهج الأخلاقي المرتكز على الذكاء الاصطناعي في حوكمة الذكاء الاصطناعي مشاركة مجموعة واسعة من الأطراف المعنية، بما في ذلك مطورو الذكاء الاصطناعي، والمستخدمون، وصناع السياسات، وعلماء الأخلاقيات، ما يضمن تطوير واستخدام الأنظمة المتعلقة بالذكاء الاصطناعي بما يتماشى مع قيم المجتمع.

تعالج حوكمة الذكاء الاصطناعي العيوب المتأصلة الناشئة عن العنصر البشري في إنشاء وصيانة الذكاء الاصطناعي. نظرًا لأن الذكاء الاصطناعي هو نتاج كود مصمم هندسيًا بشكل متقن وتعلم آلي (ML) تم إنشاؤه بواسطة البشر، فهو عرضة للتحيزات والأخطاء البشرية التي يمكن أن تؤدي إلى التمييز وغيره من الأضرار للأفراد.

توفر الحوكمة نهجاً منظمًا للتخفيف من هذه المخاطر المحتملة. يمكن أن يشمل هذا النهج سياسة سليمة للذكاء الاصطناعي، وتنظيمًا، وحوكمة للبيانات. يساعد ذلك في ضمان مراقبة وتقييم وتحديث خوارزميات التعلم الآلي لمنع القرارات المعيبة أو الضارة، وأن مجموعات البيانات مدربة ومصانة بشكل جيد.

تهدف الحوكمة أيضًا إلى إرساء الرقابة اللازمة لمواءمة سلوكيات الذكاء الاصطناعي مع المعايير الأخلاقية والتوقعات المجتمعية من أجل الحماية من الآثار السلبية المحتملة.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

ما أهمية حوكمة الذكاء الاصطناعي ؟

تُعَد حوكمة الذكاء الاصطناعي ضرورية للوصول إلى حالة من الامتثال والثقة والكفاءة في تطوير وتطبيق تقنيات الذكاء الاصطناعي. ومع تزايد تكامل الذكاء الاصطناعي في العمليات التنظيمية والحكومية، أصبح احتمال تأثيره السلبي أكثر وضوحًا. في الواقع، تُظهر أبحاث غير منشورة صادرة عن IBM Institute for Business Value أن 80% من قادة الأعمال يعتبرون قابلية تفسير الذكاء الاصطناعي، أو الأخلاقيات، أو التحيّز، أو الثقة، من العوائق الرئيسية أمام تبني الذكاء الاصطناعي التوليدي.

أبرزت الأخطاء الجسيمة مثل حادثة روبوت المحادثة Tay، حيث تعلم روبوت ذكاء اصطناعي من Microsoft سلوكيات سامة من التفاعلات العامة على وسائل التواصل الاجتماعي، وقرارات الأحكام المتحيزة لبرنامج COMPAS، الحاجة إلى حوكمة سليمة لمنع الضرر والحفاظ على ثقة الجمهور.

تُظهر هذه الحالات أن الذكاء الاصطناعي يمكن أن يتسبب في أضرار اجتماعية وأخلاقية كبيرة دون رقابة مناسبة، مما يؤكد على أهمية الحوكمة في إدارة المخاطر المرتبطة بالذكاء الاصطناعي المتقدم. تهدف حوكمة الذكاء الاصطناعي، من خلال توفير إرشادات وأطر عمل، إلى تحقيق التوازن بين الابتكار التكنولوجي والسلامة، مما يساعد على ضمان عدم انتهاك أنظمة الذكاء الاصطناعي لكرامة الإنسان أو حقوقه.

الشفافية في اتخاذ القرارات والقابلية للشرح أمران بالغا الأهمية لضمان استخدام أنظمة الذكاء الاصطناعي بمسؤولية وبناء الثقة. تتخذ أنظمة الذكاء الاصطناعي قرارات طوال الوقت، بدءًا من تحديد الإعلانات التي يجب عرضها وصولًا إلى تحديد ما إذا كان سيتم الموافقة على قرض أم لا. من الضروري فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي للقرارات لمحاسبتها على قراراتها والمساعدة في ضمان اتخاذها بشكل عادل وأخلاقي.

وعلاوة على ذلك، فإن حوكمة الذكاء الاصطناعي لا تقتصر على المساعدة في ضمان الامتثال لمرة واحدة؛ بل تتعلق أيضًا بالحفاظ على المعايير الأخلاقية بمرور الوقت. يمكن لنماذج الذكاء الاصطناعي أن تنحرف، مما يؤدي إلى تغييرات في جودة وموثوقية المخرجات. الاتجاهات الحالية في الحوكمة تتجاوز مجرد الامتثال القانوني نحو ضمان المسؤولية الاجتماعية للذكاء الاصطناعي، وبالتالي الحماية من الأضرار المالية والقانونية والمتعلقة بالسمعة، مع تعزيز النمو المسؤول للتكنولوجيا.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

أمثلة على حوكمة الذكاء الاصطناعي

تشمل أمثلة حوكمة الذكاء الاصطناعي مجموعة من السياسات والأطر والممارسات التي تنفذها المنظمات والحكومات للمساعدة في ضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي. توضح هذه الأمثلة كيفية حدوث حوكمة الذكاء الاصطناعي في سياقات مختلفة:

اللائحة العامة لحماية البيانات (GDPR): تعد اللائحة العامة لحماية البيانات مثالاً على حوكمة الذكاء الاصطناعي، لا سيما في سياق حماية البيانات الشخصية والخصوصية. في حين أن اللائحة العامة لحماية البيانات (GDPR) لا تركز حصريًا على الذكاء الاصطناعي، إلا أن العديد من أحكامها وثيقة الصلة بأنظمة الذكاء الاصطناعي، خاصة تلك التي تعالج البيانات الشخصية للأفراد داخل الاتحاد الأوروبي.

منظمة التعاون الاقتصادي والتنمية (OECD): تشدد مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي، التي اعتمدتها أكثر من 40 دولة، على الإدارة المسؤولة للذكاء الاصطناعي الجدير بالثقة، بما في ذلك الشفافية والإنصاف والمساءلة في أنظمة الذكاء الاصطناعي.

مجالس أخلاقيات الذكاء الاصطناعي: أنشأت العديد من الشركات مجالس أو لجانًا للإشراف على مبادرات الذكاء الاصطناعي، لضمان توافقها مع المعايير الأخلاقية والقيم المجتمعية. على سبيل المثال، منذ عام 2019، راجع مجلس أخلاقيات الذكاء الاصطناعي في IBM المنتجات والخدمات الجديدة للذكاء الاصطناعي لضمان توافقها مع مبادئ IBM في هذا المجال. غالبًا ما تتضمن هذه المجالس فِرقًا متعددة الوظائف من خلفيات قانونية وتقنية وسياسية.  

من يشرف على حوكمة الذكاء الاصطناعي المسؤول؟

في مجموعة على مستوى المؤسسة، يكون الرئيس التنفيذي والإدارة العليا مسؤولين في نهاية المطاف عن ضمان تطبيق مؤسستهم لحوكمة سليمة للذكاء الاصطناعي طوال دورة حياة الذكاء الاصطناعي. يؤدي المستشارون القانونيون والمستشارون العامون دورًا حاسمًا في تقييم وتخفيف المخاطر القانونية، وضمان امتثال تطبيقات الذكاء الاصطناعي للقوانين واللوائح ذات الصلة. وفقًا لتقرير صادر عن IBM Institute for Business Value، فإن 80% من المؤسسات لديها جزء منفصل من وظيفة المخاطر مخصص للمخاطر المرتبطة باستخدام الذكاء الاصطناعي أو الذكاء الاصطناعي التوليدي.

تُعد فرق التدقيق ضرورية للتحقق من سلامة بيانات أنظمة الذكاء الاصطناعي والتأكد من أن الأنظمة تعمل على النحو المنشود دون إدخال أخطاء أو تحيزات. يشرف المدير المالي على الآثار المالية، وإدارة التكاليف المرتبطة بمبادرات الذكاء الاصطناعي وتخفيف أي مخاطر مالية. 

ومع ذلك، فإن مسؤولية حوكمة الذكاء الاصطناعي لا تقع على عاتق فرد أو قسم واحد؛ بل هي مسؤولية جماعية حيث يجب على كل قائد أن يضع المساءلة على رأس أولوياته ويساعد في ضمان استخدام أنظمة الذكاء الاصطناعي بشكل مسؤول وأخلاقي في جميع أنحاء المؤسسة.

الرئيس التنفيذي والقيادة العليا مسؤولان عن تحديد التوجه العام للمؤسسة وثقافتها. عند إعطاء الأولوية لحوكمة الذكاء الاصطناعي المسؤول، فإنه يرسل رسالة واضحة لجميع الموظفين مفادها أنه يجب على الجميع استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي. كما يمكن للرئيس التنفيذي والقيادة العليا الاستثمار في تدريب الموظفين على حوكمة الذكاء الاصطناعي، وتطوير السياسات والإجراءات الداخلية بشكل فعال، وخلق ثقافة التواصل المفتوح والتعاون.

مبادئ ومعايير حوكمة الذكاء الاصطناعي المسؤول

تُعد حوكمة الذكاء الاصطناعي ضرورية لإدارة التطورات السريعة في تكنولوجيا الذكاء الاصطناعي، خاصة مع ظهور الذكاء الاصطناعي التوليدي. يتمتع الذكاء الاصطناعي التوليدي، الذي يشمل التقنيات القادرة على إنشاء محتوى وحلول جديدة، مثل النصوص والصور والأكواد، بإمكانيات هائلة في العديد من حالات الاستخدام.

يُحدث الذكاء الاصطناعي التوليدي تحولًا في طريقة عمل الصناعات، بدءًا من تعزيز العمليات الإبداعية في التصميم والإعلام وصولًا إلى أتمتة المهام في تطوير البرمجيات. ومع ذلك، مع قابلية تطبيقه على نطاق واسع، تأتي الحاجة إلى حوكمة قوية للذكاء الاصطناعي.

إن مبادئ الحوكمة الذكاء الاصطناعي المسؤول ضرورية للمؤسسة لحماية نفسها وعملائها. يمكن لهذه المبادئ أن توجه المؤسسات في التطوير الأخلاقي لتقنيات الذكاء الاصطناعي وتطبيق التقنية، والتي تشمل:

  • التعاطف: يجب أن تفهم المؤسسات الآثار المجتمعية للذكاء الاصطناعي، وليس فقط الجوانب التكنولوجية والمالية. إنهم بحاجة إلى توقع ومعالجة تأثير الذكاء الاصطناعي على جميع الأطراف المعنية.

  • التحكم في التحيز: من الضروري فحص بيانات التدريب بدقة لمنع تضمين التحيزات الواقعية في خوارزميات الذكاء الاصطناعي، مما يساعد على ضمان عمليات صنع القرار العادلة وغير المتحيزة.

  • الشفافية: يجب أن يكون هناك وضوح وانفتاح في كيفية عمل خوارزميات الذكاء الاصطناعي واتخاذ القرارات، مع استعداد المؤسسات لشرح المنطق والأسباب وراء النتائج التي تقودها الذكاء الاصطناعي.

  • المساءلة: يجب على المؤسسات أن تضع معايير عالية وتلتزم بها بشكل استباقي لإدارة التغييرات الكبيرة التي يمكن أن يجلبها الذكاء الاصطناعي، مع الحفاظ على المسؤولية عن تأثيرات الذكاء الاصطناعي.

بينما تعمل اللوائح التنظيمية وقوى السوق على توحيد العديد من المقاييس، لا يزال يتعين على المؤسسات تحديد أفضل السبل لتحقيق التوازن بين المقاييس الخاصة بأعمالها. قياس فعالية حوكمة الذكاء الاصطناعي يمكن أن يختلف من مؤسسة لأخرى، إذ يجب على كل مؤسسة تحديد مجالات التركيز التي يجب أن تعطيها الأولوية. بالتركيز على مجالات مثل جودة البيانات، وأمن النماذج، وتحليل التكلفة والقيمة، ومراقبة التحيز، والمساءلة الفردية، والتدقيق المستمر، والقدرة على التكيف للتعديل حسب مجال المنظمة، فإن القرار ليس قرارًا واحدًا يناسب الجميع.

مستويات حوكمة الذكاء الاصطناعي

إدارة الذكاء الاصطناعي لا تمتلك "مستويات" موحدة عالميًا، كما هو الحال، على سبيل المثال، في الأمن السيبراني حيث قد تكون هناك مستويات محددة للاستجابة للتهديدات. بدلاً من ذلك، تتضمن حوكمة الذكاء الاصطناعي مناهج وأطر منظمة تم تطويرها بواسطة كيانات مختلفة يمكن للمؤسسات تبنيها أو تكييفها لتلبية احتياجاتها الخاصة.

يمكن للمؤسسات استخدام العديد من أطر العمل والمبادئ التوجيهية لتطوير ممارسات الحوكمة الخاصة بها. تتضمن بعض الأطر الأكثر استخدامًا إطار إدارة مخاطر الذكاء الاصطناعي الخاص بالمعهد الوطني للمعايير والتقنية (NIST)، ومبادئ منظمة التعاون الاقتصادي والتنمية (OECD) بشأن الذكاء الاصطناعي، والمبادئ التوجيهية الأخلاقية للذكاء الاصطناعي الجدير بالثقة الصادرة عن المفوضية الأوروبية. توفر هذه الأطر إرشادات لمجموعة من المواضيع، بما في ذلك الشفافية والمساءلة والعدالة والخصوصية والأمن والسلامة.

يمكن أن تختلف مستويات الحوكمة حسب حجم المؤسسة ومدى تعقيد أنظمة الذكاء الاصطناعي المستخدمة والبيئة التنظيمية التي تعمل فيها المؤسسة.

نظرة عامة على هذه النهج:

الحوكمة غير الرسمية

هذا هو النهج الأقل كثافة للحوكمة على أساس قيم ومبادئ المؤسسة. قد تكون هناك بعض العمليات غير الرسمية، مثل لجان المراجعة الأخلاقية أو اللجان الداخلية، ولكن لا يوجد هيكل أو إطار رسمي لحوكمة الذكاء الاصطناعي.

الحوكمة المخصصة

وهذه خطوة أعلى من الحوكمة غير الرسمية وتتضمن وضع سياسات وإجراءات محددة لتطوير الذكاء الاصطناعي واستخدامه. غالبا ما يتم تطوير هذا النوع من الحوكمة استجابة لتحديات أو مخاطر محددة وقد لا يكون شاملًا أو منهجيًا.

الحوكمة الرسمية

هذا هو أعلى مستوى من الحوكمة وينطوي على تطوير إطار عمل شامل لحوكمة الذكاء الاصطناعي. يعكس إطار العمل هذا قيم المؤسسة ومبادئها ويتماشى مع القوانين واللوائح ذات الصلة. وتشمل أطر العمل الرسمية عادة التقييم والمراجعات وعمليات الرقابة.

كيف تقوم المؤسسات بنشر حوكمة الذكاء الاصطناعي

يصبح مفهوم حوكمة الذكاء الاصطناعي أكثر حيوية مع انتشار الأتمتة، التي تعتمد على الذكاء الاصطناعي، في قطاعات تتنوع بين الرعاية الصحية والمالية والنقل والخدمات العامة. يمكن لقدرات الأتمتة التي يوفرها الذكاء الاصطناعي أن تعزز بشكل كبير من الكفاءة وصنع القرار والابتكار، ولكنها تطرح أيضًا تحديات تتعلق بالمساءلة والشفافية والاعتبارات الأخلاقية.

تتضمن حوكمة الذكاء الاصطناعي إنشاء هياكل تحكم قوية تحتوي على سياسات وإرشادات وأُطر لمعالجة هذه التحديات. وينطوي ذلك على وضع آليات لمراقبة أنظمة الذكاء الاصطناعي وتقييمها باستمرار، وضمان امتثالها للمعايير الأخلاقية واللوائح القانونية المعمول بها.

هياكل الحوكمة الفعالة في الذكاء الاصطناعي متعددة التخصصات، وتضم الأطراف المعنية من مجالات متنوعة، تشمل التكنولوجيا والقانون والأخلاق والأعمال. مع ازدياد تطور أنظمة الذكاء الاصطناعي واندماجها في جوانب حساسة من المجتمع، يصبح دور حوكمة الذكاء الاصطناعي في توجيه وتشكيل مسار تطور الذكاء الاصطناعي وتأثيره المجتمعي أكثر أهمية من أي وقت مضى.

تتضمن أفضل ممارسات حوكمة الذكاء الاصطناعي نهجاً يتجاوز مجرد الامتثال ليشمل نظامًا أكثر قوة لمراقبة وإدارة تطبيقات الذكاء الاصطناعي. بالنسبة للشركات على مستوى المؤسسات، يجب أن يتيح حل حوكمة الذكاء الاصطناعي الإشراف والتحكم الواسعين في أنظمة الذكاء الاصطناعي. فيما يلي نموذج لخريطة الطريق التي يجب مراعاتها:

  1. لوحة معلومات مرئية: استخدم لوحة معلومات توفر تحديثات في الوقت الفعلي حول صحة وحالة أنظمة الذكاء الاصطناعي، مما يوفر نظرة عامة واضحة للتقييمات السريعة.
     

  2. مقاييس درجة السلامة: قم بتطبيق نظام نقاط صحة شاملة لنماذج الذكاء الاصطناعي باستخدام مقاييس بديهية وسهلة الفهم لتبسيط عملية المراقبة.
     

  3. المراقبة الآلية: استخدم أنظمة الكشف الآلي للتحيز والانحراف والأداء والخلل للمساعدة في ضمان عمل النماذج بشكل صحيح وأخلاقي.
     

  4. تنبيهات الأداء: قم بإعداد التنبيهات عندما ينحرف النموذج عن معلمات الأداء المحددة مسبقًا، مما يتيح التدخلات في الوقت المناسب.
     

  5. المقاييس المخصصة: حدد المقاييس المخصصة التي تتوافق مع مؤشرات الأداء الرئيسية (KPIs) والحدود للمساعدة في ضمان مساهمة نتائج الذكاء الاصطناعي في أهداف العمل.
     

  6. مسارات التدقيق: الحفاظ على سجلات ومسارات تدقيق يمكن الوصول إليها بسهولة للمساءلة وتسهيل مراجعة قرارات وسلوكيات أنظمة الذكاء الاصطناعي.
     

  7. توافق أدوات المصدر المفتوح: اختر أدوات المصدر المفتوح المتوافقة مع منصات تطوير التعلم الآلي المختلفة للاستفادة من المرونة ودعم المجتمع.
     

  8. التكامل السلس: يساعد على ضمان تكامل منصة حوكمة الذكاء الاصطناعي بسلاسة مع البنية التحتية الحالية، بما في ذلك قواعد البيانات وأنظمة البرامج، لتجنب الصوامع وتمكين سير العمل الفعال.
     

بالالتزام بهذه الممارسات، يمكن للمؤسسات إنشاء إطار حوكمة قوي للذكاء الاصطناعي يدعم تطوير ونشر وإدارة الذكاء الاصطناعي بشكل مسؤول، مما يساعد على ضمان توافق أنظمة الذكاء الاصطناعي مع المعايير الأخلاقية والأهداف التنظيمية.

ما هي اللوائح التي تتطلب حوكمة الذكاء الاصطناعي؟

تم اعتماد ممارسات حوكمة الذكاء الاصطناعي ولوائح الذكاء الاصطناعي من قبل عدة دول لمنع التحيز والتمييز. من المهم تذكر أن اللوائح التنظيمية في تغير مستمر دائمًا، ويجب على المؤسسات التي تدير أنظمة الذكاء الاصطناعي المعقدة أن تراقب عن كثب تطور أطر العمل القانونية الإقليمية.

قانون الذكاء الاصطناعي للاتحاد الأوروبي

قانون الذكاء الاصطناعي للاتحاد الأوروبي، والمعروف أيضًا باسم EU AI Act أو AI Act، هو قانون يحكم عملية تطوير أو استخدام الذكاء الاصطناعي في الاتحاد الأوروبي (EU). يتبع القانون نهجًا قائمًا على المخاطر في التنظيم، ويطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.

يُعد قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي أول إطار عمل تنظيمي شامل في العالم للذكاء الاصطناعي، حيث يحظر القانون بعض حالات استخدام الذكاء الاصطناعي بشكل صريح، ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية على البعض الآخر.

يضع القانون أيضًا قواعد لنماذج الذكاء الاصطناعي ذات الأغراض العامة، مثل IBM® Granite™ ونموذج الأساس مفتوح المصدر Llama 3 الخاص بشركة Meta. يمكن أن تتراوح العقوبات بين 7.5 ملايين يورو أو 1.5% من حجم المبيعات السنوي في جميع أنحاء العالم إلى 35 مليون يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، اعتمادًا على نوع عدم الامتثال.

SR-11-7 التابع للولايات المتحدة

معيار حوكمة النماذج التنظيمي الأمريكي SR-11-7 هو معيار لحوكمة النماذج الفعالة والقوية في القطاع المصرفي.يتطلب التنظيم من مسؤولي البنوك تطبيق مبادرات إدارة مخاطر النماذج على مستوى الشركة، والاحتفاظ بقائمة جرد للنماذج المطبقة للاستخدام، أو التي هي قيد التطوير للتطبيق، أو التي تم إيقافها مؤخرًا.

يجب على قادة المؤسسات أيضًا إثبات أن نماذجهم تحقق الغرض التجاري الذي صُممت لحله، وأنها محدّثة ولم تنحرف عن مسارها. تطوير النموذج والتحقق من صحته يجب أن يمكّن أي شخص غير ملمّ بالنموذج من فهم عمليات النموذج، وقيوده، والافتراضات الرئيسية.

التوجيه الكندي بشأن اتخاذ القرار الآلي

يصف توجيه كندا بشأن اتخاذ القرار الآلي كيفية استخدام الحكومة للذكاء الاصطناعي لتوجيه القرارات في العديد من الإدارات.2 تستخدم التوجيهات نظاماً لتقييم التدخل البشري ومراجعة الأقران والمراقبة والتخطيط للطوارئ اللازمة لأداة الذكاء الاصطناعي المصممة لخدمة المواطنين.

يتعين على المؤسسات التي تطور حلول ذكاء اصطناعي ذات تقييم مرتفع إجراء مراجعتين مستقلتين من خبراء، ونشر إشعار عام بلغة مفهومة، وتصميم آلية احتياطية للتدخل البشري، وتنظيم دورات تدريبية دورية للنظام. نظرًا لأن التوجيه الكندي بشأن اتخاذ القرار الآلي هو توجيه لتطوير الذكاء الاصطناعي في الدولة، فإن اللائحة لا تؤثر بشكل مباشر على الشركات كما هو الحال في SR-11-7.

تطور لوائح الذكاء الاصطناعي في أوروبا

في أبريل 2021، قدمت المفوضية الأوروبية حزمة الذكاء الاصطناعي الخاصة بها، والتي تضمنت بيانات حول تعزيز نهج أوروبي للتميز والثقة، واقتراحًا لإطار قانوني بشأن الذكاء الاصطناعي.3

تُعلن البيانات أنه بينما تندرج معظم أنظمة الذكاء الاصطناعي في فئة "الحد الأدنى من المخاطر"، فإن أنظمة الذكاء الاصطناعي التي تم تحديدها على أنها "عالية المخاطر" ستكون مطلوبة للامتثال لمتطلبات أكثر صرامة، وسيتم حظر الأنظمة التي تعتبر "مخاطر غير مقبولة". يجب على المؤسسات أن تلتزم بهذه القواعد وإلا فإنها ستواجه غرامات.

    لوائح وإرشادات حوكمة الذكاء الاصطناعي في منطقة آسيا والمحيط الهادئ

    في عام 2023، أصدرت الصين تدابيرها المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي . بموجب القانون، يجب أن "تحترم" عملية توفير واستخدام خدمات الذكاء الاصطناعي التوليدي "الحقوق والمصالح المشروعة للآخرين" وأن "لا تعرض الصحة البدنية والعقلية للآخرين للخطر، ولا تنتهك حقوق صورة الآخرين، وحقوق السمعة، وحقوق الشرف، وحقوق الخصوصية، وحقوق المعلومات الشخصية".

    أصدرت دول أخرى في منطقة آسيا والمحيط الهادئ عدة مبادئ وإرشادات لتنظيم الذكاء الاصطناعي. في عام 2019، أصدرت الحكومة الفيدرالية في سنغافورة إطارًا يتضمن إرشادات لمعالجة قضايا أخلاقيات الذكاء الاصطناعي في القطاع الخاص، ومؤخرًا، في مايو 2024، أصدرت إطارًا للحوكمة خاصًا بالذكاء الاصطناعي التوليدي. تستكشف الهند واليابان وكوريا الجنوبية وتايلاند أيضًا إرشادات وتشريعات لحوكمة الذكاء الاصطناعي.3

    حلول ذات صلة
    IBM watsonx.governance

    يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

    اكتشف watsonx.governance
    خدمات استشارات إدارة الذكاء الاصطناعي

    تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

    استكشف خدمات حوكمة الذكاء الاصطناعي
    IBM OpenPages

    تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

    استكشف OpenPages
    اتخِذ الخطوة التالية

    يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

    استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
    الحواشي

    1 “SR 11-7: Guidance on model risk management.”, Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 April 2011. 

    2 “Canada's new federal directive makes ethical AI a national issue.” Digital, 8 March 2019.

    3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 16 August 2024.