التحضير لقانون الذكاء الاصطناعي للاتحاد الأوروبي: التطبيق الصحيح للحوكمة
8 فبراير 2024
4 دقائق للقراءة

يقود قانون الذكاء الاصطناعي للاتحاد الأوروبي مستويات جديدة من الرقابة البشرية والامتثال التنظيمي للذكاء الاصطناعي (AI) داخل الاتحاد الأوروبي. على غرار اللائحة العامة لحماية البيانات (GDPR) المعنية بالخصوصية، فإن قانون الذكاء الاصطناعي للاتحاد الأوروبي لديه القدرة على تحديد مسار لوائح الذكاء الاصطناعي القادمة في جميع أنحاء العالم.

في أوائل عام 2024، قام البرلمان الأوروبي المكون من 27 دولة بالموافقة بإجماع الأعضاء على قانون الاتحاد الأوروبي للذكاء الاصطناعي. ويشق القانون الآن طريقه خلال المراحل النهائية من العملية التشريعية ومن المتوقع أن يتم طرحه على مراحل في النصف الثاني من عام 2024. يعد فهم أحكام قانون الاتحاد الأوروبي للذكاء الاصطناعي (الرابط موجود خارج موقع ibm.com) والاستعداد للامتثال له أمرًا ضروريًا لأي مؤسسة تعمل على تطوير الذكاء الاصطناعي أو نشره أو استخدامه، أو تخطط لذلك.

يهدف قانون الذكاء الاصطناعي إلى "تعزيز مكانة أوروبا كمركز عالمي للتميز في مجال الذكاء الاصطناعي من المختبر إلى السوق، وضمان احترام الذكاء الاصطناعي في أوروبا للقيم والقواعد المحددة، وتسخير إمكانات الذكاء الاصطناعي للاستخدام الصناعي."

- أخبار البرلمان الأوروبي (الرابط موجود خارج ibm.com)

قانون الذكاء الاصطناعي للاتحاد الأوروبي بإيجاز

ينصب التركيز الأساسي لقانون الذكاء الاصطناعي للاتحاد الأوروبي على تعزيز الامتثال التنظيمي في مجالات إدارة المخاطر وحماية البيانات وأنظمة إدارة الجودة والشفافية والرقابة البشرية والدقة والمتانة والأمن الإلكتروني. ويهدف إلى تعزيز الشفافية والمساءلة في كيفية تطوير أنظمة الذكاء الاصطناعي ونشرها، مما يساعد على ضمان أن تكون منتجات الذكاء الاصطناعي المطروحة في السوق آمنة للاستخدام من قبل الأفراد.

يهدف قانون الذكاء الاصطناعي للاتحاد الأوروبي إلى مواجهة التحدي المتمثل في تطوير ونشر الذكاء الاصطناعي بشكل مسؤول عبر المجالات المختلفة بما في ذلك تلك التي تخضع للوائح تنظيمية صارمة مثل الرعاية الصحية والتمويل والطاقة. بالنسبة إلى المجالات التي تقدم الخدمات الأساسية للعملاء مثل التأمين والبنوك والبيع بالتجزئة، يتطلب القانون استخدام تقييم أساسي لمدى التأثير على الحقوق والذي يوضح بالتفصيل كيفية تأثير استخدام الذكاء الاصطناعي على حقوق العملاء.

حجر الزاوية في قانون الذكاء الاصطناعي للاتحاد الأوروبي هو: ضمانات لمنع المخاطر غير المقبولة

يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي أن تلتزم نماذج الذكاء الاصطناعي المخصصة للأغراض العامة، بما في ذلك أنظمة الذكاء الاصطناعي التوليدي مثل النماذج اللغوية الكبيرة (LLMs) ونماذج الأساس، بنظام تصنيف يعتمد على مستويات مخاطر منهجية. تتمتع مستويات المخاطر الأعلى بمزيد من متطلبات الشفافية بما في ذلك تقييم النموذج والتوثيق وإعداد التقارير. كما أنها تتضمن تقييم مخاطر النظام والتخفيف من حدتها، والإبلاغ عن الحوادث الخطيرة، وتوفير الحماية ضد أحداث الأمن الإلكتروني. بالإضافة إلى ذلك، تشمل متطلبات الشفافية هذه الحفاظ على وثائق فنية محدثة، وتقديم ملخص للمحتوى المستخدم في تدريب النموذج، والامتثال لقوانين حقوق النشر الأوروبية.

يتبع قانون الذكاء الاصطناعي للاتحاد الأوروبي نهجًا قائمًا على المخاطر، باستخدام مستويات لتصنيف مستوى المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على صحة الفرد أو سلامته أو حقوقه الأساسية. المستويات الثلاثة هي:

  • الأنظمة منخفضة المخاطر مثل فلاتر الرسائل غير المرغوب فيها أو ألعاب الفيديو لها متطلبات قليلة بموجب القانون بخلاف التزامات الشفافية. 
  • تتطلب أنظمة الذكاء الاصطناعي عالية الخطورة مثل المركبات ذاتية القيادة والأجهزة الطبية والبنية التحتية الحيوية (شبكات المياه والغاز والكهرباء وغيرها) من المطورين والمستخدمين الالتزام بمتطلبات تنظيمية إضافية:
    • تنفيذ إدارة المخاطر، وتوفير الدقة والمتانة، وإطار عمل للمساءلة يتضمن رقابة بشرية
    • تلبية متطلبات الشفافية المنصوص عليها للمستخدمين، وحفظ السجلات، والتوثيق التقني
  • الأنظمة المحظورة مع استثناءات قليلة هي الأنظمة التي تشكل مخاطر غير مقبولة مثل التسجيل الاجتماعي، والتعرف على الوجه، والتعرف على المشاعر، وأنظمة تحديد الهوية البيومترية عن بُعد في الأماكن العامة.

يفرض قانون الاتحاد الأوروبي للذكاء الاصطناعي أيضًا قواعد حول طريقة إخطار العملاء عند استخدام روبوت المحادثة أو عند استخدام نظام التعرف على المشاعر الإنسانية. هناك متطلبات إضافية لتصنيف المنتجات فادحة التزييف وتحديد وقت استخدام محتوى الذكاء الاصطناعي التوليدي في الوسائط.

إن عدم الامتثال لقانون الذكاء الاصطناعي بالاتحاد الأوروبي قد يكون مكلفًا (يوجد الرابط خارج موقع ibm.com):

7.5 مليون يورو أو 1.5٪ من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة تقديم معلومات غير صحيحة. 15 مليون يورو أو 3٪ من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة انتهاك التزامات قانون الذكاء الاصطناعي للاتحاد الأوروبي.

— VentureBeat

يُعد قانون الذكاء الاصطناعي للاتحاد الأوروبي حاليًا الإطار القانوني الأكثر شمولاً للوائح الذكاء الاصطناعي. تحيط الحكومات في جميع أنحاء العالم علمًا وتناقش بنشاط كيفية تنظيم تقنية الذكاء الاصطناعي لضمان حماية مواطنيها وشركاتها ووكالاتها الحكومية من المخاطر المحتملة. بالإضافة إلى ذلك، بدأت الأطراف المعنية بداية من مجالس إدارات الشركات وحتى المستهلكين في إعطاء الأولوية للثقة والشفافية والإنصاف والمساءلة عندما يتعلق الأمر بالذكاء الاصطناعي.

الاستعداد للوائح التنظيمية القادمة مع شركة IBM

يساعدك IBM watsonx.governance على تسريع مسارات عمل الذكاء الاصطناعي المسؤولة والشفافة والقابلة للشرح

™IBM® watsonx.governance تسمح لك بتسريع تنفيذ حوكمة الذكاء الاصطناعي لديك، وتوجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي التي تقوم بها مؤسستك. وتستخدم أتمتة البرامج لتعزيز قدرتك على تخفيف المخاطر وإدارة متطلبات السياسات وحوكمة دورة حياة كل من الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي (ML) التنبؤي.

تساعد منصة Watsonx.governance على تعزيز شفافية النموذج وقابلية الشرح والتوثيق في 3 مجالات رئيسية:

  • الامتثال - المساعدة في إدارة شفافية الذكاء الاصطناعي وتلبية متطلبات الامتثال للسياسات والمعايير. يمكنك ربط البيانات بعناصر التحكم الرئيسية في المخاطر واستخدام صحائف الوقائع لأتمتة التقاط البيانات الوصفية للنموذج وإعداد التقارير بشأنها لدعم الاستفسارات وعمليات التدقيق.
  • إدارة المخاطر تعيين حدود المخاطر مسبقًا، مما يساعد على اكتشاف مخاطر نموذج الذكاء الاصطناعي وتخفيفها بشكل استباقي. يمكنك مراقبة الإنصاف والانحراف والتحيز والأداء مقابل مقاييس التقييم وحالات اللغة السامة ومن أجل حماية معلومات تحديد الهوية الشخصية (PII). واحصل على رؤى حول المخاطر المؤسسية من خلال لوحات المعلومات والتقارير المستندة إلى المستخدم.
  • حوكمة دورة الحياة — المساعدة في إدارة كل من الذكاء الاصطناعي التوليدي ونماذج التعلّم الآلي التنبؤي عبر دورة الحياة باستخدام تدفقات العمل والموافقات المتكاملة، ومراقبة حالة حالات الاستخدام وطلبات التغيير قيد المعالجة والتحديات والمشكلات والمهام المعينة.

يتحمل العميل مسؤولية ضمان الامتثال للقوانين واللوائح السارية عليها. لا تقدم شركة IBM مشورة قانونية، ولا تتعهد ولا تضمن قدرة خدماتها أو منتجاتها على إلزام العميل بالامتثال لأي قانون أو لائحة.

 
مؤلف
Heather Gentile Director of watsonx.governance Product Management, IBM Data and AI Software