يقود قانون الذكاء الاصطناعي للاتحاد الأوروبي مستويات جديدة من الرقابة البشرية والامتثال التنظيمي للذكاء الاصطناعي (AI) داخل الاتحاد الأوروبي. على غرار اللائحة العامة لحماية البيانات (GDPR) المعنية بالخصوصية، فإن قانون الذكاء الاصطناعي للاتحاد الأوروبي لديه القدرة على تحديد مسار لوائح الذكاء الاصطناعي القادمة في جميع أنحاء العالم.
في أوائل عام 2024، قام البرلمان الأوروبي المكون من 27 دولة بالموافقة بإجماع الأعضاء على قانون الاتحاد الأوروبي للذكاء الاصطناعي. ويشق القانون الآن طريقه خلال المراحل النهائية من العملية التشريعية ومن المتوقع أن يتم طرحه على مراحل في النصف الثاني من عام 2024. يعد فهم أحكام قانون الاتحاد الأوروبي للذكاء الاصطناعي (الرابط موجود خارج موقع ibm.com) والاستعداد للامتثال له أمرًا ضروريًا لأي مؤسسة تعمل على تطوير الذكاء الاصطناعي أو نشره أو استخدامه، أو تخطط لذلك.
يهدف قانون الذكاء الاصطناعي إلى "تعزيز مكانة أوروبا كمركز عالمي للتميز في مجال الذكاء الاصطناعي من المختبر إلى السوق، وضمان احترام الذكاء الاصطناعي في أوروبا للقيم والقواعد المحددة، وتسخير إمكانات الذكاء الاصطناعي للاستخدام الصناعي."
- أخبار البرلمان الأوروبي (الرابط موجود خارج ibm.com)
ينصب التركيز الأساسي لقانون الذكاء الاصطناعي للاتحاد الأوروبي على تعزيز الامتثال التنظيمي في مجالات إدارة المخاطر وحماية البيانات وأنظمة إدارة الجودة والشفافية والرقابة البشرية والدقة والمتانة والأمن الإلكتروني. ويهدف إلى تعزيز الشفافية والمساءلة في كيفية تطوير أنظمة الذكاء الاصطناعي ونشرها، مما يساعد على ضمان أن تكون منتجات الذكاء الاصطناعي المطروحة في السوق آمنة للاستخدام من قبل الأفراد.
يهدف قانون الذكاء الاصطناعي للاتحاد الأوروبي إلى مواجهة التحدي المتمثل في تطوير ونشر الذكاء الاصطناعي بشكل مسؤول عبر المجالات المختلفة بما في ذلك تلك التي تخضع للوائح تنظيمية صارمة مثل الرعاية الصحية والتمويل والطاقة. بالنسبة إلى المجالات التي تقدم الخدمات الأساسية للعملاء مثل التأمين والبنوك والبيع بالتجزئة، يتطلب القانون استخدام تقييم أساسي لمدى التأثير على الحقوق والذي يوضح بالتفصيل كيفية تأثير استخدام الذكاء الاصطناعي على حقوق العملاء.
يتطلب قانون الذكاء الاصطناعي للاتحاد الأوروبي أن تلتزم نماذج الذكاء الاصطناعي المخصصة للأغراض العامة، بما في ذلك أنظمة الذكاء الاصطناعي التوليدي مثل النماذج اللغوية الكبيرة (LLMs) ونماذج الأساس، بنظام تصنيف يعتمد على مستويات مخاطر منهجية. تتمتع مستويات المخاطر الأعلى بمزيد من متطلبات الشفافية بما في ذلك تقييم النموذج والتوثيق وإعداد التقارير. كما أنها تتضمن تقييم مخاطر النظام والتخفيف من حدتها، والإبلاغ عن الحوادث الخطيرة، وتوفير الحماية ضد أحداث الأمن الإلكتروني. بالإضافة إلى ذلك، تشمل متطلبات الشفافية هذه الحفاظ على وثائق فنية محدثة، وتقديم ملخص للمحتوى المستخدم في تدريب النموذج، والامتثال لقوانين حقوق النشر الأوروبية.
يتبع قانون الذكاء الاصطناعي للاتحاد الأوروبي نهجًا قائمًا على المخاطر، باستخدام مستويات لتصنيف مستوى المخاطر التي تشكلها أنظمة الذكاء الاصطناعي على صحة الفرد أو سلامته أو حقوقه الأساسية. المستويات الثلاثة هي:
يفرض قانون الاتحاد الأوروبي للذكاء الاصطناعي أيضًا قواعد حول طريقة إخطار العملاء عند استخدام روبوت المحادثة أو عند استخدام نظام التعرف على المشاعر الإنسانية. هناك متطلبات إضافية لتصنيف المنتجات فادحة التزييف وتحديد وقت استخدام محتوى الذكاء الاصطناعي التوليدي في الوسائط.
إن عدم الامتثال لقانون الذكاء الاصطناعي بالاتحاد الأوروبي قد يكون مكلفًا (يوجد الرابط خارج موقع ibm.com):
7.5 مليون يورو أو 1.5٪ من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة تقديم معلومات غير صحيحة. 15 مليون يورو أو 3٪ من إجمالي المبيعات السنوية للشركة في جميع أنحاء العالم (أيهما أعلى) في حالة انتهاك التزامات قانون الذكاء الاصطناعي للاتحاد الأوروبي.
— VentureBeat
يُعد قانون الذكاء الاصطناعي للاتحاد الأوروبي حاليًا الإطار القانوني الأكثر شمولاً للوائح الذكاء الاصطناعي. تحيط الحكومات في جميع أنحاء العالم علمًا وتناقش بنشاط كيفية تنظيم تقنية الذكاء الاصطناعي لضمان حماية مواطنيها وشركاتها ووكالاتها الحكومية من المخاطر المحتملة. بالإضافة إلى ذلك، بدأت الأطراف المعنية بداية من مجالس إدارات الشركات وحتى المستهلكين في إعطاء الأولوية للثقة والشفافية والإنصاف والمساءلة عندما يتعلق الأمر بالذكاء الاصطناعي.
يساعدك IBM watsonx.governance على تسريع مسارات عمل الذكاء الاصطناعي المسؤولة والشفافة والقابلة للشرح
™IBM® watsonx.governance تسمح لك بتسريع تنفيذ حوكمة الذكاء الاصطناعي لديك، وتوجيه وإدارة ومراقبة أنشطة الذكاء الاصطناعي التي تقوم بها مؤسستك. وتستخدم أتمتة البرامج لتعزيز قدرتك على تخفيف المخاطر وإدارة متطلبات السياسات وحوكمة دورة حياة كل من الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي (ML) التنبؤي.
تساعد منصة Watsonx.governance على تعزيز شفافية النموذج وقابلية الشرح والتوثيق في 3 مجالات رئيسية:
يتحمل العميل مسؤولية ضمان الامتثال للقوانين واللوائح السارية عليها. لا تقدم شركة IBM مشورة قانونية، ولا تتعهد ولا تضمن قدرة خدماتها أو منتجاتها على إلزام العميل بالامتثال لأي قانون أو لائحة.
يمكنك إضفاء المزيد من الشفافية من خلال حوكمة الذكاء الاصطناعي