ما قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي؟

رجل أعمال مبتسم يستخدم هاتفًا ذكيًا أثناء جلوسه بجانب مكتب كمبيوتر

المؤلفين

Matt Kosinski

Writer

Mark Scapicchio

Editor, Topics & Insights

IBM Think

ما قانون الذكاء الاصطناعي في الاتحاد الأوروبي؟

قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي، والمعروف أيضًا باسم EU AI Act أو قانون الذكاء الاصطناعي، هو قانون يُنظم عملية تطوير الذكاء الاصطناعي (AI) و/أو استخدامه في الاتحاد الأوروبي (EU). يتبع القانون نهجًا قائمًا على المخاطر في التنظيم، ويطبق قواعد مختلفة على الذكاء الاصطناعي وفقًا للمخاطر التي يشكلها.

يُعد قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي أول إطار عمل تنظيمي شامل في العالم للذكاء الاصطناعي، حيث يحظر القانون بعض حالات استخدام الذكاء الاصطناعي بشكل صريح، ويطبق متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية على بعضها الآخر.

يحدد القانون أيضًا بعض القواعد لنماذج الذكاء الاصطناعي عامة الأغراض، مثل نموذج الأساس مفتوح المصدر "Granite" التابع لشركة IBM ونموذج "Llama 3" التابع لشركة Meta.

يمكن أن تتراوح العقوبات بين 7.5 ملايين يورو أو 1.5% من حجم المبيعات السنوي في جميع أنحاء العالم إلى 35 مليون يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، اعتمادًا على نوع عدم الامتثال.

وبالطريقة نفسها التي يمكن أن تُلهم بها اللائحة العامة لحماية البيانات (GDPR) الصادرة عن الاتحاد الأوروبي الدول الأخرى لتبني قوانين خصوصية البيانات ، يتوقع الخبراء أن يحفز قانون الذكاء الاصطناعي في الاتحاد الأوروبي عملية تطوير معايير حوكمة الذكاء الاصطناعي و الأخلاقيات في جميع أنحاء العالم.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

مَن ينطبق عليه قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ينطبق قانون الذكاء الاصطناعي في الاتحاد الأوروبي على العديد من المشغلين في سلسلة قيم الذكاء الاصطناعي، مثل مقدمي الخدمات والناشرين والمستوردين والموزعين ومصنعي المنتجات والممثلين المعتمدين). وتجدر الإشارة إلى تعريفات مقدمي الخدمات والناشرين والمستوردين في ظل قانون الذكاء الاصطناعي في الاتحاد الأوروبي.

مقدمو الخدمات

مقدمو الخدمات هم الأشخاص أو المؤسسات التي تطور نظام الذكاء الاصطناعي أو نموذج الذكاء الاصطناعي عام الأغراض (GPAI)، أو التي تُطوره نيابةً عنها، والتي تطرحه في السوق أو توفر نظام الذكاء الاصطناعي كخدمة تحت اسمها أو علامتها التجارية.

يُعرّف القانون بشكل عام نظام الذكاء الاصطناعي على أنه نظام يمكنه، بمستوى معين من الذاتية، معالجة المدخلات لاستنتاج كيفية إنشاء النواتج (مثل التنبؤات والتوصيات والقرارات والمحتوى) التي يمكن أن تؤثر في البيئات الفعلية أو الافتراضية. ويُعرّف نماذج الذكاء الاصطناعي عامة الأغراض على أنها نماذج الذكاء الاصطناعي التي تُظهر عمومية كبيرة، وتتمكن من أداء مجموعة واسعة من المهام المتميزة بكفاءة، ويمكن دمجها في مجموعة متنوعة من أنظمة أو تطبيقات الذكاء الاصطناعي النهائية. على سبيل المثال، إذا كان نموذج الأساس نموذج ذكاء اصطناعي عام الأغراض؛ فروبوت المحادثة أو أداة الذكاء الاصطناعي التوليدي المبنية على هذا النموذج ستكون بمثابة نظام من أنظمة الذكاء الاصطناعي.

الناشرون

الناشرون هم أشخاص أو مؤسسات تستخدم أنظمة الذكاء الاصطناعي. على سبيل المثال، المؤسسة التي تستخدم روبوت المحادثة المدعوم بالذكاء الاصطناعي التابع لجهة خارجية للتعامل مع استفسارات خدمة العملاء ستكون من الناشرين.

المستوردون

المستوردون هم الأشخاص والمؤسسات الموجودة أو القائمة في دول الاتحاد الأوروبي التي تجلب أنظمة الذكاء الاصطناعي التابعة لشخص أو شركة منشأة خارج دول الاتحاد الأوروبي إلى سوق الاتحاد الأوروبي.

تطبيق القانون خارج الاتحاد الأوروبي

ينطبق قانون الذكاء الاصطناعي في الاتحاد الأوروبي أيضًا على مقدمي الخدمات والناشرين خارج دول الاتحاد الأوروبي، في حال استُخدم الذكاء الاصطناعي التابع لهم أو مخرجات الذكاء الاصطناعي داخل الاتحاد الأوروبي.

على سبيل المثال، لنفترض أن شركة ما في الاتحاد الأوروبي تُرسل البيانات إلى مقدم خدمات ذكاء اصطناعي من خارج الاتحاد الأوروبي، والذي يستخدم بدوره الذكاء الاصطناعي لمعالجة البيانات، ثم يُرسل النواتج مرة أخرى إلى الشركة الموجودة في الاتحاد الأوروبي من أجل استخدامها. نظرًا إلى استخدام نواتج نظام الذكاء الاصطناعي الخاص بمقدم الخدمات في الاتحاد الأوروبي، فإن مقدم الخدمات ملزم بقانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي.

يتعين على مقدمي الخدمات خارج الاتحاد الأوروبي الذين يقدمون خدمات الذكاء الاصطناعي داخل الاتحاد الأوروبي تعيين ممثلين معتمدين في الاتحاد الأوروبي من أجل تنسيق جهود الامتثال نيابة عنهم.

الاستثناءات

في حين أن القانون له نطاق واسع، فإن بعض حالات استخدام الذكاء الاصطناعي مستثناة من القانون. تُعد حالات الاستخدام الشخصية البحتة للذكاء الاصطناعي، ونماذج الذكاء الاصطناعي، والأنظمة المستخدمة في البحث العلمي والتطوير فقط من الأمثلة على حالات استخدام الذكاء الاصطناعي المستثناة.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال.ومن المفهوم أيضًا أنه موضوع شائك.سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

ما المتطلبات التي يفرضها قانون الذكاء الاصطناعي للاتحاد الأوروبي؟

ينظم قانون الذكاء الاصطناعي في الاتحاد الأوروبي أنظمة الذكاء الاصطناعي وفقًا لمستوى المخاطر. وتشير المخاطر هنا إلى احتمالية وقوع الضرر ومدى شدته. وتتضمن أهم الأحكام ما يلي:

  • حظر بعض ممارسات الذكاء الاصطناعي التي يُعتقد أنها تشكل مخاطر غير مقبولة،

  • المعايير الخاصة بتطوير أنظمة الذكاء الاصطناعي عالية المخاطر ونشرها،

  • قواعد نماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI).

أنظمة الذكاء الاصطناعي التي لا تندرج ضمن إحدى فئات المخاطر في قانون الذكاء الاصطناعي في الاتحاد الأوروبي لا تنطبق عليها متطلبات القانون (وغالبًا ما يُطلق عليها فئة "الحد الأدنى من المخاطر")، على الرغم من أن بعضها قد يحتاج إلى الوفاء بالتزامات الشفافية والامتثال للقوانين الأخرى السارية.  يمكن أن تشمل الأمثلة عوامل تصفية البريد الإلكتروني العشوائي وألعاب الفيديو. وتندرج العديد من حالات استخدام الذكاء الاصطناعي الشائعة في الوقت الحالي ضمن هذه الفئة.

ومن الجدير بالذكر أن العديد من التفاصيل الدقيقة المتعلقة بتنفيذ قانون الذكاء الاصطناعي في الاتحاد الأوروبي لا تزال قيد التسوية. على سبيل المثال، يشير القانون إلى أن مفوضية الاتحاد الأوروبي ستصدر مزيدًا من الإرشادات بشأن المتطلبات مثل خطط المراقبة بعد البيع وملخصات بيانات التدريب.

ممارسات الذكاء الاصطناعي المحظورة

ينص قانون الذكاء الاصطناعي في الاتحاد الأوروبي صراحةً على بعض ممارسات الذكاء الاصطناعي المحظورة التي تُعد من الممارسات التي تُشكل مستوى غير مقبول من المخاطر. على سبيل المثال، وفقًا للقانون، يُعد تطوير أو استخدام نظام ذكاء اصطناعي يتلاعب عمدًا بالأشخاص لحملهم على اتخاذ خيارات ضارة ما كانوا ليتخذوها لولا ذلك من الممارسات التي تُشكل خطرًا غير مقبول على المستخدمين، وهو من ممارسات الذكاء الاصطناعي المحظورة.

يمكن أن تعدل مفوضية الاتحاد الأوروبي قائمة الممارسات المحظورة في القانون، لذا يحتمل أن تُحظر المزيد من ممارسات الذكاء الاصطناعي في المستقبل.

 تتضمن قائمة جزئية لممارسات الذكاء الاصطناعي المحظورة في وقت نشر هذه المقالة ما يلي:

  • أنظمة التصنيف الاجتماعي—وهي الأنظمة التي تُقيّم الأفراد أو تصنفهم بناءً على سلوكهم الاجتماعي—ما يؤدي إلى معاملة مجحفة أو مهينة في ظروف اجتماعية لا علاقة لها بجمع البيانات الأصلية وغير مبررة أو غير متناسبة مع خطورة السلوك

  • أنظمة التعرف على المشاعر في أماكن العمل وفي المؤسسات التعليمية، باستثناء الحالات التي تستخدم فيها هذه الأدوات لأغراض طبية أو لأغراض السلامة

  • استخدام الذكاء الاصطناعي لاستغلال نقاط ضعف الأشخاص (على سبيل المثال، (على سبيل المثال، نقاط الضعف الناتجة عن العمر أو الإعاقة)

  • الجمع غير الموجّه لصور الوجه من الإنترنت أو كاميرات المراقبة (CCTV) من أجل قواعد بيانات التعرف على الوجه

  • أنظمة تحديد الهوية البيومترية التي تحدد هوية الأفراد بناءً على خصائص حساسة

  • التطبيقات الخاصة بالشرطة التنبئية

  • استخدام سلطات إنفاذ القانون لأنظمة تحديد الهوية البيومترية عن بُعد في الوقت الفعلي في الأماكن العامة (إلا إذا كان هناك استثناء، ويلزم عمومًا الحصول على إذن مسبق من سلطة قضائية أو إدارية مستقلة).

معايير الذكاء الاصطناعي عالي المخاطر

تُعد أنظمة الذكاء الاصطناعي عالية المخاطر بموجب قانون الذكاء الاصطناعي في الاتحاد الأوروبي إذا كانت منتجًا أو عنصرًا من عناصر السلامة في منتج ما يخضع لقوانين الاتحاد الأوروبي المحددة المشار إليها في القانون، مثل قوانين سلامة الألعاب وقوانين الأجهزة الطبية التشخيصية في المختبرات.

ينص القانون أيضًا على حالات استخدام محددة تُعد عادةً عالية المخاطر، بما في ذلك أنظمة الذكاء الاصطناعي المستخدمة فيما يلي:

  • في مجالات التوظيف، مثل تلك المستخدمة لتوظيف المرشحين، وتقييم المتقدمين للوظائف، واتخاذ قرارات الترقية

  • في بعض الأجهزة الطبية

  • في بعض مجالات التعليم والتدريب المهني

  • في العمليات القضائية والديمقراطية مثل الأنظمة التي تهدف إلى التأثير في نتائج الانتخابات

  • تحديد صلاحيات الوصول إلى الخدمات الأساسية الخاصة أو العامة، بما في ذلك الأنظمة التي تُقيّم الأهلية للحصول على الاستحقاقات العامة وتُقيّم درجات الائتمان.

  • في إدارة البنية التحتية الحيوية (على سبيل المثال، إمدادات المياه والغاز والكهرباء وما إلى ذلك)

  • في أي نظام تحديد هوية بيومترية غير محظور، باستثناء الأنظمة التي يكون الغرض الوحيد منها هو التحقق من هوية الشخص (على سبيل المثال، استخدام ماسح بصمات الأصابع لمنح شخص ما إذن الوصول إلى تطبيق مصرفي).

بالنسبة إلى الأنظمة المدرجة في هذه القائمة، قد يكون هناك استثناء إذا كان نظام الذكاء الاصطناعي لا يُشكل تهديدًا كبيرًا على صحة الأفراد أو سلامتهم أو حقوقهم. ويحدد القانون المعايير، التي ينبغي استيفاء واحد أو أكثر منها، قبل تطبيق أي استثناء (على سبيل المثال، عندما يكون الهدف من نظام الذكاء الاصطناعي أداء مهمة إجرائية محدودة). وفي حال الاعتماد على هذا الاستثناء، يتعين على مقدم الخدمة توثيق تقييم يفيد بأن النظام ليس عالي المخاطر، ويمكن أن يطلب المنظمون الاطلاع على هذا التقييم. لا ينطبق الاستثناء على أنظمة الذكاء الاصطناعي التي تعالج البيانات الشخصية تلقائيًا لتقييم أو التنبؤ ببعض جوانب حياة الشخص، مثل تفضيلات المنتجات (تحديد السمات)، والتي تُعد دائمًا عالية المخاطر.

كما هو الحال مع قائمة ممارسات الذكاء الاصطناعي المحظورة، قد تُحدث مفوضية الاتحاد الأوروبي قائمة أنظمة الذكاء الاصطناعي عالية المخاطر في المستقبل.

متطلبات أنظمة الذكاء الاصطناعي عالية المخاطر

ينبغي أن تُلبي أنظمة الذكاء الاصطناعي عالية المخاطر متطلبات محددة. وتشمل بعض الأمثلة عليها ما يلي:

  • تطوير نظام إدارة دائمة للمخاطر من أجل مراقبة الذكاء الاصطناعي طوال دورة عمله. على سبيل المثال، من المتوقع أن يحد مقدمو الخدمات من المخاطر المتوقعة بشكل كبير التي يُشكلها الاستخدام المزمع لأنظمتهم.

  • تبني ممارسات صارمة لحوكمة البيانات من أجل ضمان استيفاء بيانات التدريب والتحقق من الصحة والاختبار لمعايير الجودة المحددة. على سبيل المثال، ينبغي أن تكون هناك حوكمة لعملية جمع البيانات ومصادر البيانات، كما ينبغي أن تكون هناك تدابير لمنع التحيزات والحد منها.

  • الاحتفاظ بوثائق تقنية شاملة تتضمن معلومات محددة بما في ذلك مواصفات تصميم النظام، والإمكانات، والقيود، وجهود الامتثال التنظيمي.

وثمّة مزيد من الالتزامات التي تتعلق بالشفافية لأنواع محددة من الذكاء الاصطناعي، منها على سبيل المثال ما يلي:

  • ينبغي تصميم أنظمة الذكاء الاصطناعي الهادفة للتفاعل المباشر مع الأفراد بحيث تُخطر المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي، ما لم يكن ذلك واضحًا للفرد من السياق. على سبيل المثال، ينبغي تصميم روبوت المحادثة بحيث يُخطر المستخدمين بأنه روبوت محادثة.
     

  • ينبغي أن تستخدم أنظمة الذكاء الاصطناعي التي تُنشئ عبارات نصية أو صورًا أو أي محتوى آخر تنسيقات قابلة للقراءة آليًا لتحديد المخرجات كمخرجات مُنشأة أو معالجة بالذكاء الاصطناعي. ويشمل ذلك، على سبيل المثال، الذكاء الاصطناعي الذي يُنشئ الصور والمقاطع المزيفة—وهي الصور أو مقاطع الفيديو المعدلة لإظهار شخص يفعل أمرًا أو يقول شيئًا لم يفعله أو لم يقله من قبل.

التزامات مشغلي أنظمة الذكاء الاصطناعي عالية المخاطر

نسلط الضوء أدناه على بعض الالتزامات المفروضة على المشغلين الرئيسيين لأنظمة الذكاء الاصطناعي عالية المخاطر في سلسلة قيم الذكاء الاصطناعي—مقدمي الخدمات والناشرين—.

التزامات مقدمي خدمات أنظمة الذكاء الاصطناعي عالية المخاطر

يتعين على مقدمي خدمات أنظمة الذكاء الاصطناعي عالية المخاطر الامتثال للمتطلبات التي تشمل ما يلي:

  • ضمان امتثال أنظمة الذكاء الاصطناعي عالية المخاطر لمتطلبات أنظمة الذكاء الاصطناعي عالية المخاطر الموضحة في القانون. على سبيل المثال، تطوير نظام إدارة دائمة للمخاطر.

  • تطبيق نظام لإدارة الجودة.

  • تنفيذ خطط المراقبة بعد البيع بهدف مراقبة أداء نظام الذكاء الاصطناعي وتقييم مدى امتثاله الدائم طوال فترة استخدام النظام.

التزامات ناشري أنظمة الذكاء الاصطناعي عالية المخاطر

سيكون على ناشري أنظمة الذكاء الاصطناعي عالية المخاطر التزامات تشمل ما يلي:

 

  • اتخاذ التدابير التقنية والتنظيمية المناسبة لضمان استخدام هذه الأنظمة وفقًا لتعليمات استخدامها.

  • الاحتفاظ بسجلات نظام الذكاء الاصطناعي المُنشأة تلقائيًا، إلى الحد الذي تكون فيه تلك السجلات تحت سيطرتهم، لفترة محددة.

  • بالنسبة إلى الناشرين الذين يستخدمون أنظمة الذكاء الاصطناعي عالية المخاطر لتقديم خدمات أساسية معينة—مثل الهيئات الحكومية أو المؤسسات الخاصة التي تُقدم خدمات عامة—إجراء تقييمات لمدى التأثير في الحقوق الأساسية قبل استخدام بعض أنظمة الذكاء الاصطناعي عالية المخاطر للمرة الأولى.

 

قواعد نماذج الذكاء الاصطناعي ذات الأغراض العامة (GPAI)

يحدد قانون الذكاء الاصطناعي في الاتحاد الأوروبي قواعد منفصلة لنماذج الذكاء الاصطناعي عامة الأغراض (GPAI). وسيكون على مقدمي خدمات نماذج الذكاء الاصطناعي عامة الأغراض التزامات تشمل ما يلي:

  • وضع سياسات لاحترام قوانين حقوق النشر في الاتحاد الأوروبي.

  • كتابة ملخصات مفصلة لمجموعات بيانات التدريب وإتاحتها للجمهور.

في حال تصنيف أحد نماذج الذكاء الاصطناعي عامة الأغراض على أنه يُشكل خطرًا نظاميًا، فسيكون على مقدمي الخدمات التزامات إضافية. المخاطر النظامية هي مخاطر خاصة بالإمكانات عالية التأثير لنماذج الذكاء الاصطناعي عامة الأغراض التي لها تأثير كبير في سوق الاتحاد الأوروبي بسبب انتشارها أو بسبب الآثار السلبية الفعلية أو المتوقعة بشكل كبير على الصحة العامة أو السلامة أو الأمن العام أو الحقوق الأساسية أو المجتمع ككل، والتي يمكن أن تنتشر على نطاق واسع عبر سلسلة القيم. يستخدم القانون موارد التدريب كأحد المعايير لتحديد المخاطر النظامية—إذا كان المجموع التراكمي لقوة الحوسبة المستخدمة لتدريب نموذج أكثر من 10^25 من عمليات الفاصلة العشرية (FLOPs)، فمن المفترض أن تكون إمكاناتها عالية التأثير وتُشكل خطرًا نظاميًا. يمكن أن تُصنف مفوضية الاتحاد الأوروبي أيضًا نموذجًا على أنه يُشكل خطرًا نظاميًا.

سيكون على مقدمي خدمات نماذج الذكاء الاصطناعي عامة الأغراض التي تُشكل خطرًا نظاميًا، بما في ذلك النماذج المجانية مفتوحة المصدر، بعض الالتزامات الإضافية، مثل ما يلي:

  • توثيق الحوادث الخطيرة وإبلاغ مكتب الاتحاد الأوروبي للذكاء الاصطناعي والجهات التنظيمية المحلية المعنية عنها.

  • تطبيق تدابير أمن إلكتروني كافية لحماية النموذج وبنيته التحتية المادية.

غرامات قانون الاتحاد الأوروبي للذكاء الاصطناعي

في حال عدم الامتثال لممارسات الذكاء الاصطناعي المحظورة، يمكن أن تتكبّد المؤسسات غرامات يصل قدرها إلى 35000000 يورو أو 7% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

في معظم حالات الانتهاك الأخرى، بما في ذلك عدم الامتثال لمتطلبات أنظمة الذكاء الاصطناعي عالية المخاطر، يمكن أن تتكبد المؤسسات غرامة تصل إلى 15000000 يورو أو 3% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

يمكن أن يؤدي تقديم معلومات غير صحيحة أو ناقصة أو مضللة إلى السلطات إلى تكبد المؤسسات غرامة تصل إلى 7500000 يورو أو 1% من حجم المبيعات السنوي في جميع أنحاء العالم، أيهما أكثر.

وتجدر الإشارة إلى أن قانون الذكاء الاصطناعي في الاتحاد الأوروبي يحدد قواعد مختلفة لتغريم الشركات الناشئة وغيرها من المؤسسات الصغيرة والمتوسطة الحجم. بالنسبة إلى هذه الشركات، تكون الغرامة أقل المبلغَين المحتملَين المحددَين أعلاه.

متى دخل قانون الاتحاد الأوروبي للذكاء الاصطناعي حيز التنفيذ؟

دخل القانون حيز التنفيذ في 1 أغسطس 2024، مع دخول أحكام مختلفة من القانون حيز التنفيذ على مراحل. ومن أهم التواريخ ما يلي:

  • بدايةً من 2 فبراير 2025، سيدخل حظر ممارسات الذكاء الاصطناعي المحظورة حيز التنفيذ.

  • بدايةً من 2 أغسطس 2025، ستطبق قواعد الذكاء الاصطناعي عام الأغراض على نماذج الذكاء الاصطناعي عامة الأغراض الجديدة. وسيُمنح مقدمو خدمات نماذج الذكاء الاصطناعي عامة الأغراض المطروحة في السوق قبل 2 أغسطس 2025 مهلة حتى 2 أغسطس 2027 لتحقيق الامتثال.

  • بدايةً من 2 أغسطس 2026، ستدخل قواعد أنظمة الذكاء الاصطناعي عالية المخاطر حيز التنفيذ.

  • بدايةً من 2 أغسطس 2027، ستُطبق القواعد الخاصة بأنظمة الذكاء الاصطناعي التي هي منتجات أو عنصر من عناصر سلامة المنتجات الخاضعة لقوانين الاتحاد الأوروبي المحددة.
حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

يتحمل العميل مسؤولية ضمان الامتثال لجميع القوانين واللوائح المعمول بها. لا تقدم شركة IBM مشورة قانونية، ولا تتعهد ولا تضمن قدرة خدماتها أو منتجاتها على إلزام العميل بالامتثال لأي قانون أو لائحة.