الامتثال للذكاء الاصطناعي: ما هو وسبب أهميته وكيفية البدء

رجل وامرأة يرتديان ملابس احترافية ينظران عن كثب إلى الكمبيوتر

المؤلفين

Amanda McGrath

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

بالنسبة للشركات الصغيرة والكبيرة، يرتبط الذكاء الاصطناعي (AI) بمجموعة متنوعة من الكلمات المثيرة مثل الابتكار والفرصة والميزة التنافسية. ولكن هناك كلمة أخرى يجب أن تكون في تلك القائمة: الامتثال.

وتستخدم نحو 73% من الشركات بالفعل الذكاء الاصطناعي التحليلي والتوليدي، ويقول 72% من الرؤساء التنفيذيين ذوي الأداء الأفضل إن الميزة التنافسية تعتمد على من يستخدم الذكاء الاصطناعي الأكثر تقدماً.1

لكن هذا الازدهار في استخدام الذكاء الاصطناعي وإمكاناته المثيرة يأتي مع مخاوف متزايدة بشأن أخلاقيات وسلامة التقنيات المدعومة بالذكاء الاصطناعي. إذا أدى التطوير المعيب إلى خوارزميات متحيزة تديم التمييز (في التوظيف أو إنفاذ القانون أو القرارات المالية، على سبيل المثال)، فقد تكون العواقب وخيمة وطويلة الأمد.

ونتيجة لذلك، تدرس الشركات والدول وصناع السياسات حوكمة الذكاء الاصطناعي ووضع قواعد جديدة لكيفية استخدام الذكاء الاصطناعي وتطويره. ألقِ نظرة على ماهية الامتثال للذكاء الاصطناعي، وسبب أهميته بالنسبة للشركات، والخطوات التي يمكن للشركات اتخاذها للبقاء متوافقة في مشهد تنظيمي سريع التطور.

ما المقصود بامتثال الذكاء الاصطناعي؟

يشير امتثال الذكاء الاصطناعي إلى القرارات والممارسات التي تمكّن الشركات من الالتزام بالقوانين واللوائح التي تحكم استخدام أنظمة الذكاء الاصطناعي. تتضمن هذه المعايير قوانين وأنظمة وسياسات داخلية مصممة للمساعدة في ضمان قيام المؤسسات بتطوير نماذج الذكاء الاصطناعي وخوارزمياتها بشكل مسؤول.

لكن عمليات امتثال الذكاء الاصطناعي تتجاوز مجرد تلبية المتطلبات القانونية. كما أنها تتعلق أيضًا ببناء الثقة مع الأطراف المعنية وتعزيز الشفافية والإنصاف في صنع القرار. كما أنها ضرورية للأمان. نظرًا لإمكانية استغلال الذكاء الاصطناعي من قِبل جهات خبيثة، فإن تدابير الأمن السيبراني الصارمة واستراتيجيات إدارة المخاطر تقع في صميم امتثال الذكاء الاصطناعي.

لماذا يعد امتثال الذكاء الاصطناعي مهمًا؟

تساعد عمليات امتثال الذكاء الاصطناعي الشركات على تجنب المخاطر المالية والقانونية ومخاطر السمعة المرتبطة باستخدام أدوات الذكاء الاصطناعي.

كلما زاد استخدام الشركات للذكاء الاصطناعي، زاد احتمال مواجهتها لمواقف تتخذ فيها التقنية منعطفات غير متوقعة أو خاطئة. على سبيل المثال، تخلت إحدى الشركات عن أداة الذكاء الاصطناعي للتوظيف بعد أن وجدت أنها تساهم في تعزيز التمييز بين الجنسين بسبب المواد المستخدمة في تدريبها.2 ووجدت التحقيقات أن بعض تطبيقات القروض التي تعتمد على الخوارزميات يمكن أن تؤدي إلى التمييز ضد المتقدمين الملونين.3

تدفع المخاوف بشأن هذه القضايا موجة من الجهود لتوحيد كيفية تطوير الذكاء الاصطناعي واستخدامه من قِبل الشركات. في عام 2024، أصبح الاتحاد الأوروبي أول سوق رئيسي يفرض قواعد حول الذكاء الاصطناعي مع إطلاق قانون الذكاء الاصطناعي للاتحاد الأوروبي. وتعمل الولايات القضائية الأخرى، بما في ذلك الولايات المتحدة والصين، أيضًا على تطوير لوائح الذكاء الاصطناعي الخاصة بها.

يمكن أن يكون عدم الامتثال مكلفًا. وبموجب اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR)، قد تواجه الشركات غرامات تصل إلى 20 مليون يورو أو 4% من إجمالي مبيعاتها السنوية، أيهما أعلى. في الولايات المتحدة، تستطيع لجنة التجارة الفيدرالية (FTC) اتخاذ إجراءات إنفاذ ضد الشركات بسبب الانتهاكات المتعلقة بالذكاء الاصطناعي، مثل استخدام خوارزميات التعلم الآلي المتحيزة.2

الامتثال ضروري أيضًا لحماية سمعة العلامة التجارية. وجد استطلاع للرأي أجرته KPMG عام 2024 أن 78% من المستهلكين يعتقدون أن المؤسسات التي تستخدم الذكاء الاصطناعي تتحمل مسؤولية المساعدة في ضمان تطويره بشكل أخلاقي.5 ويمكن أن يؤدي عدم القيام بذلك إلى فقدان ثقة الشركات والمستهلكين.

من خلال المساعدة في ضمان أن تكون أنظمة الذكاء الاصطناعي موثوقة وشفافة وخاضعة للمساءلة، يمكن للشركات دفع الابتكار وتحسين الكفاءة واكتساب ميزة تنافسية في السوق.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر رؤى وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

الامتثال أمر معقد: نسج شبكة من المتطلبات التنظيمية

إذا كان الامتثال التنظيمي يتعلق بتلبية مجموعة واحدة واضحة من المتطلبات، فسيكون التقدم أمرًا بسيطًا. ومع ذلك، وبنفس السرعة التي تتطور بها تقنيات الذكاء الاصطناعي، تتطور معها المبادئ التوجيهية المتنوعة التي تهدف إلى إدارتها.

تعقّد التقنية نفسها أنشطة الامتثال. يمكن أن يمثل فهم خوارزميات ونماذج الذكاء الاصطناعي وتفسيرها تحديًا تقنيًا، خاصة لأن العديد من أنظمة الذكاء الاصطناعي تعمل في الوقت الفعلي. قد تكون مواكبة اللوائح التنظيمية المتطورة بهذه السرعة أمرًا صعبًا، والمعدل السريع لتقدم الذكاء الاصطناعي يتطلب من الشركات تكييف برامج الامتثال الخاصة بها باستمرار.

تعمل الدول على سن معايير الذكاء الاصطناعي التي قد تعيد تشكيل كيفية إدارة هذه التقنية على مستوى العالم. بالإضافة إلى هذه القوانين واللوائح الخاصة بالذكاء الاصطناعي، تحتاج الشركات ومقدمو خدمات الذكاء الاصطناعي أيضًا إلى الامتثال لشبكة متنامية من القواعد المتعلقة بخصوصية البيانات والتمييز والأمن السيبراني. ومما يزيد الأمور تعقيدًا، فإن هذه المتطلبات لا تنطبق في بعض الأحيان على الشركات ومقدمي خدمات الذكاء الاصطناعي الذين يعملون في منطقتهم المحددة فحسب، بل تنطبق أيضًا على أي شخص يمارس أعمالًا تجارية في المنطقة.

 تتضمن بعض القضايا واللوائح الرئيسية ما يلي:

الاتحاد الأوروبي

تضع اللائحة العامة لحماية البيانات (GDPR ) في أوروبا معايير محددة فيما يتعلق بخصوصية البيانات وتحليل البيانات واستخدام البيانات الشخصية. ويحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي، والذي يعد أول إطار عمل شامل للذكاء الاصطناعي في العالم، بعض استخدامات الذكاء الاصطناعي ويفرض متطلبات إدارة المخاطر والشفافية على الآخرين. يتبع نهجًا قائمًا على المخاطر لتنظيم الذكاء الاصطناعي، مع تفويضات أكثر صرامة للأنظمة عالية المخاطر.

الولايات المتحدة

ليس لدى الولايات المتحدة لائحة شاملة حتى الآن، ولكن توجد متطلبات امتثال مختلفة على المستوى الفيدرالي ومستوى الولايات. على سبيل المثال، يضع الأمر التنفيذي بشأن الحفاظ على الريادة الأمريكية في مجال الذكاء الاصطناعي مبادئ توجيهية لتطوير الذكاء الاصطناعي واستخدامه. قد تنطبق أيضًا القوانين الخاصة بالصناعات، مثل قانون إخضاع التأمين الصحي لقابلية النقل والمساءلة (HIPAA) أو قانون الإبلاغ الائتماني العادل (FCRA)، على الذكاء الاصطناعي.

الصين

في أغسطس 2023، أدخلت الصين لوائح محددة للذكاء الاصطناعي التوليدي، تسمى التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي. تشمل هذه التدابير معايير المحتوى وقواعد خصوصية البيانات والتصنيفات وترخيص الذكاء الاصطناعي التوليدي. لدى الصين أيضًا لوائح تنظيمية محددة تستهدف خوارزميات التوصيات القائمة على الذكاء الاصطناعي وتقنيات التوليف العميق، مثل عمليات التزييف العميق.

الامتثال أمر بالغ الأهمية: القطاعات التي يكون فيها الامتثال أكثر أهمية

في حين أن امتثال الذكاء الاصطناعي أمر بالغ الأهمية في جميع القطاعات، إلا أنه مهم بشكل خاص في قطاعات مثل:

الرعاية الصحية

تشمل حالات استخدام الذكاء الاصطناعي في الرعاية الصحية تشخيص الأمراض واكتشاف الأدوية والطب الشخصي. قد يؤدي عدم الامتثال للوائح مثل قانون إخضاع التأمين الصحي لقابلية النقل والمساءلة (HIPAA) في الولايات المتحدة، والذي يحمي خصوصية المريض، إلى فرض غرامات أو تداعيات قانونية. ويمكن أن تؤدي الخوارزميات المتحيزة أو سيئة التدريب إلى تشخيص خاطئ أو خطط علاج غير مناسبة للمرضى.

الخدمات المالية

للذكاء الاصطناعي العديد من التطبيقات المالية، بدءًا من الكشف عن الغش وتقييم المخاطر إلى أنشطة مكافحة غسيل الأموال. ومع ذلك، يجب أن تتوافق تطبيقات الذكاء الاصطناعي هذه مع اللوائح التنظيمية مثل قانون الإبلاغ الائتماني العادل الأمريكي (FCRA) وتوجيه أسواق الأدوات المالية الأوروبي (MiFID II). تهدف جهود امتثال الذكاء الاصطناعي إلى منع الخوارزميات من التمييز في طلبات القروض وغيرها من عمليات صنع القرار الرئيسية.

الموارد البشرية

يستخدم متخصصو الموارد البشرية بشكل متزايد أدوات مدعومة بالذكاء الاصطناعي لأتمتة المهام الروتينية وتبسيط فحص السيرة الذاتية وتقييم المرشحين ومراقبة الموظفين. ولكن إذا تم تدريب الخوارزميات على بيانات منحرفة أو غير كافية، فقد تؤدي إلى تحيز غير عادل، وربما غير قانوني. يساعد الامتثال لقوانين مكافحة التمييز ولوائح حماية البيانات على ضمان الشفافية والإنصاف والخصوصية.

امتثال الذكاء الاصطناعي: ما تفعله الشركات الآن

يزداد وعي الشركات بالحاجة إلى الامتثال للمتطلبات التنظيمية الحالية للذكاء الاصطناعي والاستعداد للقواعد المستقبلية. وجد أحد الاستطلاعات التي أجريت على خبراء الامتثال والمخاطر الدوليين أن أكثر من نصف المشاركين في الاستطلاع لديهم مخاوف بشأن خصوصية البيانات والشفافية وسوء الاستخدام أو سوء الفهم فيما يتعلق بالذكاء الاصطناعي.6

ووجدت دراسة أخرى للمديرين التنفيذيين بالإدارة العليا أن 80% منهم يخططون لزيادة الاستثمار في نهج مسؤول للذكاء الاصطناعي لبناء الثقة في نماذجهم.7 ونتيجة لذلك، تتخذ العديد من الشركات خطوات استباقية للمساعدة في ضمان امتثال الذكاء الاصطناعي.

إنشاء أطر عمل الحوكمة الشاملة للذكاء الاصطناعي

تعمل بعض الشركات على وضع أطر عمل تحدد السياسات والإجراءات والمسؤوليات الداخلية لتطوير الذكاء الاصطناعي واستخدامه بشكل أخلاقي. على سبيل المثال، أصدرت Microsoft معيار الذكاء الاصطناعي المسؤول، والذي يتضمن إجراء تقييمات منتظمة للمخاطر، وتنفيذ تدابير حماية البيانات، وإعطاء الأولوية للشفافية والمساءلة في اتخاذ القرارات.8 وتؤكد مبادئ Google للذكاء الاصطناعي، التي تم تحديثها في عام 2023، على أهمية العدالة والشفافية والخصوصية في تطوير الذكاء الاصطناعي.9

مشاركة الجهات التنظيمية والأطراف المعنية في الصناعة

كما تتواصل الشركات بنشاط مع الجهات التنظيمية والأطراف المعنية في الصناعة للبقاء على اطلاع على التغييرات التنظيمية وقضايا الامتثال. أظهر استطلاع IBM لقادة الأعمال أن 74% منهم يخططون للانضمام إلى المناقشات مع أقرانهم أو التعاون مع صناع السياسات بشأن الذكاء الاصطناعي. تساعد هذه الجهود الشركات على الاستعداد للوائح الجديدة والمشاركة في تطوير الإرشادات المستقبلية.

الاستثمار في أدوات وتقنيات امتثال الذكاء الاصطناعي

لتبسيط جهود الامتثال، تستثمر الشركات في العديد من أدوات وتقنيات امتثال الذكاء الاصطناعي. على سبيل المثال، يمكن لأدوات الذكاء الاصطناعي القابلة للتفسير (XAI) مساعدة الشركات على فهم وتفسير القرارات التي تتخذها نماذج الذكاء الاصطناعي، في حين يمكن لمحافظ حوكمة الذكاء الاصطناعي توفير مراقبة وتدقيق القدرات في الوقت الفعلي. منتجات الحوكمة، مثل IBM ® watsonx.governance ™ توفر مجموعات أدوات للبقاء متوافقًا مع اللوائح التنظيمية وتقييم المخاطر وإدارة تطور النموذج.

جعل الامتثال جزءًا من عملك

مع استمرار ظهور التطورات في تكنولوجيا الذكاء الاصطناعي، تزداد المخاطر والتحديات المرتبطة باستخدامها. يكمن المفتاح في اتباع نهج استباقي، وهو ما يعني الاستثمار في الموارد والخبرات والتقنية اللازمة لتطوير وتنفيذ أطر عمل قوية لحوكمة الذكاء الاصطناعي. كما يتطلب تعزيز ثقافة الشفافية والمساءلة والثقة في تطوير أنظمة الذكاء الاصطناعي واستخدامها. إن إعطاء الأولوية لامتثال الذكاء الاصطناعي يساعد الشركات في التخفيف من هذه المخاطر ويمكّنها من الاستفادة من الإمكانات الكاملة للذكاء الاصطناعي.