ما المقصود بإدارة مخاطر الذكاء الاصطناعي؟

20 يونيو 2024

قراءة لمدة 8 دقائق

إدارة مخاطر الذكاء الاصطناعي هي عملية تحديد المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي والتخفيف من حدتها ومعالجتها بشكل منهجي. وهي تنطوي على مجموعة من الأدوات والممارسات والمبادئ، مع التركيز بشكل خاص على نشر أطر عمل رسمية لإدارة مخاطر الذكاء الاصطناعي.

وبصفة عامة، يتمثل الهدف من إدارة مخاطر الذكاء الاصطناعي في تقليل الآثار السلبية المحتملة للذكاء الاصطناعي إلى الحد الأدنى مع تعظيم مزاياه.

إدارة مخاطر الذكاء الاصطناعي وحوكمة الذكاء الاصطناعي

تُعد إدارة مخاطر الذكاء الاصطناعي جزءًا من المجال الأكبر لحوكمة الذكاء الاصطناعي. وتشير حوكمة الذكاء الاصطناعي إلى اللوائح التي تتيح أن تكون الأدوات والأنظمة المعتمدة على الذكاء الاصطناعي آمنة وأخلاقية وتظل كذلك.

تُعد حوكمة الذكاء الاصطناعي نظامًا شاملاً، في حين أن إدارة مخاطر الذكاء الاصطناعي هي عملية ضمن هذا النظام. تركز إدارة مخاطر الذكاء الاصطناعي على وجه التحديد على تحديد الثغرات الأمنية والتهديدات ومعالجتها للحفاظ على أنظمة الذكاء الاصطناعي آمنة من الضرر. بينما تضع حوكمة الذكاء الاصطناعي الأطر والقواعد والمعايير التي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه لضمان السلامة والإنصاف واحترام حقوق الإنسان.

أسباب أهمية إدارة المخاطر في أنظمة الذكاء الاصطناعي

في السنوات الأخيرة، ازداد استخدام أنظمة الذكاء الاصطناعي في مختلف الصناعات. وتشير تقارير McKinsey إلى أن 72% من المؤسسات تستخدم الآن شكلاً من أشكال الذكاء الاصطناعي (AI)، بزيادة 17% عن عام 2023.

بينما تسعى المؤسسات للاستفادة من مزايا الذكاء الاصطناعي -مثل الابتكار والكفاءة وزيادة الإنتاجية- إلا أنها لا تتعامل دائمًا مع المخاطر المحتملة، مثل مخاوف الخصوصية والتهديدات الأمنية والقضايا الأخلاقية والقانونية.

يدرك القادة هذا التحدي جيدًا. فقد وجدت دراسة حديثة لمعهد IBM لقيمة الأعمال (IBM IBV) أن 96% من القادة يعتقدون أن تبني الذكاء الاصطناعي التوليدي يزيد من احتمالية حدوث اختراق أمني. وفي الوقت نفسه، وجدت دراسة معهد IBM لقيمة الأعمال أيضًا أن 24% فقط من مشاريع الذكاء الاصطناعي التوليدي الحالية آمنة.

يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي على سد هذه الفجوة وتمكين المؤسسات من الاستفادة من الإمكانات الكاملة لأنظمة الذكاء الاصطناعي من دون المساس بأخلاقيات الذكاء الاصطناعي أو أمنه.

فهم المخاطر المرتبطة بأنظمة الذكاء الاصطناعي

على غرار الأنواع الأخرى من المخاطر الأمنية، يمكن فهم مخاطر الذكاء الاصطناعي على أنها مقياس لمدى احتمالية تأثير تهديد محتمل مرتبط بالذكاء الاصطناعي على المؤسسة ومقدار الضرر الذي قد يسببه هذا التهديد.

في حين أن كل نموذج ذكاء اصطناعي وحالة استخدام مختلفة عن الأخرى، فإن مخاطر الذكاء الاصطناعي تنقسم بشكل عام إلى أربع مجموعات:

  • مخاطر البيانات
  • مخاطر النماذج
  • المخاطر التشغيلية
  • المخاطر الأخلاقية والقانونية

إذا لم تُدَر هذه المخاطر بشكل صحيح، فيمكن أن تعرض أنظمة الذكاء الاصطناعي والمؤسسات لأضرار كبيرة، بما في ذلك الخسائر المالية والإضرار بالسمعة والعقوبات التنظيمية وتراجع ثقة الجمهور وانتهاكات البيانات.

مخاطر البيانات

تعتمد أنظمة الذكاء الاصطناعي على مجموعات البيانات التي قد تكون عرضة للتلاعب أو الخروقات أو التحيز أو الهجمات الإلكترونية. يمكن للمؤسسات التخفيف من هذه المخاطر من خلال حماية سلامة البيانات وأمنها وتوافرها طوال دورة حياة الذكاء الاصطناعي بأكملها، بدءًا من التطوير ووصولاً إلى التدريب والنشر.

تشمل مخاطر البيانات الشائعة ما يأتي:

  • أمن البيانات: يُعد أمن البيانات أحد أكبر وأهم التحديات التي تواجه أنظمة الذكاء الاصطناعي. يمكن أن تتسبب التهديدات في مشكلات خطيرة للمؤسسات من خلال اختراق مجموعات البيانات التي تُشغل تقنيات الذكاء الاصطناعي، بما في ذلك الوصول غير المصرح به وفقدان البيانات واختراق سريتها.
  • خصوصية البيانات: غالبًا ما تتعامل أنظمة الذكاء الاصطناعي مع البيانات الشخصية الحساسة التي يمكن أن تكون عرضة لانتهاكات الخصوصية، ما يؤدي إلى مشكلات تنظيمية وقانونية للمؤسسات.
  • سلامة البيانات: تكون نماذج الذكاء الاصطناعي موثوقة بقدر موثوقية بيانات التدريب الخاصة بها. ويمكن أن تؤدي البيانات المشوهة أو المتحيزة إلى نتائج إيجابية كاذبة أو مخرجات غير دقيقة أو سوء اتخاذ القرارات.

مخاطر النماذج

يمكن

للمخترقين استهداف نماذج الذكاء الاصطناعي لسرقتها أو هندستها عكسيًا أو التلاعب بها بشكل غير مصرح به. قد يُعرض المهاجمون سلامة النموذج للخطر من خلال التلاعب في بنيته أو أوزانه أو معلماته، وهي المكونات الأساسية التي تحدد سلوك نموذج الذكاء الاصطناعي وأداءه.

تتضمن بعض مخاطر النماذج الأكثر شيوعًا ما يأتي:

  • الهجمات العدائية: تتلاعب هذه الهجمات بالبيانات المدخلة لخداع أنظمة الذكاء الاصطناعي لتقديم تنبؤات أو تصنيفات غير صحيحة. على سبيل المثال، قد يولد المهاجمون أمثلة عدائية يغذون بها خوارزميات الذكاء الاصطناعي للتدخل عمدًا في عملية اتخاذ القرار أو إحداث تحيز.
  • قابلية تفسير النموذج: غالبًا ما تكون نماذج الذكاء الاصطناعي المعقدة صعبة التفسير، ما يجعل من الصعب على المستخدمين فهم كيفية وصولها إلى قراراتها. ونقص الشفافية هذا يمكن أن يعوق الكشف عن التحيز وتحقيق المساءلة، ما يؤدي إلى ضعف الثقة في أنظمة الذكاء الاصطناعي ومزودي الخدمات.
  • هجمات سلسلة التوريد: تحدث هجمات سلسلة التوريد عندما تستهدف الجهات المهدِّدة أنظمة الذكاء الاصطناعي على مستوى سلسلة التوريد، بما في ذلك في مراحل التطوير والنشر والصيانة. على سبيل المثال، قد يستغل المخترقون الثغرات الأمنية في عناصر خارجية مستخدَمة في تطوير الذكاء الاصطناعي، ما يؤدي إلى اختراق أمن البيانات أو الوصول غير المصرح به.

المخاطر التشغيلية

على الرغم من أن نماذج الذكاء الاصطناعي قد تبدو وكأنها سحر، إلا أنها في الأساس عبارة عن نتاج لتعليمات برمجية معقدة وخوارزميات التعلم الآلي. ومثل جميع التقنيات، تكون عرضةً للمخاطر التشغيلية. وإذا تُركت هذه المخاطر من دون معالجة، فقد تؤدي إلى إخفاقات في النظام وثغرات أمنية يمكن أن تستغلها الجهات المهدِّدة.

تتضمن بعض المخاطر التشغيلية الأكثر شيوعًا ما يلي:

  • الانحراف أو التدهور: يمكن أن تواجه النماذج الذكاء الاصطناعي انحراف النموذج، وهي عملية يمكن أن تؤدي فيها التغييرات في البيانات أو العلاقات بين نقاط البيانات إلى تدهور الأداء. على سبيل المثال، قد يصبح نموذج الكشف عن الاحتيال أقل كفاءة بمرور الوقت، ما يسمح بمرور معاملات احتيالية من دون اكتشافها.
  • قضايا الاستدامة: أنظمة الذكاء الاصطناعي هي تقنيات جديدة ومعقدة تتطلب التوسع والدعم المناسبين. وقد يؤدي إهمال الاستدامة إلى ظهور تحديات في صيانة هذه الأنظمة وتحديثها، ما يؤدي إلى عدم اتساق الأداء وزيادة تكاليف التشغيل واستهلاك الطاقة.
  • تحديات التكامل: يمكن أن يكون دمج أنظمة الذكاء الاصطناعي مع البنية التحتية الحالية لتكنولوجيا المعلومات معقدًا وكثيفًا للموارد. غالبًا ما تواجه المؤسسات مشكلات تتعلق بالتوافق وصوامع البيانات وقابلية التشغيل البيني للنظام. يمكن أن يؤدي إدخال أنظمة الذكاء الاصطناعي أيضًا إلى إنشاء نقاط ضعف جديدة من خلال توسيع سطح الهجوم للتهديدات الإلكترونية
  • .
  • الافتقار إلى المساءلة: نظرًا لكون أنظمة الذكاء الاصطناعي من التقنيات الحديثة نسبيًا، فإن العديد من المؤسسات لا تمتلك هياكل حوكمة الشركات المناسبة. والنتيجة هي أن أنظمة الذكاء الاصطناعي غالبًا ما تفتقر إلى الرقابة. وجدت McKinsey أن 18% فقط من المؤسسات لديها مجلس أو هيئة تتمتع بسلطة اتخاذ القرارات بشأن حوكمة الذكاء الاصطناعي المسؤول.

المخاطر الأخلاقية والقانونية

إذا لم تعطِ المؤسسات الأولوية للسلامة والأخلاقيات عند تطوير أنظمة الذكاء الاصطناعي وتطبيقها، فإنها قد تعرِّض نفسها لخطر انتهاك الخصوصية وإنتاج نتائج متحيزة. على سبيل المثال، قد تعزِّز البيانات المدربة المتحيزة المستخدَمة في قرارات التوظيف الصور النمطية المتعلقة بالجنس أو العرق وتُنتِج نماذج ذكاء اصطناعي تفضِّل مجموعات ديموغرافية معينة على أخرى.

  تشمل المخاطر الأخلاقية والقانونية الشائعة ما يلي:

  • انعدام الشفافية: المؤسسات التي تفتقر إلى الشفافية والمساءلة فيما يتعلق بأنظمة الذكاء الاصطناعي الخاصة بها تخاطر بفقدان ثقة الجمهور.
  • عدم الامتثال للمتطلبات التنظيمية: يمكن أن يؤدي عدم الامتثال للوائح الحكومية مثل اللائحة العامة لحماية البيانات أو الإرشادات الخاصة بالقطاع إلى غرامات باهظة وعقوبات قانونية.
  • التحيزات الخوارزمية: يمكن أن ترث خوارزميات الذكاء الاصطناعي التحيزات من بيانات التدريب، ما يؤدي إلى نتائج تمييزية محتملة مثل قرارات التوظيف المتحيزة وعدم المساواة في الحصول على الخدمات المالية.
  • المعضلات الأخلاقية: يمكن أن تثير قرارات الذكاء الاصطناعي مخاوف أخلاقية تتعلق بالخصوصية والاستقلالية وحقوق الإنسان. يمكن أن يؤدي سوء التعامل مع هذه المعضلات إلى الإضرار بسمعة المؤسسة وتراجع ثقة الجمهور.
  • عدم قابلية التفسير: تشير قابلية التفسير في الذكاء الاصطناعي إلى القدرة على فهم القرارات التي تتخذها أنظمة الذكاء الاصطناعي وتبريرها. ويمكن أن يؤدي عدم قابلية التفسير إلى إعاقة الثقة ويؤدي إلى التدقيق القانوني وإلحاق الضرر بالسمعة. على سبيل المثال، قد يؤدي عدم علم المدير التنفيذي للمؤسسة بمصدر بيانات التدريب للنماذج اللغوية الكبيرة إلى تغطية إعلامية سيئة أو تحقيقات تنظيمية.

أطر عمل إدارة مخاطر الذكاء الاصطناعي

تتعامل العديد من المؤسسات مع مخاطر الذكاء الاصطناعي من خلال اعتماد أطر العمل لإدارة مخاطر الذكاء الاصطناعي، وهي مجموعات من الإرشادات والممارسات لإدارة المخاطر عبر دورة حياة الذكاء الاصطناعي بأكملها.

يمكن للمرء أيضًا التفكير في هذه الإرشادات على أنها دليل يوضح السياسات والإجراءات والأدوار والمسؤوليات المتعلقة باستخدام المجموعة للذكاء الاصطناعي. تساعد أطر العمل إدارة مخاطر الذكاء الاصطناعي المؤسسات على تطوير أنظمة الذكاء الاصطناعي وتطبيقها وصيانتها بطريقة تقلل من المخاطر وتدعم المعايير الأخلاقية وتحقق الامتثال التنظيمي المستمر.

تتضمن بعض أطر العمل إدارة مخاطر الذكاء الاصطناعي الأكثر استخدامًا ما يلي:

  • إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي
  • قانون الذكاء الاصطناعي في الاتحاد الأوروبي (EU AI Act)
  • معايير ISO/IEC
  • القانون التنفيذي الأمريكي بشأن الذكاء الاصطناعي

إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي (AI RMF)

في يناير 2023، نشر المعهد الوطني الأمريكي للمعايير والتقنية (NIST) إطار العمل لإدارة مخاطر الذكاء الاصطناعي (AI RMF) لتوفير نهج منظم لإدارة مخاطر الذكاء الاصطناعي. وقد أصبح إطار العمل لإدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني الأمريكي للمعايير والتقنية منذ ذلك الحين معيارًا لإدارة مخاطر الذكاء الاصطناعي.

يتمثل الهدف الرئيسي لإطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF) في مساعدة المؤسسات على تصميم أنظمة الذكاء الاصطناعي وتطويرها وتطبيقها واستخدامها بطريقة تدير المخاطر بفاعلية وتعزِّز ممارسات الذكاء الاصطناعي المسؤول والموثوق به.

تم تطوير إطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF) بالتعاون مع القطاعين العام والخاص، وهو اختياري تمامًا وقابل للتطبيق على أي شركة أو قطاع أو منطقة جغرافية.

ينقسم إطار العمل إلى قسمين. يقدِّم الجزء الأول نظرة عامة على مخاطر أنظمة الذكاء الاصطناعي الجدير بالثقة وخصائصه. يحدِّد الجزء الثاني، AI RMF Core، أربع وظائف لمساعدة المؤسسات على معالجة مخاطر نظام الذكاء الاصطناعي:

  • الحوكمة: بناء ثقافة مؤسسية لإدارة مخاطر الذكاء الاصطناعي
  • التخطيط: تحديد مخاطر الذكاء الاصطناعي في سياقات أعمال محددة
  • القياس: تحليل مخاطر الذكاء الاصطناعي وتقييمها
  • الإدارة: معالجة المخاطر التي تم تحديدها وقياسها

قانون الذكاء الاصطناعي للاتحاد الأوروبي

قانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) هو قانون يحكم تطوير الذكاء الاصطناعي واستخدامه في الاتحاد الأوروبي (EU). ويتبع القانون نهجًا قائمًا على المخاطر في التنظيم، حيث يطبق قواعد مختلفة على أنظمة الذكاء الاصطناعي وفقًا للتهديدات التي تشكلها على صحة الإنسان وسلامته وحقوقه. يضع القانون أيضًا قواعد لتصميم نماذج الذكاء الاصطناعي للأغراض العامة وتدريبها ونشرها، مثل نماذج الأساس التي تشغل ChatGPT وGoogle Gemini.

معايير ISO/IEC

المنظمة الدولية للمعايير القياسية (ISO) واللجنة الدولية للتقنيات الكهربائية (IEC) قد وضعت معايير تعالج مختلف جوانب إدارة مخاطر الذكاء الاصطناعي (الرابط موجود خارج موقع ibm.com).

تؤكد معايير ISO/IEC على أهمية الشفافية والمساءلة والاعتبارات الأخلاقية في إدارة مخاطر الذكاء الاصطناعي. كما أنها توفِّر إرشادات قابلة للتنفيذ لإدارة مخاطر الذكاء الاصطناعي عبر دورة حياة الذكاء الاصطناعي، بدءًا من التصميم والتطوير ووصولاً إلى النشر والتشغيل.

كيفية مساعدة إدارة مخاطر الذكاء الاصطناعي للمؤسسات

في حين أن عملية إدارة مخاطر الذكاء الاصطناعي تختلف بالضرورة من مؤسسة إلى أخرى، فإن ممارسات إدارة مخاطر الذكاء الاصطناعي يمكن أن توفِّر بعض المزايا الأساسية المشتركة عند تنفيذها بنجاح.

الأمن المحسّن

يمكن لإدارة مخاطر الذكاء الاصطناعي تعزيز وضع الأمن الإلكتروني للمؤسسة واستخدام أمن الذكاء الاصطناعي.

ومن خلال إجراء تقييمات وتدقيقات منتظمة للمخاطر، يمكن للمؤسسات تحديد المخاطر ونقاط الضعف المحتملة طوال دورة حياة الذكاء الاصطناعي.

بعد هذه التقييمات، يمكنها تنفيذ إستراتيجيات التخفيف لتقليل المخاطر المحددة أو القضاء عليها. وقد تنطوي هذه العملية على تدابير تقنية، مثل تعزيز أمن البيانات وتحسين قوة النماذج. وقد تنطوي العملية أيضًا على تعديلات تنظيمية، مثل وضع مبادئ توجيهية أخلاقية وتعزيز ضوابط الوصول.

اعتماد هذا النهج الأكثر استباقية في الكشف عن التهديدات والاستجابة لها يمكن أن يساعد المؤسسات على تخفيف المخاطر قبل تفاقمها، ما يقلِّل من احتمالية تسرب البيانات وتأثير الهجمات الإلكترونية.

تحسين عملية صنع القرار

يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي أيضًا على تحسين عملية اتخاذ القرار في المؤسسة بشكل عام.

باستخدام مزيج من التحليلات النوعية والكمية، بما في ذلك الأساليب الإحصائية وآراء الخبراء، يمكن للمؤسسات اكتساب فهم واضح لمخاطرها المحتملة. تساعد هذه الرؤية الكاملة للمؤسسات على تحديد أولويات التهديدات عالية المخاطر واتخاذ قرارات أكثر استنارة حول نشر الذكاء الاصطناعي، وتحقيق التوازن بين الرغبة في الابتكار والحاجة إلى تخفيف المخاطر.

الامتثال التنظيمي

أدى التركيز العالمي المتزايد على حماية البيانات الحساسة إلى إنشاء المتطلبات التنظيمية الرئيسية ومعايير الصناعة، بما في ذلك اللائحة العامة لحماية البيانات (GDPR)، قانون خصوصية المستهلك في كاليفورنيا وقانون الاتحاد الأوروبي للذكاء الاصطناعي

يمكن أن يؤدي عدم الامتثال لهذه القوانين إلى غرامات باهظة وعقوبات قانونية كبيرة. يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي المؤسسات على تحقيق الامتثال والبقاء في وضع جيد، خاصةً مع تطور اللوائح التنظيمية المحيطة بالذكاء الاصطناعي بالسرعة نفسها التي تتطور بها التقنية.

المرونة التشغيلية

تساعد إدارة مخاطر الذكاء الاصطناعي المؤسسات على الحد من الاضطرابات وضمان استمرارية الأعمال من خلال تمكينها من معالجة المخاطر المحتملة باستخدام أنظمة الذكاء الاصطناعي في الوقت الفعلي. كما يمكن أن تشجِّع إدارة مخاطر الذكاء الاصطناعي على زيادة المساءلة والاستدامة على المدى الطويل من خلال تمكين المؤسسات من وضع ممارسات ومنهجيات إدارية واضحة لاستخدام الذكاء الاصطناعي.

زيادة الثقة والشفافية

تشجع إدارة مخاطر الذكاء الاصطناعي اتباع نهج أكثر أخلاقية لأنظمة الذكاء الاصطناعي من خلال إعطاء الأولوية للثقة والشفافية.

تتضمن معظم عمليات إدارة مخاطر الذكاء الاصطناعي مجموعة واسعة من الأطراف المعنية، بما في ذلك المديرون التنفيذيون ومطورو الذكاء الاصطناعي وعلماء البيانات والمستخدمون وصناع السياسات وحتى علماء الأخلاقيات. يساعد هذا النهج الشامل على ضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول، مع وضع كل الأطراف المعنية في الاعتبار.

الاختبار والتحقق من الصحة والمراقبة باستمرار

من خلال إجراء اختبارات وعمليات مراقبة منتظمة، يمكن للمؤسسات تتبُّع أداء نظام الذكاء الاصطناعي بشكل أفضل واكتشاف التهديدات الناشئة في وقت أقرب. وتساعد هذه المراقبة المؤسسات على الحفاظ على الامتثال التنظيمي المستمر ومعالجة مخاطر الذكاء الاصطناعي في وقت مبكر، ما يقلل من التأثير المحتمل للتهديدات.

اعتبار إدارة المخاطر الذكاء الاصطناعي أولوية مؤسسية

على الرغم من إمكاناتها الكبيرة في تبسيط العمل وتحسين كفاءته، فإن تقنيات الذكاء الاصطناعي ليست خالية من المخاطر. أي جزء من تقنية المعلومات في المؤسسات يمكن أن يتحول إلى أداة خطر إذا وقع في الأيدي الخطأ.

لا تحتاج المؤسسات إلى تجنب الذكاء الاصطناعي التوليدي. فهي ببساطة بحاجة إلى التعامل معه مثل أي أداة تقنية أخرى. وهذا يعني فهم المخاطر واتخاذ خطوات استباقية لتقليل فرصة نجاح الهجوم.

مع IBM® watsonx.governance™، يمكن للمؤسسات بسهولة توجيه أنشطة الذكاء الاصطناعي وإدارتها ومراقبتها. يمكن لـ IBM watsonx.governance التحكم في نماذج الذكاء الاصطناعي التوليدية من أي مورد، وتقييم صحة النموذج ودقته وأتمتة مهام سير العمل الرئيسية المتعلقة بالامتثال.

 

المؤسس