إدارة مخاطر الذكاء الاصطناعي هي عملية تحديد المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي والتخفيف من حدتها ومعالجتها بشكل منهجي. وهي تنطوي على مجموعة من الأدوات والممارسات والمبادئ، مع التركيز بشكل خاص على نشر أطر عمل رسمية لإدارة مخاطر الذكاء الاصطناعي.
وبصفة عامة، يتمثل الهدف من إدارة مخاطر الذكاء الاصطناعي في تقليل الآثار السلبية المحتملة للذكاء الاصطناعي إلى الحد الأدنى مع تعظيم مزاياه.
تُعد إدارة مخاطر الذكاء الاصطناعي جزءًا من المجال الأكبر لحوكمة الذكاء الاصطناعي. وتشير حوكمة الذكاء الاصطناعي إلى اللوائح التي تتيح أن تكون الأدوات والأنظمة المعتمدة على الذكاء الاصطناعي آمنة وأخلاقية وتظل كذلك.
تُعد حوكمة الذكاء الاصطناعي نظامًا شاملاً، في حين أن إدارة مخاطر الذكاء الاصطناعي هي عملية ضمن هذا النظام. تركز إدارة مخاطر الذكاء الاصطناعي على وجه التحديد على تحديد الثغرات الأمنية والتهديدات ومعالجتها للحفاظ على أنظمة الذكاء الاصطناعي آمنة من الضرر. بينما تضع حوكمة الذكاء الاصطناعي الأطر والقواعد والمعايير التي توجه أبحاث الذكاء الاصطناعي وتطويره وتطبيقه لضمان السلامة والإنصاف واحترام حقوق الإنسان.
في السنوات الأخيرة، ازداد استخدام أنظمة الذكاء الاصطناعي في مختلف الصناعات. وتشير تقارير McKinsey إلى أن 72% من المؤسسات تستخدم الآن شكلاً من أشكال الذكاء الاصطناعي (AI)، بزيادة 17% عن عام 2023.
بينما تسعى المؤسسات للاستفادة من مزايا الذكاء الاصطناعي -مثل الابتكار والكفاءة وزيادة الإنتاجية- إلا أنها لا تتعامل دائمًا مع المخاطر المحتملة، مثل مخاوف الخصوصية والتهديدات الأمنية والقضايا الأخلاقية والقانونية.
يدرك القادة هذا التحدي جيدًا. فقد وجدت دراسة حديثة لمعهد IBM لقيمة الأعمال (IBM IBV) أن 96% من القادة يعتقدون أن تبني الذكاء الاصطناعي التوليدي يزيد من احتمالية حدوث اختراق أمني. وفي الوقت نفسه، وجدت دراسة معهد IBM لقيمة الأعمال أيضًا أن 24% فقط من مشاريع الذكاء الاصطناعي التوليدي الحالية آمنة.
يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي على سد هذه الفجوة وتمكين المؤسسات من الاستفادة من الإمكانات الكاملة لأنظمة الذكاء الاصطناعي من دون المساس بأخلاقيات الذكاء الاصطناعي أو أمنه.
على غرار الأنواع الأخرى من المخاطر الأمنية، يمكن فهم مخاطر الذكاء الاصطناعي على أنها مقياس لمدى احتمالية تأثير تهديد محتمل مرتبط بالذكاء الاصطناعي على المؤسسة ومقدار الضرر الذي قد يسببه هذا التهديد.
في حين أن كل نموذج ذكاء اصطناعي وحالة استخدام مختلفة عن الأخرى، فإن مخاطر الذكاء الاصطناعي تنقسم بشكل عام إلى أربع مجموعات:
إذا لم تُدَر هذه المخاطر بشكل صحيح، فيمكن أن تعرض أنظمة الذكاء الاصطناعي والمؤسسات لأضرار كبيرة، بما في ذلك الخسائر المالية والإضرار بالسمعة والعقوبات التنظيمية وتراجع ثقة الجمهور وانتهاكات البيانات.
تعتمد أنظمة الذكاء الاصطناعي على مجموعات البيانات التي قد تكون عرضة للتلاعب أو الخروقات أو التحيز أو الهجمات الإلكترونية. يمكن للمؤسسات التخفيف من هذه المخاطر من خلال حماية سلامة البيانات وأمنها وتوافرها طوال دورة حياة الذكاء الاصطناعي بأكملها، بدءًا من التطوير ووصولاً إلى التدريب والنشر.
تشمل مخاطر البيانات الشائعة ما يأتي:
للمخترقين استهداف نماذج الذكاء الاصطناعي لسرقتها أو هندستها عكسيًا أو التلاعب بها بشكل غير مصرح به. قد يُعرض المهاجمون سلامة النموذج للخطر من خلال التلاعب في بنيته أو أوزانه أو معلماته، وهي المكونات الأساسية التي تحدد سلوك نموذج الذكاء الاصطناعي وأداءه.
تتضمن بعض مخاطر النماذج الأكثر شيوعًا ما يأتي:
على الرغم من أن نماذج الذكاء الاصطناعي قد تبدو وكأنها سحر، إلا أنها في الأساس عبارة عن نتاج لتعليمات برمجية معقدة وخوارزميات التعلم الآلي. ومثل جميع التقنيات، تكون عرضةً للمخاطر التشغيلية. وإذا تُركت هذه المخاطر من دون معالجة، فقد تؤدي إلى إخفاقات في النظام وثغرات أمنية يمكن أن تستغلها الجهات المهدِّدة.
تتضمن بعض المخاطر التشغيلية الأكثر شيوعًا ما يلي:
إذا لم تعطِ المؤسسات الأولوية للسلامة والأخلاقيات عند تطوير أنظمة الذكاء الاصطناعي وتطبيقها، فإنها قد تعرِّض نفسها لخطر انتهاك الخصوصية وإنتاج نتائج متحيزة. على سبيل المثال، قد تعزِّز البيانات المدربة المتحيزة المستخدَمة في قرارات التوظيف الصور النمطية المتعلقة بالجنس أو العرق وتُنتِج نماذج ذكاء اصطناعي تفضِّل مجموعات ديموغرافية معينة على أخرى.
تشمل المخاطر الأخلاقية والقانونية الشائعة ما يلي:
تتعامل العديد من المؤسسات مع مخاطر الذكاء الاصطناعي من خلال اعتماد أطر العمل لإدارة مخاطر الذكاء الاصطناعي، وهي مجموعات من الإرشادات والممارسات لإدارة المخاطر عبر دورة حياة الذكاء الاصطناعي بأكملها.
يمكن للمرء أيضًا التفكير في هذه الإرشادات على أنها دليل يوضح السياسات والإجراءات والأدوار والمسؤوليات المتعلقة باستخدام المجموعة للذكاء الاصطناعي. تساعد أطر العمل إدارة مخاطر الذكاء الاصطناعي المؤسسات على تطوير أنظمة الذكاء الاصطناعي وتطبيقها وصيانتها بطريقة تقلل من المخاطر وتدعم المعايير الأخلاقية وتحقق الامتثال التنظيمي المستمر.
تتضمن بعض أطر العمل إدارة مخاطر الذكاء الاصطناعي الأكثر استخدامًا ما يلي:
في يناير 2023، نشر المعهد الوطني الأمريكي للمعايير والتقنية (NIST) إطار العمل لإدارة مخاطر الذكاء الاصطناعي (AI RMF) لتوفير نهج منظم لإدارة مخاطر الذكاء الاصطناعي. وقد أصبح إطار العمل لإدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني الأمريكي للمعايير والتقنية منذ ذلك الحين معيارًا لإدارة مخاطر الذكاء الاصطناعي.
يتمثل الهدف الرئيسي لإطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF) في مساعدة المؤسسات على تصميم أنظمة الذكاء الاصطناعي وتطويرها وتطبيقها واستخدامها بطريقة تدير المخاطر بفاعلية وتعزِّز ممارسات الذكاء الاصطناعي المسؤول والموثوق به.
تم تطوير إطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF) بالتعاون مع القطاعين العام والخاص، وهو اختياري تمامًا وقابل للتطبيق على أي شركة أو قطاع أو منطقة جغرافية.
ينقسم إطار العمل إلى قسمين. يقدِّم الجزء الأول نظرة عامة على مخاطر أنظمة الذكاء الاصطناعي الجدير بالثقة وخصائصه. يحدِّد الجزء الثاني، AI RMF Core، أربع وظائف لمساعدة المؤسسات على معالجة مخاطر نظام الذكاء الاصطناعي:
قانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act) هو قانون يحكم تطوير الذكاء الاصطناعي واستخدامه في الاتحاد الأوروبي (EU). ويتبع القانون نهجًا قائمًا على المخاطر في التنظيم، حيث يطبق قواعد مختلفة على أنظمة الذكاء الاصطناعي وفقًا للتهديدات التي تشكلها على صحة الإنسان وسلامته وحقوقه. يضع القانون أيضًا قواعد لتصميم نماذج الذكاء الاصطناعي للأغراض العامة وتدريبها ونشرها، مثل نماذج الأساس التي تشغل ChatGPT وGoogle Gemini.
المنظمة الدولية للمعايير القياسية (ISO) واللجنة الدولية للتقنيات الكهربائية (IEC) قد وضعت معايير تعالج مختلف جوانب إدارة مخاطر الذكاء الاصطناعي (الرابط موجود خارج موقع ibm.com).
تؤكد معايير ISO/IEC على أهمية الشفافية والمساءلة والاعتبارات الأخلاقية في إدارة مخاطر الذكاء الاصطناعي. كما أنها توفِّر إرشادات قابلة للتنفيذ لإدارة مخاطر الذكاء الاصطناعي عبر دورة حياة الذكاء الاصطناعي، بدءًا من التصميم والتطوير ووصولاً إلى النشر والتشغيل.
في حين أن عملية إدارة مخاطر الذكاء الاصطناعي تختلف بالضرورة من مؤسسة إلى أخرى، فإن ممارسات إدارة مخاطر الذكاء الاصطناعي يمكن أن توفِّر بعض المزايا الأساسية المشتركة عند تنفيذها بنجاح.
يمكن لإدارة مخاطر الذكاء الاصطناعي تعزيز وضع الأمن الإلكتروني للمؤسسة واستخدام أمن الذكاء الاصطناعي.
ومن خلال إجراء تقييمات وتدقيقات منتظمة للمخاطر، يمكن للمؤسسات تحديد المخاطر ونقاط الضعف المحتملة طوال دورة حياة الذكاء الاصطناعي.
بعد هذه التقييمات، يمكنها تنفيذ إستراتيجيات التخفيف لتقليل المخاطر المحددة أو القضاء عليها. وقد تنطوي هذه العملية على تدابير تقنية، مثل تعزيز أمن البيانات وتحسين قوة النماذج. وقد تنطوي العملية أيضًا على تعديلات تنظيمية، مثل وضع مبادئ توجيهية أخلاقية وتعزيز ضوابط الوصول.
اعتماد هذا النهج الأكثر استباقية في الكشف عن التهديدات والاستجابة لها يمكن أن يساعد المؤسسات على تخفيف المخاطر قبل تفاقمها، ما يقلِّل من احتمالية تسرب البيانات وتأثير الهجمات الإلكترونية.
يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي أيضًا على تحسين عملية اتخاذ القرار في المؤسسة بشكل عام.
باستخدام مزيج من التحليلات النوعية والكمية، بما في ذلك الأساليب الإحصائية وآراء الخبراء، يمكن للمؤسسات اكتساب فهم واضح لمخاطرها المحتملة. تساعد هذه الرؤية الكاملة للمؤسسات على تحديد أولويات التهديدات عالية المخاطر واتخاذ قرارات أكثر استنارة حول نشر الذكاء الاصطناعي، وتحقيق التوازن بين الرغبة في الابتكار والحاجة إلى تخفيف المخاطر.
أدى التركيز العالمي المتزايد على حماية البيانات الحساسة إلى إنشاء المتطلبات التنظيمية الرئيسية ومعايير الصناعة، بما في ذلك اللائحة العامة لحماية البيانات (GDPR)، قانون خصوصية المستهلك في كاليفورنيا وقانون الاتحاد الأوروبي للذكاء الاصطناعي
يمكن أن يؤدي عدم الامتثال لهذه القوانين إلى غرامات باهظة وعقوبات قانونية كبيرة. يمكن أن تساعد إدارة مخاطر الذكاء الاصطناعي المؤسسات على تحقيق الامتثال والبقاء في وضع جيد، خاصةً مع تطور اللوائح التنظيمية المحيطة بالذكاء الاصطناعي بالسرعة نفسها التي تتطور بها التقنية.
تساعد إدارة مخاطر الذكاء الاصطناعي المؤسسات على الحد من الاضطرابات وضمان استمرارية الأعمال من خلال تمكينها من معالجة المخاطر المحتملة باستخدام أنظمة الذكاء الاصطناعي في الوقت الفعلي. كما يمكن أن تشجِّع إدارة مخاطر الذكاء الاصطناعي على زيادة المساءلة والاستدامة على المدى الطويل من خلال تمكين المؤسسات من وضع ممارسات ومنهجيات إدارية واضحة لاستخدام الذكاء الاصطناعي.
تشجع إدارة مخاطر الذكاء الاصطناعي اتباع نهج أكثر أخلاقية لأنظمة الذكاء الاصطناعي من خلال إعطاء الأولوية للثقة والشفافية.
تتضمن معظم عمليات إدارة مخاطر الذكاء الاصطناعي مجموعة واسعة من الأطراف المعنية، بما في ذلك المديرون التنفيذيون ومطورو الذكاء الاصطناعي وعلماء البيانات والمستخدمون وصناع السياسات وحتى علماء الأخلاقيات. يساعد هذا النهج الشامل على ضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل مسؤول، مع وضع كل الأطراف المعنية في الاعتبار.
من خلال إجراء اختبارات وعمليات مراقبة منتظمة، يمكن للمؤسسات تتبُّع أداء نظام الذكاء الاصطناعي بشكل أفضل واكتشاف التهديدات الناشئة في وقت أقرب. وتساعد هذه المراقبة المؤسسات على الحفاظ على الامتثال التنظيمي المستمر ومعالجة مخاطر الذكاء الاصطناعي في وقت مبكر، ما يقلل من التأثير المحتمل للتهديدات.
على الرغم من إمكاناتها الكبيرة في تبسيط العمل وتحسين كفاءته، فإن تقنيات الذكاء الاصطناعي ليست خالية من المخاطر. أي جزء من تقنية المعلومات في المؤسسات يمكن أن يتحول إلى أداة خطر إذا وقع في الأيدي الخطأ.
لا تحتاج المؤسسات إلى تجنب الذكاء الاصطناعي التوليدي. فهي ببساطة بحاجة إلى التعامل معه مثل أي أداة تقنية أخرى. وهذا يعني فهم المخاطر واتخاذ خطوات استباقية لتقليل فرصة نجاح الهجوم.
مع IBM® watsonx.governance™، يمكن للمؤسسات بسهولة توجيه أنشطة الذكاء الاصطناعي وإدارتها ومراقبتها. يمكن لـ IBM watsonx.governance التحكم في نماذج الذكاء الاصطناعي التوليدية من أي مورد، وتقييم صحة النموذج ودقته وأتمتة مهام سير العمل الرئيسية المتعلقة بالامتثال.