ما المقصود بسلامة الذكاء الاصطناعي؟

15 نوفمبر 2024

المؤلفين

Amanda McGrath

Writer

IBM

Alexandra Jonker

Editorial Content Lead

ما المقصود بسلامة الذكاء الاصطناعي؟

تشير سلامة الذكاء الاصطناعي إلى الممارسات والمبادئ التي تساعد على ضمان تصميم تقنيات الذكاء الاصطناعي واستخدامها بطريقة تفيد البشرية وتقلل من أي ضرر أو نتائج سلبية محتملة.

يعد بناء أنظمة ذكاء اصطناعي آمنة من الاعتبارات الحساسة للشركات والمجتمع نظرًا لتزايد انتشار الذكاء الاصطناعي وتأثيره. تساعد سلامة الذكاء الاصطناعي على ضمان استخدام أنظمة الذكاء الاصطناعي بأكبر قدر ممكن من المسؤولية وأن مستقبل الذكاء الاصطناعي يتم تطويره مع وضع القيم الإنسانية في الاعتبار.

تطوير وصيانة الذكاء الاصطناعي الآمن يتضمن تحديد مخاطر الذكاء الاصطناعي المحتملة (مثل التحيز، وأمن البيانات، والثغرات الأمنية والتهديدات الخارجية) وإنشاء عمليات لتجنب هذه المخاطر والتخفيف من حدتها. على سبيل المثال، يمكن أن تساعد تدابير سلامة الذكاء الاصطناعي مثل تخفيف التحيز واختبار المتانة وأطر العمل الأخلاقية للذكاء الاصطناعي الشركات على تطوير أدوات الذكاء الاصطناعي واستخدامها بشكل مسؤول داخل المؤسسات.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

لماذا تعد سلامة الذكاء الاصطناعي أمرًا مهمًا؟

كلما ازداد تطور أنظمة الذكاء الاصطناعي، أصبحت أكثر اندماجاً في حياة الناس وفي مجالات العالم الحقيقي الحساسة مثل البنية التحتية والتمويل والأمن القومي. يمكن أن تكون لهذه التقنية آثار إيجابية وسلبية على المؤسسات التي تستخدمها وعلى المجتمع ككل.

تتزايد المخاوف بشأن التأثيرات السلبية للذكاء الاصطناعي. وجد استطلاع للرأي أجرى عام 2023 أن 52% من الأمريكيين كانوا قلقين أكثر من كونهم متحمسين بشأن الاستخدام المتزايد للذكاء الاصطناعي.1 وجد استطلاع آخر أن 83% قلقون من أن الذكاء الاصطناعي قد يؤدي عن طريق الخطأ إلى حدث كارثي.2

تظهر أبحاث أخرى أن المخاوف ليست بلا أساس: وجد تقرير عام 2024 أن 44% من المشمولين بالاستطلاع قالوا إن المؤسسات قد واجهت عواقب سلبية (مثل مشكلات عدم الدقة أو الأمن السيبراني) من استخدام الذكاء الاصطناعي.3 غالبًا ما يتم التعامل مع جهود السلامة على أنها فكرة لاحقة: وفقًا لتقرير تأثير مركز سلامة الذكاء الاصطناعي لعام 2023، يركز 3% فقط من الأبحاث الفنية على جعل الذكاء الاصطناعي أكثر أمانًا.4

بالنسبة إلى المجتمع ككل، تُعد تدابير سلامة الذكاء الاصطناعي ضرورية لحماية السلامة العامة والخصوصية والحقوق الأساسية. يمكن لأنظمة الذكاء الاصطناعي المتحيزة أو الغامضة أو التي لا تتماشى مع القيم الإنسانية أن تديم أو تزيد من التفاوتات المجتمعية.

يشعر الخبراء بالقلق أيضًا من أن بعض أنظمة الذكاء الاصطناعي المتقدمة قد تصبح أكثر ذكاءً من البشر. يشير الذكاء الاصطناعي العام (AGI) إلى أنظمة الذكاء الاصطناعي المحتملة التي تفهم وتتعلم وتؤدي مهام التفكير بنفس الطريقة التي يفعلها البشر. يشير الذكاء الاصطناعي الفائق (ASI) إلى أنظمة الذكاء الاصطناعي الافتراضية ذات النطاق الفكري والوظائف المعرفية الأكثر تقدمًا من أي إنسان. يثير تطوير AGI و ASI مخاوف من أن مثل هذه الأنظمة ستكون خطيرة إذا لم تتماشى مع القيم الإنسانية أو تخضع للإشراف البشري. مع وجود الكثير من الاستقلالية ، يقول النقاد إن هذه الأنظمة ستشكل تهديدًا وجوديًا للبشرية.

من منظور الأعمال، يساعد الذكاء الاصطناعي الآمن على بناء ثقة المستهلك، والحماية من المسؤوليات القانونية، وتجنب سوء اتخاذ القرارات. يمكن للمؤسسات التي تتخذ تدابير لضمان توافق استخدام الذكاء الاصطناعي مع قيمها أن تتجنب العواقب السلبية عليها وعلى عملائها.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

أنواع المخاطر المتعلقة بالذكاء الاصطناعي

يمكن تصنيف مخاطر الذكاء الاصطناعي إلى عدة أنواع، يتطلب كل منها تدابير مختلفة لسلامة الذكاء الاصطناعي وجهود إدارة المخاطر .

  • التحيز والإنصاف
  • الخصوصية
  • فقدان التحكم
  • المخاطر الوجودية
  • سوء الاستخدام الخبيث
  • الأمن الإلكتروني

التحيز والإنصاف

يمكن لأنظمة الذكاء الاصطناعي أن تعمل على إدامة التحيزات المجتمعية أو تضخيمها. تنتج التحيزات الخوارزمية عندما يتم تدريب الذكاء الاصطناعي على بيانات و مدخلات غير كاملة أو مضللة. هذا يمكن أن يؤدي إلى اتخاذ قرارات غير عادلة. على سبيل المثال، قد تكون أداة الذكاء الاصطناعي المُدربة على بيانات تمييزية أقل احتمالاً للموافقة على الرهون العقارية للمتقدمين من خلفيات معينة أو قد يكون من المرجح أن توصي بتوظيف متقدم ذكر على متقدمة أنثى.

الخصوصية

أنظمة الذكاء الاصطناعي لديها القدرة على الوصول إلى البيانات الشخصية أو كشفها أو إساءة استخدامها بشكل غير لائق، مما يؤدي إلى مخاوف تتعلق بالخصوصية. إذا تم اختراق البيانات الحساسة، فقد يتحمل منشئو نظام الذكاء الاصطناعي أو مستخدموه المسؤولية.

فقدان التحكم

قد لا يمكن التنبؤ بنتائج أنظمة الذكاء الاصطناعي المتقدمة، خاصةً تلك المصممة للعمل كوكلاء مستقلين. قد تكون أفعالهم ضارة أيضًا. فإذا كانوا قادرين على اتخاذ القرار بشكل مستقل، فقد يكون من الصعب إيقافهم. ومن دون عنصر التحكم البشري، قد يكون من المستحيل التدخل أو إيقاف نظام ذكاء اصطناعي يتصرف بشكل غير مناسب.

المخاطر الوجودية

من المحتمل أن يتصرف الذكاء الاصطناعي العام والذكاء الاصطناعي الفائق وغيرها من أنظمة الذكاء الاصطناعي المتقدمة للغاية بطرق قد تعرض البشرية للخطر أو تعطل الأنظمة العالمية إذا أسيء إدارتها. مخاطر سباق الذكاء الاصطناعي، على غرار سباق التسلح، يُعرّض الاستقرار الجيوسياسي للخطر.

وقد يتم أيضًا إساءة استخدام الذكاء الاصطناعي للتلاعب بالمجتمع على نطاق واسع أو الحرب الإلكترونية. في عام 2023، أصدر مركز سلامة الذكاء الاصطناعي (CAIS) غير الربحي بياناً من جملة واحدة مدعوماً من العديد من الباحثين والقادة في مجال الذكاء الاصطناعي. ونصها: "ينبغي أن يكون التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر الأخرى على نطاق المجتمع مثل الأوبئة والحرب النووية."5

سوء الاستخدام الخبيث

في حين أن العواقب غير المقصودة والأخطاء غير المقصودة هي مصدر لمخاطر الذكاء الاصطناعي، يمكن للجهات الفاعلة السيئة أيضًا استخدام التقنية عن قصد لإلحاق الضرر. يمكن استغلال الذكاء الاصطناعي في شن هجمات إلكترونية، أو حملات نشر معلومات مضللة، أو المراقبة غير القانونية، أو حتى الأذى الجسدي. وتوجد هذه التهديدات على المستوى الفردي وعلى المستوى المجتمعي.

الأمن الإلكتروني

يمكن أن تكون أنظمة الذكاء الاصطناعي عرضة لمشاكل أمنية. فهي تواجه إمكانية حدوث هجمات عدائية، حيث تتلاعب الجهات الخبيثة بإدخال البيانات لخداع النماذج، مما يؤدي إلى مخرجات غير صحيحة.

على سبيل المثال، تحدث عمليات كسر الحماية للذكاء الاصطناعي عندما يستخدم المتسللون حقن المطالبات ويستغلون الثغرات الأمنية في أنظمة الذكاء الاصطناعي وأداء إجراءات مقيدة. يحدث تسميم البيانات عندما تؤدي بيانات التدريب المخترقة إلى تحريف سلوك الذكاء الاصطناعي. قد يؤدي الوصول غير المصرح به والثغرات الأمنية أو المخاطر الأمنية الأخرى إلى إساءة استخدام أنظمة الذكاء الاصطناعي وبياناتها.

سلامة الذكاء الاصطناعي مقابل أمن الذكاء الاصطناعي

تعتبر سلامة الذكاء الاصطناعي وأمن الذكاء الاصطناعي جانبان مترابطان ولكن مختلفان من جوانب الذكاء الاصطناعي. تهدف سلامة الذكاء الاصطناعي إلى معالجة المشاكل المتأصلة والعواقب غير المقصودة، بينما يركز أمن الذكاء الاصطناعي على حماية أنظمة الذكاء الاصطناعي من التهديدات الخارجية.

تحاول سلامة الذكاء الاصطناعي الربط بين الذكاء الاصطناعي والقيم الإنسانية وتقليل فرصة أن يكون لأنظمة الذكاء الاصطناعي تأثير سلبي على الشركات والمجتمع. وتؤكد على مواءمة الذكاء الاصطناعي، وهي عملية ترميز القيم والأهداف الإنسانية في نماذج الذكاء الاصطناعي.

يتعلق أمن الذكاء الاصطناعي بحماية أنظمة الذكاء الاصطناعي من التهديدات الخارجية مثل الهجمات الإلكترونية واختراق أمن البيانات. وهو ينطوي على حماية سرية وسلامة نماذج الذكاء الاصطناعي. قد يشير أمن الذكاء الاصطناعي أيضًا إلى استخدام الذكاء الاصطناعي لتعزيز الوضع الأمني للمؤسسة. وبموجب هذا التعريف، فإنه يشمل استخدام الذكاء الاصطناعي والتعلم الآلي (ML) لتوقع التهديدات المحتملة ومعالجتها.

تدابير سلامة الذكاء الاصطناعي

يقوم قادة الذكاء الاصطناعي والشركات بتنفيذ ممارسات مختلفة لدعم التطوير والاستخدام المسؤول لتقنيات الذكاء الاصطناعي. تتضمن تدابير سلامة الذكاء الاصطناعي ما يلي:

  • الكشف عن التحيز الخوارزمي والتخفيف من آثاره
  • اختبار المتانة والتحقق من الصحة
  • الذكاء الاصطناعي القابل للتفسير (XAI)
  • الأطر الأخلاقية للذكاء الاصطناعي
  • الإشراف البشري
  • بروتوكولات الأمان
  • التعاون على مستوى الصناعة

الكشف عن التحيز الخوارزمي والتخفيف من آثاره

يمكن أن تعمل الخوارزميات على إدامة أو تضخيم التحيزات الموجودة في البيانات التي يتم تدريبها عليها. ولمواجهة هذه المشكلة، تستثمر الشركات في الجهود المبذولة لمكافحة التحيز الخوارزمي. تساعد تقنيات مثل جمع مجموعة البيانات المتنوعة، وتقييم الحيادية الخوارزمية، وطرق إزالة التحيزات في تحديد المشكلات المحتملة.

اختبار المتانة والتحقق من الصحة

تساعد عمليات الاختبار والتحقق الصارمة أنظمة الذكاء الاصطناعي على تحمل المخاطر وتحديد المخاطر الفنية. تساعد التقنيات مثل الاختبار التنافسي واختبار الإجهاد والتحقق الرسمي في ضمان أداء أدوات ونماذج الذكاء الاصطناعي على النحو المنشود وعدم إظهار سلوكيات غير مرغوب فيها.

الذكاء الاصطناعي القابل للتفسير (XAI)

العديد من نماذج الذكاء الاصطناعي، وخاصة النماذج اللغوية الكبيرة (LLMs)، هي "الصندوق الأسود" التي تتخذ قرارات يصعب على البشر تفسيرها. بدون الشفافية في عملية صنع القرار، يصبح من غير المرجح أن يثق المستخدمون بالنتائج والتوصيات. يهدف الذكاء الاصطناعي القابل للشرح (XAI) إلى توضيح العمليات المبهمة وراء أنظمة الذكاء الاصطناعي المعقدة، مع التركيز على القابلية للتفسير لإظهار كيفية وصولها إلى نتائجها.

الأطر الأخلاقية للذكاء الاصطناعي

لدى العديد من المؤسسات أطر أخلاقية للذكاء الاصطناعي لتوجيه تطوير أنظمة الذكاء الاصطناعي واستخدامها. وتتضمن أطر العمل هذه والمعايير المرتبطة بها عادةً مبادئ مثل الشفافية والإنصاف والمساءلة والخصوصية. فهي توفر حواجز حماية لاستخدام أدوات الذكاء الاصطناعي وتطويرها.

الإشراف البشري

في حين أن الأتمتة هي جزء من جاذبية الذكاء الاصطناعي للعديد من الشركات، فإن الحفاظ على التحكم البشري مهم لأسباب تتعلق بالسلامة. وهذا يعني وجود مشغلين بشريين لمراقبة أداء نظام الذكاء الاصطناعي، والتدخل عند الضرورة، واتخاذ القرارات النهائية في المواقف الحرجة. يساعد نهج "وجود عنصر بشري في العملية: على ضمان أن يكون الشخص الفعلي مسؤولاً عن أفعال نظام الذكاء الاصطناعي.

بروتوكولات الأمان

تنفيذ تدابير أمنية قوية مثل التشفير والتحكم في الوصول وكشف الحالات غير الطبيعية يساعد على حماية أنظمة الذكاء الاصطناعي من سوء الاستخدام أو الوصول غير المصرح به. قد تستثمر الشركات أيضاً في تدابير الأمن السيبراني للحماية من الهجمات الإلكترونية والتهديدات السيبرانية التي قد تعرض سلامة أنظمة الذكاء الاصطناعي الخاصة بها للخطر.

التعاون على مستوى الصناعة

تُعد سلامة الذكاء الاصطناعي مجالاً معقداً ومتطوراً يتطلب تعاوناً بين الباحثين وقادة الصناعة وصانعي السياسات. تشارك العديد من الشركات في اتحادات الصناعة والمبادرات البحثية وجهود التوحيد القياسي لتبادل المعرفة وأفضل الممارسات والدروس المستفادة. من خلال العمل معًا، يمكن لمجتمع الذكاء الاصطناعي تطوير تدابير أمان أكثر قوة وموثوقية.

من المسؤول عن سلامة الذكاء الاصطناعي؟

يعد البحث في سلامة الذكاء الاصطناعي جهدًا مشتركًا بين العديد من الأطراف المعنية.  

الباحثون والمطورون

تبدأ سلامة الذكاء الاصطناعي بالمطورين والمهندسين المسؤولين عن تصميم وبناء واختبار أنظمة الذكاء الاصطناعي. قد يركزون على الأسئلة التأسيسية، مثل كيفية مواءمة أهداف الذكاء الاصطناعي مع القيم الإنسانية وكيفية إنشاء نماذج شفافة وقابلة للتفسير. كما أنهم مسؤولون عن اختبار النماذج والأدوات والتحقق من صحتها للمساعدة في ضمان عملها على النحو المنشود.

شركات التقنية

تتصدر الشركات الرائدة في مجال تطوير الذكاء الاصطناعي، بما في ذلك IBM و OpenAI و Google DeepMind و Microsoft و Athropic وغيرها، جهود سلامة الذكاء الاصطناعي. فهي تستثمر في فرق مخصصة لسلامة الذكاء الاصطناعي، وتضع مبادئ توجيهية أخلاقية وتلتزم بمبادئ الذكاء الاصطناعي المسؤول لمنع النتائج الضارة.

كما أنشأت بعض الشركات أطر عمل وبروتوكولات لمعالجة المخاطر في مرحلتي البحث والنشر، مثل أدوات وأنظمة كشف التحيز التي تسمح بالإشراف البشري. كما يتعاون العديد منها في تحالفات الصناعات التي تتشارك المعرفة لوضع معايير على مستوى الصناعة لسلامة الذكاء الاصطناعي.

الحكومات والهيئات التنظيمية

تشكل جهود حوكمة الذكاء الاصطناعي الأوسع نطاقًا جزءًا أساسيًا من تدابير سلامة الذكاء الاصطناعي العالمية. وتقود المنظمات الدولية، بما في ذلك الأمم المتحدة والمنتدى الاقتصادي العالمي ومجموعة التعاون الاقتصادي والتنمية (OECD)، مبادرات تركز على أخلاقيات الذكاء الاصطناعي وسلامته. تعمل الحكومات الفردية في جميع أنحاء العالم أيضًا على وضع قواعد وأنظمة لسلامة الذكاء الاصطناعي:

في الولايات المتحدة الأمريكية، يعمل معهد سلامة الذكاء الاصطناعي (AISI)، وهو جزء من المعهد الوطني الأمريكي للمعايير والتقنية (NIST)، على معالجة قضايا السلامة. وتركز جهوده على أولويات مثل النهوض بالأبحاث وتطوير سبل التخفيف من المخاطر.

في الاتحاد الأوروبي، يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي معايير وإرشادات مختلفة للسلامة وعقوبات في حالة عدم الامتثال. بشكل منفصل، أنشأت المملكة المتحدة معهد سلامة الذكاء الاصطناعي لتعزيز تطوير الذكاء الاصطناعي الآمن. كما تقوم العديد من الدول الأخرى، بما في ذلك سنغافورة واليابان وكندا، بإنشاء هيئات لسلامة الذكاء الاصطناعي لإجراء البحوث وتوجيه التطوير والتنظيم مع التركيز على السلامة العامة.

المنظمات غير الربحية والمجموعات المناصرة

يعمل صانعو السياسات والباحثون في المنظمات غير الحكومية (NGOs) ومراكز الأبحاث وغيرها من المجموعات على معالجة المخاوف المتعلقة بالسلامة. وهم ينظرون في قضايا الأمن القومي وحقوق الإنسان والسياسة التشريعية ويوصون بطرق تساعد على تطوير الذكاء الاصطناعي بما يتماشى مع القيم والمصالح الاجتماعية. إنهم يزيدون الوعي بالمخاطر، ويضعون مبادئ توجيهية أخلاقية، ويعززون الشفافية ويشجعون البحث المسؤول.

تتضمن بعض المنظمات غير الربحية ومجموعات المناصرة الرئيسية لسلامة الذكاء الاصطناعي ما يلي:

  • مركز سلامة الذكاء الاصطناعي: CAIS هي منظمة غير ربحية مقرها سان فرانسيسكو تجري أبحاثا وإنشاء مواد تعليمية (مثل الكتب المدرسية) لتقليل المخاطر المجتمعية المرتبطة الذكاء الاصطناعي.

  • مركز الذكاء الاصطناعي المتوافق مع الإنسان: CHAI هو مركز أبحاث في جامعة كاليفورنيا، بيركلي، يجري أبحاثًا حول سلامة الذكاء الاصطناعي، بما في ذلك العمل على التعلّم المعزز وتعلّم القيم.

  • معهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان: تسعى هذه المنظمة التي تتخذ من جامعة ستانفورد مقراً لها إلى إجراء الأبحاث والدعوة إلى تطوير الذكاء الاصطناعي المرتكز على الإنسان وقيم السلامة والثقة والمسؤولية.

  • معهد أبحاث الذكاء الآلي: MIRI هي منظمة بحثية تركز على التحديات التقنية المتعلقة بالذكاء الاصطناعي الجدير بالثقة ومواءمة الذكاء الاصطناعي.

  • الشراكة في مجال الذكاء الاصطناعي: تعاون بين المنظمات الأكاديمية والصناعية التي تعمل على تعزيز ممارسات الذكاء الاصطناعي المسؤول من خلال البحث والمعلومات العامة وغيرها من الأعمال.

  • معهد مستقبل الحياة: تسعى هذه المنظمة غير الربحية إلى تقليل المخاطر الوجودية المرتبطة بتطوير الذكاء الاصطناعي من خلال البحث والدعوة.

  • مبادرة سلامة الذكاء الاصطناعي من تحالف الأمن السحابي: يعمل تحالف CSA على إنشاء إرشادات وأدوات لتمكين المؤسسات من نشر حلول الذكاء الاصطناعي الآمنة والمسؤولة والأخلاقية.
حلول ذات صلة
IBM watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
IBM OpenPages

تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

استكشف OpenPages
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

1 Growing public concern about the role of artificial intelligence in daily life, Pew Research Center, August 2023.

2 Poll Shows Overwhelming Concern About Risks From AI, AI Policy Institute (AIPI), July 2023.

3 The state of AI in early 2024, McKinsey, May 2024.

4 2023 Impact Report, Center for AI Safety, November 2023.

5 Statement on AI Risk, Center for AI Safety, March 2023.