ما هو الذكاء الاصطناعي الجدير بالثقة؟

24 أكتوبر 2024

قراءة لمدة 5 دقائق

المؤلف

Alice Gomstyn

IBM Content Contributor

Alexandra Jonker

Editorial Content Lead

Amanda McGrath

Writer

IBM

ما هو الذكاء الاصطناعي الجدير بالثقة؟

يشير الذكاء الاصطناعي الجدير بالثقة إلى أنظمة الذكاء الاصطناعي القابلة للشرح والعادلة، والقابلة للتفسير والقوية والشفافة والآمنة. تعمل هذه الصفات على خلق الثقة في أنظمة الذكاء الاصطناعي بين الأطراف المعنية والمستخدمين النهائيين.

يمكن للذكاء الاصطناعي الجدير بالثقة أو TAI، التخفيف من المخاطر المحتملة المرتبطة بنشر نماذج الذكاء الاصطناعي. وتشمل مخاطر الذكاء الاصطناعي الإضرار بالأشخاص والمؤسسات والأنظمة البنائية. وعندما تحدث مثل هذه الأضرار، فإنها يمكن أن تقوض الثقة ليس فقط في نماذج الذكاء الاصطناعي ولكن في الذكاء الاصطناعي بشكل عام.

يمكن أن تساعد أطر عمل الذكاء الاصطناعي الجدير بالثقة في توجيه المؤسسات في تطوير تقنيات الذكاء الاصطناعي واعتمادها وتقييمها. قامت العديد من المنظمات الحكومية والمنظمات الحكومية الدولية بإنشاء مثل هذه الأطر، بما في ذلك المعهد الوطني للمعايير والتقنية (NIST) في الولايات المتحدة، ومجموعة الخبراء رفيعي المستوى المعنية بالذكاء الاصطناعي التابعة للمفوضية الأوروبية، ومنظمة التعاون الاقتصادي والتنمية (OECD).

بالإضافة إلى ذلك، يمكن للشركات تنفيذ استراتيجيات وأدوات مختلفة لتحسين موثوقية أنظمة الذكاء الاصطناعي الخاصة بها. على سبيل المثال، يمكن أن تساعد المراقبة المستمرة والتوثيق وأطر عمل حوكمة الذكاء الاصطناعي في تقليل المخاطر.

 

لماذا يُعد الذكاء الاصطناعي الجدير بالثقة مهمًا؟

غالبًا ما يكون فهم كيفية عمل التقنية أمرًا أساسيًا للثقة في فعاليتها. لكن العديد من أنظمة الذكاء الاصطناعي والتعلم الآلي (ML) مثل نماذج التعلم العميق ، تعمل كصناديق سوداء حقيقية؛ فهي تستوعب البيانات وتنتج مخرجات، مع القليل من الشفافية أو بدون شفافية حول كيفية وصولها إلى تلك المخرجات.

ونتيجة لذلك، النتائج تتزايد حالات نقص الثقة. وجد استطلاع أجري في عام 2023 أن أكثر من 40% من قادة الأعمال أشاروا إلى مخاوفهم بشأن مصداقية الذكاء الاصطناعي.1 وفي الوقت نفسه، أظهر المستهلكون أيضًا عدم ثقتهم في الذكاء الاصطناعي: فقد وجدت دراسة أجريت عام 2024 أن تضمين مصطلح "الذكاء الاصطناعي" في ملصق المنتج يمكن أن يجعل المتسوقين أقل ميلًا لشراء هذا المنتج.2

كما أن الأمثلة الواقعية لأنظمة الذكاء الاصطناعي التي تحقق نتائج خاطئة أو ضارة في حالات الاستخدام عالية المخاطر تزيد من مخاوف الثقة في الذكاء الاصطناعي. في أحد الأمثلة المعروفة للرعاية الصحية، فشل نموذج الذكاء الاصطناعي في تشخيص تعفن الدم بشكل موثوق. بينما كان أداء النموذج جيدًا في بيئة التدريب، إلا أنه لم يكتشف تعفن الدم في أكثر من ثلثي مرضى المستشفيات.3

وفي حالات أخرى، أظهرت نماذج الذكاء الاصطناعي اتخاذ قرارات خوارزمية متحيزة، بما في ذلك أنظمة الشرطة التنبؤية التي تستهدف بشكل غير متناسب مجتمعات الأقليات وأنظمة تتبع المتقدمين التي تفضل المرشحين الذكور على الإناث. وهناك أيضًا مخاوف أمنية، مثل روبوتات المحادثة المدعومة بالذكاء الاصطناعي التي تكشف عن بيانات شخصية حساسة عن غير قصد، وقيام المتسللين باستغلال الثغرات الأمنية في نماذج الذكاء الاصطناعي لسرقة معلومات خاصة بالشركات.

عندما يكون أداء نماذج الذكاء الاصطناعي دون المستوى أو تؤدي إلى نتائج ضارة، يمكن أن يقوض ذلك الثقة ليس فقط في تلك النماذج، ولكن في الذكاء الاصطناعي بشكل عام، مما قد يعيق تطوير الذكاء الاصطناعي واعتماده في المستقبل. إن تحقيق أنظمة ذكاء اصطناعي جديرة بالثقة ودعم تطوير الذكاء الاصطناعي في المستقبل يعني تسليط الضوء داخل الصندوق الأسود المجازي للذكاء الاصطناعي. يتيح هذا للأطراف المعنية الاعتماد على تطبيقات الذكاء الاصطناعي الخاصة بهم لتقديم النتائج موثوقة ودقيقة مع تقليل مخاطر النتائج المتحيزة أو غير المتوافقة مع القصد الأصلي.

 

ما هي مبادئ الذكاء الاصطناعي الجدير بالثقة؟

تؤكد المجموعات وأطر العمل المختلفة على مختلف الأهداف والمبادئ التوجيهية للذكاء الاصطناعي الجدير بالثقة. تتضمن مبادئ الذكاء الاصطناعي الجدير بالثقة التي يتم الاستشهاد بها بشكل متكرر ما يلي:

  • المساءلة
  • إمكانية التفسير
  • الإنصاف
  • قابلية التفسير والشفافية
  • الخصوصية
  • الموثوقية
  • المتانة والأمان
  • السلامة

المساءلة

المساءلة في الذكاء الاصطناعي تتضمن مساءلة الجهات الفاعلة في مجال الذكاء الاصطناعي عن الأداء السليم لأنظمة الذكاء الاصطناعي طوال دورة حياتها. ويشمل ذلك الأفراد والمؤسسات التي تشارك في تطوير تكنولوجيا الذكاء الاصطناعي أو نشرها أو تشغيلها.4

 

إمكانية التفسير

تتعلق قابلية شرح الذكاء الاصطناعي بالتحقق أو تقديم المبررات لمخرجات النموذج. هناك طرق مختلفة للشرح، تُعرف مجتمعة باسم الذكاء الاصطناعي القابل للشرح، والتي تمكّن القوى البشرية من فهم والثقة بالنتائج والمخرجات التي تم إنشاؤها بواسطة خوارزميات التعلم الآلي. 

 

الإنصاف

يشير الإنصاف في الذكاء الاصطناعي إلى المعاملة العادلة للأفراد والجماعات. ويشمل التخفيف من التحيزات في الخوارزمية والبيانات. يحدث التحيز الخوارزمي عندما تؤدي الأخطاء المنهجية في خوارزميات التعلم الآلي إلى نتائج غير عادلة أو تمييزية، بينما يشير تحيز البيانات إلى الطبيعة المنحرفة أو غير التمثيلية لبيانات التدريب المستخدمة في نماذج الذكاء الاصطناعي.

 

قابلية التفسير والشفافية

تساعد قابلية تفسير الذكاء الاصطناعي الأشخاص على فهم وشرح عمليات صنع القرار في نماذج الذكاء الاصطناعي بشكل أفضل. تتعلق قابلية التفسير بالشفافية، مما يسمح للمستخدمين بفهم بنية النموذج والميزات التي يستخدمها وكيف يجمعها لتقديم التنبؤات. في حين أن بعض النماذج قابلة للتفسير بطبيعتها، فإن البعض الآخر يتطلب استخدام أساليب التفسير.

 

الخصوصية

تشير خصوصية الذكاء الاصطناعي إلى حماية المعلومات الشخصية أو الحساسة التي يتم جمعها أو استخدامها أو مشاركتها أو تخزينها بواسطة الذكاء الاصطناعي. ترتبط خصوصية الذكاء الاصطناعي ارتباطًا وثيقًا بخصوصية البيانات. خصوصية البيانات، والمعروفة أيضًا باسم خصوصية المعلومات، هي المبدأ الذي ينص على أن الشخص يجب أن يكون لديه سيطرة على بياناته الشخصية. يمكن تحسين الحفاظ على خصوصية الذكاء الاصطناعي وخصوصية البيانات من خلال عدد من الأساليب، بدءًا من التشفير وحتى التعلم الموحد.

 

الموثوقية

يمكن تعريف الموثوقية على أنها القدرة على العمل على النحو المنشود أو المطلوب، دون فشل، لفترة زمنية معينة في ظل ظروف معينة. يجب أن تقدم أنظمة الذكاء الاصطناعي الموثوقة، عند استخدامها في ظل الظروف المتوقعة، نتائج صحيحة على مدى فترة زمنية معينة، والتي قد تشمل العمر الافتراضي الكامل لتلك الأنظمة.5

 

المتانة والأمان

تتمتع أنظمة الذكاء الاصطناعي الآمنة والقوية بآليات حماية ضد الهجمات المعادية والوصول غير المصرح به، مما يقلل من مخاطر الأمن السيبراني والثغرات الأمنية. يمكنها الأداء في ظل ظروف غير طبيعية دون التسبب في ضرر غير مقصود والعودة إلى وظائفها الطبيعية بعد حدث غير متوقع.

 

السلامة

لا تشكل أنظمة الذكاء الاصطناعي الآمنة خطراً على حياة الإنسان أو صحته أو ممتلكاته أو البيئة. وهي مصممة بشكل استباقي لحماية الأشخاص من الأذى وتتضمن تدابير تخفف من النتائج غير الآمنة، بما في ذلك إمكانية إزالة النظام من الاستخدام.6

 

ما هي المخاطر التي يمكن للذكاء الاصطناعي الجدير بالثقة التخفيف منها؟

تشكل أنظمة الذكاء الاصطناعي التي تفتقر إلى الصفات الجديرة بالثقة مجموعة واسعة من المخاطر. قام المعهد الوطني الأمريكي للمعايير والتقنية (NIST)، وهو جزء من وزارة التجارة الأمريكية، بتطوير إطار العمل الذي أصبح معيارًا لإدارة مخاطر الذكاء الاصطناعي. ينظم مخاطر الأضرار المحتملة الناجمة عن أنظمة الذكاء الاصطناعي في الفئات التالية:7

  • ضرر الأشخاص
  • ضرر المؤسسة
  • ضرر النظام البنائي

ضرر الأشخاص

تشمل هذه الفئة الأضرار التي تلحق بالحريات المدنية للأفراد أو حقوقهم أو سلامتهم الجسدية أو النفسية أو الفرص الاقتصادية. كما يشمل ذلك الآثار التي تطال الجماعات من خلال التمييز، والآثار التي تطال المجتمعات في شكل إضرار بالمشاركة الديمقراطية أو الوصول إلى التعليم.

 

ضرر المؤسسة

تشير هذه الفئة إلى الضرر الذي يلحق بالعمليات التجارية للمؤسسة، والضرر الناجم عن الخروقات الأمنية أو الخسارة المالية، والإضرار بسمعتها.

 

ضرر النظام البنائي

تشمل هذه الفئة الضرر الذي يلحق "بالعناصر والموارد المترابطة والمتشابكة. يشير المعهد الوطني الأمريكي للمعايير والتقنية (NIST) على وجه التحديد إلى الأضرار التي تلحق بالنظام المالي العالمي أو سلسلة التوريد أو "الأنظمة المترابطة" وكذلك بالموارد الطبيعية والبيئة والكوكب.

 

يمكن أن تؤدي المخرجات المتحيزة أو غير الدقيقة من أنظمة الذكاء الاصطناعي إلى أضرار متعددة. وبالعودة إلى مثال سابق، فإن أنظمة تتبع مقدمي الطلبات المتحيزة يمكن أن تضر بالفرص الاقتصادية للأفراد، كما يمكن أن تضر بسمعة المؤسسة. إذا تم خداع نموذج لغوي كبير (LLM)لتشغيل برنامج ضار يعمل على شل عمليات الشركة، فقد يتسبب ذلك في ضرر لكل من الشركة وسلسلة التوريد التي تنتمي إليها.

قد يساعد الذكاء الاصطناعي الجدير بالثقة في منع مثل هذه السيناريوهات والعواقب الوخيمة. ووفقًا للمعهد الوطني الأمريكي للمعايير والتقنية (NIST)، "يمكن لأنظمة الذكاء الاصطناعي الجديرة بالثقة واستخدامها المسؤول أن تخفف من المخاطر السلبية وتساهم في تحقيق فائدة للأشخاص والمؤسسات والنظام البنائي."

 

أطر عمل الذكاء الاصطناعي الجدير بالثقة

في السنوات الأخيرة، ظهرت أطر العمل المختلفة لتوجيه مزودي ومستخدمي الذكاء الاصطناعي في تطوير ونشر وتشغيل أنظمة الذكاء الاصطناعي الجدير بالثقة. وتشمل أطر العمل هذه ما يلي:

 

إطار عمل NIST لإدارة مخاطر الذكاء الاصطناعي

"نُشِرَ في يناير 2023، إطار عمل المعهد الوطني الأمريكي للمعايير والتقنية (NIST) لإدارة مخاطر الذكاء الاصطناعي (AI RMF)، والذي يتضمن نظرة عامة على مخاطر الذكاء الاصطناعي عبر دورات حياة الذكاء الاصطناعي وخصائص أنظمة الذكاء الاصطناعي الجديرة بالثقة. ويحدد إطار العمل أيضاً إجراءات محددة لمساعدة المؤسسات على إدارة مثل هذه الأنظمة، بما في ذلك مهام الاختبار والتقييم والتحقق والمصادقة.

ينطبق إطار العمل الطوعي على أي شركة أو منطقة جغرافية، لكن المعهد الوطني الأمريكي للمعايير والتقنية يقر بأن خصائص الذكاء الاصطناعي الجدير بالثقة لا تنطبق جميعها في كل بيئة. يشجع إطار العمل على استخدام الحكم البشري في اختيار مقاييس الجدارة بالثقة القابلة للتطبيق مع مراعاة أن هناك عادةً تنازلات عند تحسين خاصية ذكاء اصطناعي جدير بالثقة أو أخرى. في يوليو 2024، أصدر المعهد الوطني الأمريكي للمعايير والتقنية موردًا مصاحبًا لإدارة مخاطر الذكاء الاصطناعي، والذي ركز على الذكاء الاصطناعي التوليدي.

 

مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية (OECD)

تعزز مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية احترام حقوق الإنسان والقيم الديمقراطية في استخدام الذكاء الاصطناعي. ويتضمن إطار عمل منظمة التعاون الاقتصادي والتنمية، الذي تم اعتماده في مايو 2019 وتم تحديثه في مايو 2024، مبادئ وتوصيات قائمة على القيم لصانعي السياسات. تروّج منظمة التعاون الاقتصادي والتنمية للتوصيات باعتبارها أول معايير حكومية دولية للذكاء الاصطناعي، مع 47 من أتباعها حول العالم، بما في ذلك الولايات المتحدة ودول الاتحاد الأوروبي ودول في أمريكا الجنوبية وآسيا.

 

المبادئ التوجيهية الأخلاقية للاتحاد الأوروبي للذكاء الاصطناعي الجدير بالثقة

تركز المبادئ التوجيهية للاتحاد الأوروبي، التي نشرها فريق الخبراء رفيع المستوى المعني بالذكاء الاصطناعي التابع للمفوضية الأوروبية في أبريل 2019، على أخلاقيات الذكاء الاصطناعي وتؤكد على نهج "يركز على الإنسان" لتطوير الذكاء الاصطناعي في الاتحاد الأوروبي. تضمنت المبادئ التوجيهية 7 مبادئ أخلاقية، مثل "الوكالة البشرية والرقابة" و "الرفاهية المجتمعية والبيئية". في العام التالي، أصدرت المجموعة قائمة التقييم للذكاء الاصطناعي الجدير بالثقة (الرابط موجود خارج ibm.com)، والتي تساعد المؤسسات على تقييم أنظمة الذكاء الاصطناعي الخاصة بها.

ورغم أن المبادئ التوجيهية نفسها غير ملزمة، فقد تم الاستشهاد بها لاحقًا في قانون الذكاء الاصطناعي للاتحاد الأوروبي، وهو القانون الذي يحكم تطوير أو استخدام الذكاء الاصطناعي في الاتحاد الأوروبي. ينص نص القانون على أن مبادئ الاتحاد الأوروبي الأخلاقية للذكاء الاصطناعي "يجب أن تترجم، عند الإمكان، في تصميم نماذج الذكاء الاصطناعي واستخدامها."8

 

كما أصدرت منظمات أخرى إطارات توجيهية تشجع على الذكاء الاصطناعي الجدير بالثقة، بما في ذلك مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا (من خلال مشروع قانون حقوق الذكاء الاصطناعي)، وشركات مثل Deloitte (يوجد الرابط خارج ibm.com) و IBM.

 

الذكاء الاصطناعي الجدير بالثقة مقابل الذكاء الاصطناعي الأخلاقي مقابل الذكاء الاصطناعي المسؤول

غالبًا ما تُستخدم مصطلحات الذكاء الاصطناعي الجدير بالثقة و الذكاء الاصطناعي الأخلاقي والذكاء الاصطناعي المسؤول بالتبادل. ولأن تعريفات كل مفهوم يمكن أن تختلف حسب المصدر وغالبًا ما تتضمن تداخلات كبيرة، فإن وضع فروق قاطعة بين الثلاثة قد يكون أمرًا صعبًا.

على سبيل المثال، تُدرج التعريفات الشائعة للذكاء الاصطناعي الجدير بالثقة والذكاء الاصطناعي الأخلاقي مبادئ مثل الإنصاف والخصوصية كأساس لكل مفهوم. وبالمثل، فإن المساءلة والشفافية من السمات التي غالباً ما ترتبط بكل من الذكاء الاصطناعي الجدير بالثقة والذكاء الاصطناعي المسؤول.

تتمثل إحدى طرق التمييز بين المفاهيم الثلاثة القائمة على الذكاء الاصطناعي في النظر إلى ما وراء مبادئها الأساسية والتركيز بدلاً من ذلك على كيفية استخدامها:

  • وغالبًا ما يتم تأطير الذكاء الاصطناعي الجدير بالثقة على أنه شيء يتم تحقيقه؛ إنه الذكاء الاصطناعي الذي يبني الثقة مع مستخدميه.
  • في المقابل، وُصِفَ الذكاء الاصطناعي الأخلاقي بأنه أنظمة ذكاء اصطناعي تتضمن اعتبارات أخلاقية—تعكس القيم الإنسانية والمعايير الأخلاقية—أثناء تصميمها وتطويرها.
  • يمكن تفسير الذكاء الاصطناعي المسؤول على أنه يشمل الوسائل العملية لدمج تلك الأخلاقيات في تطبيقات الذكاء الاصطناعي ومهام سير العمل.
تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث أخبار ورؤى الذكاء الاصطناعي 


تتوفر رؤى وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

الاستراتيجيات لتحقيق الذكاء الاصطناعي الجدير بالثقة

يمكن للمؤسسات اتخاذ خطوات مهمة للمساعدة في ضمان أن أنظمة الذكاء الاصطناعي الخاصة بها، بما في ذلك خوارزميات الذكاء الاصطناعي ومجموعات البيانات، تعمل بما يتماشى مع مبادئ الذكاء الاصطناعي الجدير بالثقة.

التقييم: يمكن أن يساعد تقييم عمليات الأعمال المدعوم بالذكاء الاصطناعي الشركات على تحديد المجالات التي تحتاج إلى تحسين في مقاييس الجدارة بالثقة المختلفة.

المراقبة المستمرة: من خلال المراقبة المستمر للمشاكل مثل تحيز الذكاء الاصطناعي وانحراف النموذج، تعالج المؤسسات بشكل استباقي العمليات أو المخرجات غير العادلة أو غير الدقيقة، وبالتالي تدعم الإنصاف والموثوقية.

إدارة المخاطر: يسمح تنفيذ إطار عمل وأدوات إدارة المخاطر بالكشف عن الخروقات الأمنية وانتهاكات الخصوصية وتقليلها لتعزيز قوة الذكاء الاصطناعي.

التوثيق: يمكن استخدام التوثيق الآلي عبر دورة حياة علم البيانات والذكاء الاصطناعي في عمليات التدقيق في الصناعة والعمليات التنظيمية، مما يتيح المساءلة والشفافية.

أطر حوكمة الذكاء الاصطناعي: تتضمن أطر عمل حوكمة الذكاء الاصطناعي إجراءات تتعلق بإدارة البيانات والنماذج، مما يساعد على ضمان اتباع المطورين وعلماء البيانات داخل المؤسسة للمعايير الداخلية واللوائح الحكومية.

يمكن لحوكمة الذكاء الاصطناعي ومجموعة أدوات المصدر المفتوح أن مساعدة المؤسسات على اتخاذ هذه الخطوات وغيرها من الخطوات لتحسين الجدارة بالثقة في أنظمة الذكاء الاصطناعي الخاصة بها. مع وجود التدابير والضمانات الصحيحة، يمكن للشركات أن تقلل من المخاطر أثناء تسخيرها لقوة الذكاء الاصطناعي.

 
الحواشي

الروابط خارج موقع ibm.com.

1 ”Workday Global Survey: 98% of CEOs Say Their Organizations Would Benefit from Implementing AI, But Trust Remains a Concern.” Workday. 14 September 2023.

2 “Adverse impacts of revealing the presence of “Artificial Intelligence (AI)” technology in product and service descriptions on purchase intentions: the mediating role of emotional trust and the moderating role of perceived risk.” Journal of Hospitality Marketing & Management. 19 June 2024.

3 “From theory to practice: Harmonizing taxonomies of trustworthy AI.” Health Policy OPEN. 5 September 2024.

4OECD AI Principles: Accountability (Principle 1.5).” OECD. Accessed 17 October 2024.

5,7Artificial Intelligence Risk Management Framework (AI RMF 1.0).” National Institute of Standards and Technology, US Department of Commerce. January 2023.

6Blueprint for an AI Privacy Bill of Rights: Safe and Effective Systems.” The White House Office of Science and Technology Policy. Accessed 17 October 2024.

8EU Artificial Intelligence Act: Recital 27.” The European Union. 13 June 2024.