تفعيل مبادئ الذكاء الاصطناعي المسؤول للدفاع

الزملاء الجالسون على المكتب يشيرون إلى شاشة سطح المكتب يناقشون شيئًا ما

يعمل الذكاء الاصطناعي (AI) على تطوير المجتمع، بما في ذلك طابع الأمن القومي ذاته. وإدراكًا لهذا الأمر، أطلقت وزارة الدفاع (DoD) المركز المشترك للذكاء الاصطناعي (JAIC) في عام 2019، وهو المكتب السابق لمسؤول الحلول الرقمية والذكاء الاصطناعي (CDAO)، لتطوير حلول الذكاء الاصطناعي التي تبني ميزة تنافسية عسكرية، وشروط اعتماد الذكاء الاصطناعي المرتكز على الإنسان، وذكاء عمليات وزارة الدفاع. ومع ذلك، فإن العوائق التي تحول دون توسيع نطاق الذكاء الاصطناعي في وزارة الدفاع واعتماده وتحقيق كامل إمكاناته مماثلة لتلك الموجودة في القطاع الخاص.

لقد توصل استطلاع أجرته IBM مؤخرًا أن أهم العوائق التي تحول دون نجاح نشر الذكاء الاصطناعي تشمل محدودية المهارات والخبرات وتعقيد البيانات والمخاوف الأخلاقية. بالإضافة إلى ذلك، وفقًا لـ IBM® Institute of Business Value، فقد صرح 79% من المديرين التنفيذيين أن أخلاقيات الذكاء الاصطناعي مهمة لنهج الذكاء الاصطناعي المستخدم على مستوى المؤسسة، ومع ذلك فإن أقل من 25% منهم استعانوا بالمبادئ المشتركة لأخلاقيات الذكاء الاصطناعي. ويمثل اكتساب الثقة في مخرجات نماذج الذكاء الاصطناعي تحديًا اجتماعيًا وتقنيًا يتطلب حلاً اجتماعيًا وتقنيًا.

يجب على قادة الدفاع الذين يركزون على تفعيل التنسيق المسؤول للذكاء الاصطناعي أن يتفقوا أولاً على مفردات مشتركة—ثقافة مشتركة توجه الاستخدام الآمن والمسؤول للذكاء الاصطناعي—قبل أن يطبقوا الحلول التقنية والحواجز الوقائية التي تخفف من المخاطر. ويمكن لوزارة الدفاع أن تضع أساسًا متينًا لتحقيق ذلك من خلال تحسين الإلمام بالذكاء الاصطناعي والشراكة مع مجموعات موثوقة لتطوير حوكمة تتماشى مع أهدافها وقيمها الإستراتيجية.

الإلمام بالذكاء الاصطناعي ضروري للأمن

من المهم أن يعرف الموظفون كيفية نشر الذكاء الاصطناعي لتحسين الكفاءات التنظيمية. ولكن من المهم بالقدر نفسه أن يكون لديهم فهم عميق لمخاطر الذكاء الاصطناعي وقيوده، وكيفية تنفيذ التدابير الأمنية المناسبة والحواجز الأخلاقية. هذه هي المتطلبات الأساسية لوزارة الدفاع أو أي وكالة حكومية.

يمكن أن يساعد مسار تعلم الذكاء الاصطناعي المصمم خصوصًا على تحديد الفجوات والتدريب اللازم حتى يحصل الموظفون على المعرفة التي يحتاجونها لأدوارهم المحددة. إن الإلمام بالذكاء الاصطناعي على مستوى المؤسسة أمر ضروري لجميع الموظفين حتى يتمكنوا من تقييم التهديدات السريعة الانتشار والفيروسية والخطيرة مثل المعلومات المضللة والتزييف العميق ووصفها والاستجابة لها بسرعة.

تُطبق شركة IBM الإلمام بالذكاء الاصطناعي بطريقة مخصصة داخل مجموعتنا حيث يختلف تعريف القراءة والكتابة الأساسية اعتمادًا على منصب الشخص.

دعم الأهداف الإستراتيجية والمواءمة مع القيم

وبصفتها شركة رائدة في مجال الذكاء الاصطناعي الجدير بالثقة، تتمتع شركة IBM بتجربة في تطوير أطر العمل التي توجه الاستخدام المسؤول للذكاء الاصطناعي بما يتماشى مع قيم مجموعة العملاء. وتمتلك شركة IBM أيضًا أطر العمل الخاصة بها لاستخدام الذكاء الاصطناعي داخل شركة IBM نفسها، ما يوفر معلومات لمواقف السياسة مثل استخدام تقنية التعرف على الوجه.

تُستخدم أدوات الذكاء الاصطناعي الآن في الأمن القومي وللمساعدة على الحماية من اختراق أمن البيانات والهجمات الإلكترونية. لكن الذكاء الاصطناعي يدعم أيضًا أهدافًا إستراتيجية أخرى لوزارة الدفاع. يمكن أن يعزز القوى العاملة، ما يساعد على جعلها أكثر فعالية، ويساعدهم على إعادة تأهيلهم. ويمكن أن يساعد ذلك على إنشاء سلسلة التوريد مرنة لدعم الجنود والبحارة والطيارين ومشاة البحرية في أدوار الحرب والمساعدات الإنسانية وحفظ السلام والإغاثة من الكوارث.

لدى CDAO) خمسة مبادئ أخلاقية؛ وهي المسؤولية، والإنصاف، وقابلية التعقب، والموثوقية، والحوكمة كجزء من مجموعة أدوات الذكاء الاصطناعي المسؤول. واستنادًا إلى إطار العمل الأخلاقي القائم في الجيش الأمريكي، فإن هذه المبادئ ترتكز على القيم العسكرية وتساعد على دعم الالتزام بحلول الذكاء الاصطناعي المسؤول.

ويجب أن يكون هناك جهد متضافر لجعل هذه المبادئ حقيقة واقعة من خلال النظر في المتطلبات الوظيفية وغير الوظيفية في النماذج وأنظمة الإدارة المحيطة بتلك النماذج. في ما يأتي، نقدم توصيات عامة لتفعيل المبادئ الأخلاقية لـ CDAO.

1. مسؤول

 

"سيمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والحذر، مع استمرار مسؤوليتهم عن تطوير قدرات الذكاء الاصطناعي ونشرها واستخدامها".

يتفق الجميع على أن نماذج الذكاء الاصطناعي يجب أن يتم تطويرها من قِبل موظفين حريصين ومراعين للظروف، ولكن كيف يمكن للمجموعات أن ترعى الأشخاص للقيام بهذا العمل؟ نوصي بما يأتي:

  • تعزيز ثقافة تنظيمية تعترف بالطبيعة الاجتماعية والتقنية لتحديات الذكاء الاصطناعي. ويجب أن يتم الإبلاغ عن ذلك منذ البداية، ويجب أن يكون هناك إدراك للممارسات ومجموعات المهارات والتفكير الذي يجب وضعه في النماذج وإدارتها لمراقبة الأداء.
  • توضيح الممارسات الأخلاقية بالتفصيل طوال دورة حياة الذكاء الاصطناعي، بما يتوافق مع أهداف العمل (أو المهمة)، وإعداد البيانات ونمذجتها وتقييمها ونشرها.  نموذج CRISP-DM مفيد هنا. تقدم IBM طريقة علم البيانات المتدرجة، وهي امتداد لمنهجية CRISP-DM، إدارة عبر دورة حياة نماذج الذكاء الاصطناعي المتعمقة بإدخال بيانات تعاونية من علماء البيانات وعلماء النفس الصناعيين والتنظيميين والمصممين واختصاصيي التواصل وغيرهم. وتدمج هذه الطريقة أفضل الممارسات العملية في علم البيانات، وإدارة المشروعات، وأطر عمل التصميم، وحوكمة الذكاء الاصطناعي. ويمكن للفرق الاطلاع بسهولة على المتطلبات وفهمها في كل مرحلة من مراحل دورة الحياة، بما في ذلك الوثائق، والأشخاص الذين يحتاجون إلى التحدث إليهم أو التعاون معهم، والخطوات التالية.
  • توفير بيانات وصفية قابلة للتفسير لنتائج الذكاء الاصطناعي (على سبيل المثال، في شكل أوراق حقائق) تحدد الأشخاص المسؤولين، ومعايير الأداء (مقارنة بالبشر)، والبيانات والأساليب المستخدمة، وسجلات التدقيق (التاريخ ومن قام بها)، والغرض من التدقيق وغرضه.

ملاحظة: يجب أن تكون مقاييس المسؤولية هذه قابلة للتفسير من قِبل غير الخبراء في الذكاء الاصطناعي (من دون "توضيح رياضي").

2. منصف

 

"ستتخذ الوزارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي".

يتفق الجميع على أن استخدام نماذج الذكاء الاصطناعي يجب أن يكون عادلاً وغير تمييزي، ولكن كيف يحدث ذلك عمليًا؟ نوصي بما يأتي:

  • إنشاء مراكز للتميز لتوفير مجتمع للتدريب التطبيقي للفرق المتنوعة ومتعددة التخصصات لتحديد التأثير المتباين المحتمل.
  • استخدام أدوات التدقيق لتعكس التحيز المعروض في النماذج. إذا كان الانعكاس يتماشى مع قيم المجموعة، فإن الشفافية المحيطة بالبيانات والأساليب المختارة هي المفتاح. وإذا كان الانعكاس لا يتماشى مع القيم التنظيمية، فهذه إشارة إلى أن شيئًا ما يجب أن يتغير. ينطوي اكتشاف الأثر المتباين المحتمل الناجم عن التحيز والتخفيف من حدته على ما هو أكثر من مجرد فحص البيانات التي تم تدريب النموذج عليها. يجب على المجموعات أيضًا فحص الأشخاص والعمليات المعنية. على سبيل المثال، هل تم الإبلاغ بوضوح عن الاستخدامات المناسبة وغير الملائمة للنموذج؟
  • قياس الإنصاف وجعل معايير الإنصاف قابلة للتنفيذ من خلال توفير متطلبات وظيفية وغير وظيفية لمستويات مختلفة من الخدمة.
  • استخدام أطر عمل التفكير التصميمي لتقييم التأثيرات غير المقصودة لنماذج الذكاء الاصطناعي، وتحديد حقوق المستخدمين النهائيين، وتفعيل المبادئ. من الضروري أن تتضمن تمارين التفكير التصميمي أشخاصًا لديهم تجارب متنوعة على نطاق واسع—كلما كانت التجارب أكثر تنوعًا، كان ذلك أفضل.

3. قابلة للتتبع

 

"سيتم تطوير قدرات الذكاء الاصطناعي الخاص بالقسم ونشره بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتقنية وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق".

تفعيل إمكانية التتبع من خلال توفير إرشادات واضحة لجميع الموظفين باستخدام الذكاء الاصطناعي:

  • تأكد دائمًا من توضيح الأمر للمستخدمين عند تعاملهم مع نظام الذكاء الاصطناعي.
  • توفير أساس المحتوى لنماذج الذكاء الاصطناعي. تمكين خبراء المجال من تنسيق مصادر البيانات الموثوقة المستخدمة في تدريب النماذج والحفاظ عليها. تعتمد مخرجات النموذج على البيانات التي تم تدريبه عليها.

يمكن لشركة IBM وشركائها توفير حلول ذكاء اصطناعي ذات محتوى شامل وقابل للتدقيق، وهو أمر ضروري لحالات الاستخدام عالية المخاطر.

  • التقاط البيانات الوصفية الرئيسية لجعل نماذج الذكاء الاصطناعي شفافة وتتبع مخزون النموذج. والتأكد من أن هذه البيانات الوصفية قابلة للتفسير وأن المعلومات الصحيحة تُعرض للموظفين المناسبين. كما يتطلب تفسير البيانات ممارسة عملية وهو جهد متعدد التخصصات. في شركة IBM، تهدف مجموعة تصميم الذكاء الاصطناعي لدينا إلى تثقيف الموظفين حول الدور الحاسم للبيانات في الذكاء الاصطناعي (من بين أساسيات أخرى) والتبرع بأطر العمل للمجتمع مفتوح المصدر.
  • جعل هذه البيانات الوصفية قابلة للعثور عليها بسهولة من قِبل الأشخاص (في نهاية المطاف في مصدر الإخراج).
  • إشراك الإنسان في هذه العملية، حيث ينبغي للذكاء الاصطناعي أن يعمل على تعزيز قدرات البشر ومساعدتهم. وهذا يسمح للبشر بتقديم التعليقات في أثناء تشغيل أنظمة الذكاء الاصطناعي.
  • إنشاء عمليات وأطر عمل لتقييم التأثير المتباين ومخاطر السلامة قبل نشر النموذج أو شرائه بوقت كافٍ. وتعيين أشخاص مسؤولين للتخفيف من هذه المخاطر.

4. موثوق

 

"سيكون لقدرات الذكاء الاصطناعي الخاصة بالقسم استخدامات واضحة ومحددة بشكل جيد، وستخضع سلامة هذه القدرات وأمنها وفعاليتها للاختبار والتأكد من سلامتها ضمن تلك الاستخدامات المحددة طوال دورات حياتها بأكملها".

يجب على المجموعات توثيق حالات الاستخدام المحددة جيدًا ثم اختبار الامتثال. ويتطلب تفعيل هذه العملية وتوسيع نطاقها مواءمة ثقافية قوية حتى يلتزم الممارسون بأعلى المعايير حتى من دون إشراف مباشر مستمر. تشمل أفضل الممارسات ما يأتي:

  • إنشاء مجتمعات تعيد التأكيد باستمرار على سبب أهمية المخرجات العادلة والموثوقة. ويعتقد العديد من الممارسين بجدية أنه ببساطة من خلال امتلاك أفضل النوايا، لا يمكن أن يكون هناك أي تأثير متباين. وهذا خطأ. حيث يُعد التدريب التطبيقي الذي يُقدم من قِبل قادة المجتمع المنخرطين للغاية الذين يجعلون الناس يشعرون بأنهم مسموعون ومشاركون أمر حساس.
  • بناء أسس اختبار الموثوقية حول الإرشادات والمعايير للبيانات المستخدمة في التدريب النموذجي. أفضل طريقة لجعل هذا حقيقيًا هي تقديم أمثلة لما يمكن أن يحدث عند عدم وجود هذا التدقيق.
  • تقييد وصول المستخدم إلى تطوير النموذج، ولكن القيام بجمع وجهات نظر متنوعة في بداية المشروع للتخفيف من التحيز.
  • وإجراء عمليات فحص الخصوصية والأمان على طول دورة حياة الذكاء الاصطناعي بأكملها.
  • تضمين مقاييس الدقة في عمليات التدقيق المجدولة بانتظام. وتقديم مقارنة صريحة ومباشرة بين أداء النموذج وأداء الإنسان. إذا فشل النموذج في توفير نتائج دقيقة، فيجب تفصيل من هو المسؤول عن هذا النموذج وما الموارد المتاحة للمستخدمين. (يجب دمج كل هذا في البيانات الوصفية القابلة للتفسير والعثور عليها).

5. قابل للحكم

 

"سيعمل القسم على تصميم قدرات الذكاء الاصطناعي وهندستها للوفاء بوظائفها المقصودة مع امتلاك القدرة على كشف العواقب غير المقصودة وتجنبها، والقدرة على فك الأنظمة المنشورة التي تظهر سلوكًا غير مقصود أو تعطيلها".

يتطلب تفعيل هذا المبدأ ما يأتي:

  • لا يتوقف الاستثمار في نموذج الذكاء الاصطناعي عند النشر. يجب تخصيص الموارد لضمان استمرار النماذج في التصرف على النحو المرغوب والمتوقع. وتقييم المخاطر والتخفيف منها طوال دورة حياة الذكاء الاصطناعي، وليس فقط بعد النشر.
  • تعيين جهة خاضعة للمساءلة ولديها تفويض ممول للقيام بأعمال الحوكمة. ويجب أن يكون لديهم القوة.
  • الاستثمار في التواصل وبناء المجتمع والتعليم. الاستفادة من أدوات مثل watsonx.governance لمراقبة أنظمة الذكاء الاصطناعي.
  • التقاط المخزون من نماذج الذكاء الاصطناعي وإدارته كما هو موضح أعلاه.
  • نشر تدابير الأمن السيبراني عبر جميع النماذج.

تُعد شركة IBM رائدة في تطوير الذكاء الاصطناعي الجدير بالثقة

لطالما كانت شركة IBM في طليعة الشركات التي تعمل على تطوير مبادئ الذكاء الاصطناعي الجديرة بالثقة ورائدة في حوكمة أنظمة الذكاء الاصطناعي منذ نشأتها. ونحن نتبع مبادئ الثقة والشفافية الراسخة التي توضح أن دور الذكاء الاصطناعي هو تعزيز الخبرة والحكم البشريين وليس استبدالهما.

في عام 2013، شرعت شركة IBM في رحلة التفسير والشفافية في الذكاء الاصطناعي والتعلم الآلي. وتُعد شركة IBM رائدة في مجال أخلاقيات الذكاء الاصطناعي، حيث عينت قائدًا عالميًا لأخلاقيات الذكاء الاصطناعي في عام 2015 وأنشأت مجلسًا لأخلاقيات الذكاء الاصطناعي في عام 2018. ويعمل هؤلاء الخبراء للمساعدة على ضمان دعم مبادئنا والتزاماتنا في مشاركاتنا التجارية العالمية. في عام 2020، تبرعت شركة IBM بمجموعة أدوات الذكاء الاصطناعي المسؤول لمؤسسة Linux للمساعدة على بناء مستقبل ذكاء اصطناعي عادل وآمن والذكاء الاصطناعي الجدير بالثقة.

تقود شركة IBM الجهود العالمية لصياغة مستقبل الذكاء الاصطناعي المسؤول ومقاييس الذكاء الاصطناعي الأخلاقي والمعايير وأفضل الممارسات الأخلاقية:

  • شاركت مع إدارة الرئيس Biden في تطوير الأمر التنفيذي للذكاء الاصطناعي
  • تم الكشف عن/تقديم أكثر من 70 براءة اختراع للذكاء الاصطناعي المسؤول
  • يشارك Arvind Krishna، الرئيس التنفيذي لشركة IBM، في رئاسة اللجنة التوجيهية لتحالف العمل العالمي للذكاء الاصطناعي الذي أطلقه المنتدى الاقتصادي العالمي (WEF)،
  • ويركز التحالف على تسريع اعتماد الذكاء الاصطناعي الشامل والشفاف والموثوق به على مستوى العالم
  • وشارك في تأليف ورقتين بحثيتين نشرهما المنتدى الاقتصادي العالمي عن الذكاء الاصطناعي التوليدي حول قيمة إلغاء القفل وتطوير أنظمة وتقنيات آمنة.
  • الرئيس المشارك للجنة الذكاء الاصطناعي الموثوقة في مؤسسة Linux للذكاء الاصطناعي
  • ساهم في إطار عمل إدارة مخاطر الذكاء الاصطناعية في NIST؛ والتعاون مع NIST في مجال مقاييس الذكاء الاصطناعي والمعايير والاختبارات

يشكّل الذكاء الاصطناعي المسؤول تحديًا متعدد الأوجه لأنه يتطلب أن تنعكس القيم الإنسانية بشكل موثوق ومتسق في تقنيتنا. لكن الأمر يستحق الجهد المبذول. ونعتقد أن الإرشادات المذكورة أعلاه يمكن أن تساعد وزارة الدفاع على تفعيل الذكاء الاصطناعي الموثوق به ومساعدته على تحقيق مهمته.

لمزيد من المعلومات حول كيف يمكن لـ IBM المساعدة، تُرجى زيارة استشارات حوكمة الذكاء الاصطناعي | IBM

المزيد من الموارد:

مؤلف

Chuck Royal

Associate Partner | DTT

IBM Blog

Phaedra Boinodiris

Global Leader for Trustworthy AI

IBM Consulting

اتخِذ الخطوة التالية

احصل على وصول شامل إلى القدرات التي تغطي دورة حياة تطوير الذكاء الاصطناعي. توصَّل إلى حلول ذكاء اصطناعي قوية باستخدام واجهات سهلة الاستخدام وتدفقات سير عمل سلسة وإمكانية الوصول إلى واجهات برمجة التطبيقات ومجموعات تطوير البرمجيات وفق معايير الصناعة (SDKs).

استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا