يعمل الذكاء الاصطناعي (AI) على تطوير المجتمع، بما في ذلك طابع الأمن القومي ذاته. وإدراكًا لهذا الأمر، أطلقت وزارة الدفاع (DoD) المركز المشترك للذكاء الاصطناعي (JAIC) في عام 2019، وهو المكتب السابق لمسؤول الحلول الرقمية والذكاء الاصطناعي (CDAO)، لتطوير حلول الذكاء الاصطناعي التي تبني ميزة تنافسية عسكرية، وشروط اعتماد الذكاء الاصطناعي المرتكز على الإنسان، وذكاء عمليات وزارة الدفاع. ومع ذلك، فإن العوائق التي تحول دون توسيع نطاق الذكاء الاصطناعي في وزارة الدفاع واعتماده وتحقيق كامل إمكاناته مماثلة لتلك الموجودة في القطاع الخاص.
لقد توصل استطلاع أجرته IBM مؤخرًا أن أهم العوائق التي تحول دون نجاح نشر الذكاء الاصطناعي تشمل محدودية المهارات والخبرات وتعقيد البيانات والمخاوف الأخلاقية. بالإضافة إلى ذلك، وفقًا لـ IBM® Institute of Business Value، فقد صرح 79% من المديرين التنفيذيين أن أخلاقيات الذكاء الاصطناعي مهمة لنهج الذكاء الاصطناعي المستخدم على مستوى المؤسسة، ومع ذلك فإن أقل من 25% منهم استعانوا بالمبادئ المشتركة لأخلاقيات الذكاء الاصطناعي. ويمثل اكتساب الثقة في مخرجات نماذج الذكاء الاصطناعي تحديًا اجتماعيًا وتقنيًا يتطلب حلاً اجتماعيًا وتقنيًا.
يجب على قادة الدفاع الذين يركزون على تفعيل التنسيق المسؤول للذكاء الاصطناعي أن يتفقوا أولاً على مفردات مشتركة—ثقافة مشتركة توجه الاستخدام الآمن والمسؤول للذكاء الاصطناعي—قبل أن يطبقوا الحلول التقنية والحواجز الوقائية التي تخفف من المخاطر. ويمكن لوزارة الدفاع أن تضع أساسًا متينًا لتحقيق ذلك من خلال تحسين الإلمام بالذكاء الاصطناعي والشراكة مع مجموعات موثوقة لتطوير حوكمة تتماشى مع أهدافها وقيمها الإستراتيجية.
من المهم أن يعرف الموظفون كيفية نشر الذكاء الاصطناعي لتحسين الكفاءات التنظيمية. ولكن من المهم بالقدر نفسه أن يكون لديهم فهم عميق لمخاطر الذكاء الاصطناعي وقيوده، وكيفية تنفيذ التدابير الأمنية المناسبة والحواجز الأخلاقية. هذه هي المتطلبات الأساسية لوزارة الدفاع أو أي وكالة حكومية.
يمكن أن يساعد مسار تعلم الذكاء الاصطناعي المصمم خصوصًا على تحديد الفجوات والتدريب اللازم حتى يحصل الموظفون على المعرفة التي يحتاجونها لأدوارهم المحددة. إن الإلمام بالذكاء الاصطناعي على مستوى المؤسسة أمر ضروري لجميع الموظفين حتى يتمكنوا من تقييم التهديدات السريعة الانتشار والفيروسية والخطيرة مثل المعلومات المضللة والتزييف العميق ووصفها والاستجابة لها بسرعة.
تُطبق شركة IBM الإلمام بالذكاء الاصطناعي بطريقة مخصصة داخل مجموعتنا حيث يختلف تعريف القراءة والكتابة الأساسية اعتمادًا على منصب الشخص.
وبصفتها شركة رائدة في مجال الذكاء الاصطناعي الجدير بالثقة، تتمتع شركة IBM بتجربة في تطوير أطر العمل التي توجه الاستخدام المسؤول للذكاء الاصطناعي بما يتماشى مع قيم مجموعة العملاء. وتمتلك شركة IBM أيضًا أطر العمل الخاصة بها لاستخدام الذكاء الاصطناعي داخل شركة IBM نفسها، ما يوفر معلومات لمواقف السياسة مثل استخدام تقنية التعرف على الوجه.
تُستخدم أدوات الذكاء الاصطناعي الآن في الأمن القومي وللمساعدة على الحماية من اختراق أمن البيانات والهجمات الإلكترونية. لكن الذكاء الاصطناعي يدعم أيضًا أهدافًا إستراتيجية أخرى لوزارة الدفاع. يمكن أن يعزز القوى العاملة، ما يساعد على جعلها أكثر فعالية، ويساعدهم على إعادة تأهيلهم. ويمكن أن يساعد ذلك على إنشاء سلسلة التوريد مرنة لدعم الجنود والبحارة والطيارين ومشاة البحرية في أدوار الحرب والمساعدات الإنسانية وحفظ السلام والإغاثة من الكوارث.
لدى CDAO) خمسة مبادئ أخلاقية؛ وهي المسؤولية، والإنصاف، وقابلية التعقب، والموثوقية، والحوكمة كجزء من مجموعة أدوات الذكاء الاصطناعي المسؤول. واستنادًا إلى إطار العمل الأخلاقي القائم في الجيش الأمريكي، فإن هذه المبادئ ترتكز على القيم العسكرية وتساعد على دعم الالتزام بحلول الذكاء الاصطناعي المسؤول.
ويجب أن يكون هناك جهد متضافر لجعل هذه المبادئ حقيقة واقعة من خلال النظر في المتطلبات الوظيفية وغير الوظيفية في النماذج وأنظمة الإدارة المحيطة بتلك النماذج. في ما يأتي، نقدم توصيات عامة لتفعيل المبادئ الأخلاقية لـ CDAO.
"سيمارس موظفو وزارة الدفاع مستويات مناسبة من الحكم والحذر، مع استمرار مسؤوليتهم عن تطوير قدرات الذكاء الاصطناعي ونشرها واستخدامها".
يتفق الجميع على أن نماذج الذكاء الاصطناعي يجب أن يتم تطويرها من قِبل موظفين حريصين ومراعين للظروف، ولكن كيف يمكن للمجموعات أن ترعى الأشخاص للقيام بهذا العمل؟ نوصي بما يأتي:
ملاحظة: يجب أن تكون مقاييس المسؤولية هذه قابلة للتفسير من قِبل غير الخبراء في الذكاء الاصطناعي (من دون "توضيح رياضي").
"ستتخذ الوزارة خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي".
يتفق الجميع على أن استخدام نماذج الذكاء الاصطناعي يجب أن يكون عادلاً وغير تمييزي، ولكن كيف يحدث ذلك عمليًا؟ نوصي بما يأتي:
"سيتم تطوير قدرات الذكاء الاصطناعي الخاص بالقسم ونشره بحيث يمتلك الموظفون المعنيون فهمًا مناسبًا للتقنية وعمليات التطوير والأساليب التشغيلية المطبقة على قدرات الذكاء الاصطناعي، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق ومصادر البيانات وإجراءات التصميم والوثائق".
تفعيل إمكانية التتبع من خلال توفير إرشادات واضحة لجميع الموظفين باستخدام الذكاء الاصطناعي:
يمكن لشركة IBM وشركائها توفير حلول ذكاء اصطناعي ذات محتوى شامل وقابل للتدقيق، وهو أمر ضروري لحالات الاستخدام عالية المخاطر.
"سيكون لقدرات الذكاء الاصطناعي الخاصة بالقسم استخدامات واضحة ومحددة بشكل جيد، وستخضع سلامة هذه القدرات وأمنها وفعاليتها للاختبار والتأكد من سلامتها ضمن تلك الاستخدامات المحددة طوال دورات حياتها بأكملها".
يجب على المجموعات توثيق حالات الاستخدام المحددة جيدًا ثم اختبار الامتثال. ويتطلب تفعيل هذه العملية وتوسيع نطاقها مواءمة ثقافية قوية حتى يلتزم الممارسون بأعلى المعايير حتى من دون إشراف مباشر مستمر. تشمل أفضل الممارسات ما يأتي:
"سيعمل القسم على تصميم قدرات الذكاء الاصطناعي وهندستها للوفاء بوظائفها المقصودة مع امتلاك القدرة على كشف العواقب غير المقصودة وتجنبها، والقدرة على فك الأنظمة المنشورة التي تظهر سلوكًا غير مقصود أو تعطيلها".
يتطلب تفعيل هذا المبدأ ما يأتي:
لطالما كانت شركة IBM في طليعة الشركات التي تعمل على تطوير مبادئ الذكاء الاصطناعي الجديرة بالثقة ورائدة في حوكمة أنظمة الذكاء الاصطناعي منذ نشأتها. ونحن نتبع مبادئ الثقة والشفافية الراسخة التي توضح أن دور الذكاء الاصطناعي هو تعزيز الخبرة والحكم البشريين وليس استبدالهما.
في عام 2013، شرعت شركة IBM في رحلة التفسير والشفافية في الذكاء الاصطناعي والتعلم الآلي. وتُعد شركة IBM رائدة في مجال أخلاقيات الذكاء الاصطناعي، حيث عينت قائدًا عالميًا لأخلاقيات الذكاء الاصطناعي في عام 2015 وأنشأت مجلسًا لأخلاقيات الذكاء الاصطناعي في عام 2018. ويعمل هؤلاء الخبراء للمساعدة على ضمان دعم مبادئنا والتزاماتنا في مشاركاتنا التجارية العالمية. في عام 2020، تبرعت شركة IBM بمجموعة أدوات الذكاء الاصطناعي المسؤول لمؤسسة Linux للمساعدة على بناء مستقبل ذكاء اصطناعي عادل وآمن والذكاء الاصطناعي الجدير بالثقة.
تقود شركة IBM الجهود العالمية لصياغة مستقبل الذكاء الاصطناعي المسؤول ومقاييس الذكاء الاصطناعي الأخلاقي والمعايير وأفضل الممارسات الأخلاقية:
يشكّل الذكاء الاصطناعي المسؤول تحديًا متعدد الأوجه لأنه يتطلب أن تنعكس القيم الإنسانية بشكل موثوق ومتسق في تقنيتنا. لكن الأمر يستحق الجهد المبذول. ونعتقد أن الإرشادات المذكورة أعلاه يمكن أن تساعد وزارة الدفاع على تفعيل الذكاء الاصطناعي الموثوق به ومساعدته على تحقيق مهمته.
لمزيد من المعلومات حول كيف يمكن لـ IBM المساعدة، تُرجى زيارة استشارات حوكمة الذكاء الاصطناعي | IBM
المزيد من الموارد: