هل هناك مخاطر أخلاقية جديدة بسبب وكلاء الذكاء الاصطناعي؟ الباحثون يعملون على القضية

المؤلفين

Alice Gomstyn

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

عندما تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة، فإن النتائج لن تكون جيدة. ألقي باللوم في، المعلومات السرية المسربة، والرسائل المسيئة، وفي إحدى الحالات، وصفة سهلة الاستخدام لغاز الكلور القاتل، على روبوتات المحادثة التي انحرفت عن مسارها1

لقد أدت مثل هذه الحالات إلى زيادة التركيز على مواءمة الذكاء الاصطناعي، وهي ممارسة تشفير القيم الإنسانية والمبادئ الأخلاقية في نماذج الذكاء الاصطناعي. لكن الباحثين في مجال الذكاء الاصطناعي لا يتوقفون عند معالجة الآثار الأخلاقية لتقنيات التعلم الآلي الحالية. بل يعملون أيضًا على معالجة القضايا الأخلاقية المستقبلية، لا سيما تلك التي يطرحها الذكاء الاصطناعي الوكيل.

يُعرَف الذكاء الاصطناعي الوكيل أيضًا باسم وكلاء الذكاء الاصطناعي، وهو عبارة عن تقنية ذكاء اصطناعي مستقلة تقدِّم مجموعة موسعة من المعضلات الأخلاقية مقارنةً بنماذج الذكاء الاصطناعي التقليدية، كما يقول Kush Varshney، زميل IBM في IBM Research.

يقول Varshney: "نظرًا إلى أن وكلاء الذكاء الاصطناعي يمكنهم العمل دون إشرافك، هناك مشكلات ثقة إضافية". "سيكون هناك تطور من حيث القدرات ولكن أيضًا من حيث العواقب غير المقصودة. من منظور السلامة، لا تريد الانتظار للعمل عليها. تريد الاستمرار في بناء الضمانات في أثناء تطوير التقنية".

أحدث الأخبار التقنية، مدعومة برؤى خبراء

ابقَ على اطلاع دومًا بأهم—اتجاهات المجال وأكثرها إثارة للفضول—بشأن الذكاء الاصطناعي والأتمتة والبيانات وغيرها الكثير مع نشرة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! أنت مشترك.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

ما المقصود بوكلاء الذكاء الاصطناعي بالضبط؟

قبل استكشاف ضمانات وكيل الذكاء الاصطناعي، من المهم أن نفهم بالضبط ماهية وكلاء الذكاء الاصطناعي: أنظمة أو برامج ذكية يمكنها أداء المهام بشكل مستقل نيابةً عن إنسان أو نيابةً عن نظام آخر. على الرغم من أنها تتميز بقدرات النماذج اللغوية الكبيرة (LLM) مثل معالجة اللغة الطبيعية، إلا إن هذه الأنظمة المستقلة يمكنها أيضًا اتخاذ القرارات وحل المشكلات وتنفيذ الإجراءات والتفاعل مع البيئات الخارجية.

من خلال القدرات، يمكن لوكلاء الذكاء الاصطناعي أن يتجاوزوا صياغة الردود النصية على موجِّهات المستخدم إلى إنجاز المهام في العالم الحقيقي.

على سبيل المثال، تحدث التفاعلات الخارجية من خلال استدعاء الأدوات، والمعروفة أيضًا باسم استدعاء الوظيفة، وهي واجهة تسمح للوكلاء بالعمل على المهام التي تتطلب معلومات في الوقت المناسب - المعلومات التي قد لا تكون متاحة لولا ذلك للنماذج اللغوية الكبيرة. لذا، يمكن لوكلاء الذكاء الاصطناعي المنتشرين في النظام البنائي لسلسلة التوريد العمل بشكل مستقل لتحسين مستويات المخزون من خلال تغيير جداول الإنتاج والطلب من الموردين حسب الضرورة.

وكلاء الذكاء الاصطناعي

5 أنواع من وكلاء الذكاء الاصطناعي: الوظائف الذاتية والتطبيقات الواقعية

اكتشِف كيف يتكيّف الذكاء الاصطناعي القائم على الأهداف والمنفعة مع سير العمل والبيئات المعقدة.

ما مدى خطورة استقلالية الذكاء الاصطناعي؟

عندما يتعلق الأمر بالذكاء الاصطناعي المتقدم مثل الذكاء الاصطناعي الوكيل، فما مقدار الاستقلال الذي يُعَد أكثر من اللازم؟ وللإجابة عن هذا السؤال، يمكننا النظر إلى سيناريو "زيادة إنتاج مشابك الورق". تركِّز التجربة الفكرية الشهيرة، التي أجراها الفيلسوف Nick Bostrom، على المفهوم الذي لا يزال افتراضيًا للذكاء الاصطناعي الفائق أو ASI، وهو نظام الذكاء الاصطناعي ذو النطاق الفكري الذي يتجاوز نطاق الذكاء البشري. يأخذ Bolstrom في الحسبان ما يمكن أن يحدث إذا أعطى مثل هذا النظام الأولوية لتصنيع مشابك الورق فوق كل الأهداف الأخرى.

في السيناريو المقترح، يكرس النظام في نهاية المطاف جميع موارد كوكبنا لصنع مشابك الورق—وهي نتيجة غير أخلاقية عندما تعتمد الحياة على أكثر من مجرد وفرة لا نهاية لها من اللوازم المكتبية المعدنية الصغيرة. وبالعودة إلى سؤالنا الأصلي، يمكننا أن نستنتج بوضوح أنه في هذه الحالة الافتراضية، كان نظام الذكاء الاصطناعي المعني يتمتع باستقلالية كبيرة جدًا.

الخبر السار هو أن الذكاء الاصطناعي الفاعل اليوم يختلف عن الذكاء الاصطناعي الفائق (ASI)، لذا لا يزال من غير المحتمل حدوث خلل في مشبك الورق مدفوع بأخلاقيات الآلة المعيبة بشكل كارثي. يقول Varshney: "اقتربنا خطوة، لكن الطريق لا يزال طويلاً."

ومع ذلك، فإن المخاطر الأخرى الناجمة عن أتمتة الذكاء الاصطناعي أكثر إلحاحًا. يقول Varshney إن الاحتمالات تتراوح ما بين وكلاء اصطناعيين يرسلون رسائل بريد إلكتروني غير مناسبة لإيقاف الأجهزة وتشغيلها بطرق لم يقصدها المستخدمون. المخاوف بشأن سلوك الذكاء الاصطناعي المستقل خطيرة بما فيه الكفاية لدرجة أنه في تقرير صدر في إبريل 2024 حول إرشادات سلامة وأمن الذكاء الاصطناعي، أدرجت وزارة الأمن الداخلي الأمريكية (DHS) "الاستقلالية" في قائمة المخاطر التي تتعرض لها أنظمة البنية التحتية الحساسة مثل الاتصالات والخدمات المالية والرعاية الصحية.2

تطوير الحلول لدعم سلوك الوكيل الأخلاقي

يمكن لحلول حوكمة الذكاء الاصطناعي الحالية أن تساعد على دعم أخلاقيات وكلاء الذكاء الاصطناعي، حيث تعمل الأدوات البرمجية بالفعل على تمكين المؤسسات من مراقبة التحيزات الناتجة عن مجموعة بيانات التدريب والخوارزميات التي قد تؤدي إلى تحريف عمليات صناعة القرار، وتقييمها، ومعالجتها. يمكن أن تساعد هذه الأدوات أيضًا المطورين والشركات على ضمان أن أدوات الذكاء الاصطناعي التي يستخدمونها تُلبي معايير الذكاء الاصطناعي الجدير بالثقة الحالية وأهداف القدرة على التفسير ومبادئ الذكاء الاصطناعي المسؤول المعتمدة على نطاق واسع من قِبل العديد من الشركات والحكومات.

ولكن نظرًا إلى أن الشركات تدمج الذكاء الاصطناعي الفاعل بشكل متزايد في سير العمل، يعمل الباحثون أيضًا على حلول واستراتيجيات أخلاقية جديدة للذكاء الاصطناعي يمكنها الحد من سوء السلوك في الوكلاء المستقلين وتحسين استدامة تقنية الذكاء الاصطناعي. في ما يلي العديد من الأشياء التي تستحق المتابعة:

نهج جديد لمواءمة الذكاء الاصطناعي

تخضع نماذج الذكاء الاصطناعي المدربة سابقًا اليوم إلى ضبط دقيق ليتم تدريبها على بيانات محددة للمجال. خلال مرحلة الضبط الدقيق لتطوير الذكاء الاصطناعي، قد تتم مواءمة النماذج مع القيم الأخلاقية والاعتبارات الأخلاقية، ولكن غالبًا ما يتم طرح أسئلة حول القيم المعيارية التي يجب تضمينها في المواءمة. في نهاية الأمر، تختلف القيم وإطارات العمل الأخلاقية حسب الشركة والدولة والطرف المعني وما إلى ذلك.

وقد اقترح Varshney وفريق من زملائه الباحثين في شركة IBM نهجًا قائمًا على التقنية من شأنه أن يكون أكثر تحديدًا للسياق: يُعرف باسم "أستوديو المحاذاة"، ومن شأنه أن يوائم النماذج اللغوية الكبيرة مع القواعد والقيم المحددة في وثائق سياسة اللغة الطبيعية، مثل لوائح الحكومة أو الإرشادات الأخلاقية الخاصة بالشركة.

ويتضمن هذا النهج، المفصل في ورقة بحثية نُشرت في سبتمبر 2024 في مجلة IEEE Internet Computing، دورة مستمرة من التطوير بحيث لا تتعلم النماذج المفردات المتعلقة بالسياسات من وثائق السياسات فحسب، بل تتبنى بالفعل السلوكيات المرغوبة من أجل مواءمة أفضل للقيمة.3

الكشف عن الهلوسة في استدعاء الوظائف

من بين أسباب سوء سلوكيات وكيل الذكاء الاصطناعي، عدم وجود تعليمات محددة من جانب المستخدم أو سوء تفسير الوكيل لتعليمات المستخدم. يمكن أن يؤدي "سوء الفهم" هذا إلى اختيار العملاء لأدوات خطأ أو استخدامها بطرق غير مناسبة أو ضارة، وهو ما يُعرف بالهلوسة.

لحسن الحظ، أصبح تحسين استدعاء الوظائف مسعى تنافسيًا، مع إنشاء العديد من المعايير التي تقيس مدى جودة استدعاء النماذج اللغوية الكبيرة لواجهات برمجة التطبيقات. ومن بين أحدث التحسينات التي تأتي بفضل ميزة جديدة في أحدث إصدار من IBM Granite Guardian Granite Guardian 3.1، وهو جزء من عائلة النماذج اللغوية Granite من IBM المصممة خصوصًا للشركات. يمكن للنموذج اكتشاف الهلوسة التي تستدعي الوظائف من قِبل الوكلاء قبل حدوث العواقب غير المقصودة. يوضِّح Varshney: "يتحقق الكاشف من جميع أنواع الأخطاء، بدءًا من وصف اللغة البشرية إلى الوظيفة المسماة".

اكتشاف النصوص والمعلومات المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي

استخدمت الجهات الفاعلة الخبيثة بالفعل الذكاء الاصطناعي التوليدي للتغلغل في وسائل التواصل الاجتماعي باستخدام التزييف العميق، وهو عبارة عن صوت أو فيديو أو صور واقعية تم إنشاؤها بواسطة الذكاء الاصطناعي يمكنها إعادة إنشاء صورة الشخص. وفي الوقت نفسه، استغل المحتالون النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي لإنشاء رسائل تصيد عبر البريد الإلكتروني أكثر تطورًا. وقد تؤدي قوة الذكاء الاصطناعي الوكيل إلى تفاقم هذه التوجهات الخطرة.

حذر باحثون في Google DeepMind في تقرير صدر في إبريل 2024 من أن "هناك أدلة متزايدة على أن المخرجات التي يولدها الذكاء الاصطناعي مقنعة مثل الحجج البشرية." وقالوا إنه في المستقبل، يمكن للجهات الخبيثة استخدام الذكاء الاصطناعي المستقل "لتكييف محتوى المعلومات المضللة للمستخدمين بطريقة فائقة الدقة، من خلال استغلال عواطفهم ونقاط ضعفهم"4.

حتى الآن، كان أداء الأدوات المصممة للكشف عن الخداع المدعوم بالذكاء الاصطناعي مختلطًا. لكن الباحثين يواصلون الاستمرار في تحسين كشف الذكاء الاصطناعي، مع بعض النتائج النابعة من أحدث جيل من أجهزة الكشف عن النصوص بالذكاء الاصطناعي.5

على سبيل المثال، يستخدم إطار عمل جديد يُسمَّى RADAR -تم إنشاؤه بواسطة باحثين في الجامعة الصينية في هونغ كونغ وIBM Research- التعلم العدائي بين نموذجين لغويين منفصلين قابلين للضبط لتدريب كاشف نص الذكاء الاصطناعي، ما يؤدي إلى أداء أفضل مقارنةً بالحلول القديمة للكشف عن نص الذكاء الاصطناعي.6

مع استمرار تطوير تقنية الكشف عن الذكاء الاصطناعي، تدعو شركات التكنولوجيا مثل IBM وMicrosoft وOpenAI صانعي السياسات أيضًا إلى تمرير قوانين لاستهداف توزيع التزييف العميق ومحاسبة الجهات الفاعلة السيئة.7

الحفاظ على كرامة العمال البشريين

في حين أن العديد من قضايا الأخلاقيات الناجمة عن الذكاء الاصطناعي الفاعل تتعلق بالسلوكيات الخاطئة، تنشأ مخاوف أخلاقية أخرى حتى عندما تعمل التقنية كما هو متوقع. على سبيل المثال، ركز كثير من النقاشات على تطبيقات الذكاء الاصطناعي مثل تطبيق ChatGPT من OpenAI الذي يحل محل العمالة البشرية ويقضي على سبل العيش.

ولكن حتى عندما يتم نشر الذكاء الاصطناعي لزيادة (بدلاً من استبدال) العمالة البشرية، قد يواجه الموظفون عواقب نفسية. يوضح Varshney أنه إذا كان العمال البشريون ينظرون إلى وكلاء الذكاء الاصطناعي على أنهم أفضل في أداء وظائفهم، فقد يواجهون انخفاضًا في قيمتهم الذاتية. ويقول: "إذا كنت في وضع يبدو فيه أن كل خبرتك لم تعد مفيدة—وأنها نوع من التبعية لوكيل الذكاء الاصطناعي—فقد تفقد كرامتك". في بعض المناقشات حول أخلاقيات الذكاء الاصطناعي، يُعد فقدان الكرامة هذا انتهاكًا لحقوق الإنسان.8

في ورقة بحثية صادرة في أغسطس 2024، اقترح Varshney وعدة باحثين جامعيين نهجًا تنظيميًا لمعالجة مشكلة الكرامة: التعاون العدائي. وفقًا لطرازهم، يظل البشر مسؤولين عن تقديم التوصيات النهائية، بينما يتم نشر أنظمة الذكاء الاصطناعي للتدقيق في عمل الإنسان.

وكتب الباحثون أن "الإنسان هو من يتخذ القرار في نهاية المطاف، والخوارزمية ليست مصممة للمنافسة في هذا الدور، بل للاستجواب، ومن ثَمَّ صقل توصيات العامل البشري".9 ويقول Varshney، إن مثل هذا التعاون العدائي "هو وسيلة لتنظيم الأشياء التي يمكن أن تحافظ على كرامة الإنسان".

حلول ذات صلة
وكلاء الذكاء الاصطناعي للأعمال

يمكنك إنشاء مساعدين ووكلاء ذكاء اصطناعي ووكلاء أقوياء يعملون على أتمتة مهام سير العمل والعمليات باستخدام الذكاء الاصطناعي التوليدي ونشرها وإدارتها.

    استكشف watsonx Orchestrate
    حلول وكلاء الذكاء الاصطناعي من IBM

    يمكنك بناء مستقبل عملك باستخدام حلول الذكاء الاصطناعي الجديرة بالثقة.

    استكشف حلول وكلاء الذكاء الاصطناعي
    خدمات الذكاء الاصطناعي لدى IBM Consulting

    تساعد خدمات IBM Consulting AI في إعادة تصور طريقة عمل الشركات باستخدام حلول الذكاء الاصطناعي من أجل النهوض بأعمالها.

    استكشف خدمات الذكاء الاصطناعي
    اتخِذ الخطوة التالية

    سواء اخترت تخصيص التطبيقات والمهارات المُعدّة مسبقًا أو إنشاء خدمات مخصصة مستندة إلى وكلاء ونشرها باستخدام استوديو الذكاء الاصطناعي، فإن منصة IBM watsonx تُلبي احتياجاتك.

    استكشف watsonx Orchestrate استكشف watsonx.ai