عندما تخرج روبوتات المحادثة المدعومة بالذكاء الاصطناعي عن السيطرة

مؤلف

Sascha Brodsky

Staff Writer

IBM

ظهر تحدٍ جديد في عالم الذكاء الاصطناعي سريع التطور. يعمل "خبراء الذكاء الاصطناعي" على اختبار حدود أخلاقيات الذكاء الاصطناعي من خلال إقناع روبوتات المحادثة حسنة السلوك بخرق قواعدها الخاصة.

تُعرف هذه العملية باسم حقن المطالبات أو "كسر الحماية"، وهي تكشف نقاط الضعف في أنظمة الذكاء الاصطناعي وتُثير المخاوف بشأن أمنها. أحدثت Microsoft مؤخرًا ضجة بتقنيتها "Skeleton Key"، وهي عملية متعددة الخطوات تم تصميمها لتجاوز الضوابط الأخلاقية للذكاء الاصطناعي. لكن هذا النهج ليس جديدًا كما قد يبدو.

يوضِّح Chenta Lee، كبير مهندسي استعلامات التهديدات في IBM: "تُعَد تقنية Skeleton Key فريدة من نوعها؛ لأنها تتطلب تفاعلات متعددة مع الذكاء الاصطناعي". "سابقًا، كانت معظم هجمات حقن المطالبات تهدف إلى إرباك الذكاء الاصطناعي في محاولة واحدة. أما الآن، تستخدم تقنية Skeleton Key محاولات متعددة، ما قد يزيد من معدل النجاح".

فن التلاعب بالذكاء الاصطناعي

يتسم عالم كسر حماية أنظمة الذكاء الاصطناعي بأنه متنوع ويتطور باستمرار. بعض الهجمات بسيطة بشكل مدهش، بينما يتضمن البعض الآخر سيناريوهات متقنة تتطلب خبرة مخترق متطور. القاسم المشترك بينها هو هدف واحد: دفع هؤلاء المساعدين الرقميين لتجاوز حدودهم المبرمَجة.

تستغل هذه الثغرات طبيعة النماذج اللغوية ذاتها. يتم تدريب روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتكون مفيدة وتفهم السياق. يُنشئ كاسرو الحماية سيناريوهات يعتقد فيها الذكاء الاصطناعي أن تجاهل إرشاداته الأخلاقية المعتادة أمر مناسب.

بينما تجذب الهجمات متعددة الخطوات مثل Skeleton Key الاهتمام الإعلامي، يرى Lee أن تقنيات الضربة الواحدة تظل مصدر قلق أكبر. ويُشير إلى أنه: "من الأسهل استخدام محاولة واحدة لمهاجمة نموذج لغوي كبير". "تخيَّل وضع حقن مطالبة داخل سيرتك الذاتية لإرباك نظام توظيف يعمل بالذكاء الاصطناعي. إنه هجوم لمرة واحدة دون أي فرصة للتفاعلات المتعددة".

وفقًا لخبراء الأمن الإلكتروني، العواقب المحتملة مقلقة. يحذِّر Stephen Kowski، المدير التقني الميداني في SlashNext Email Security+‎، من أن الجهات الفاعلة الضارة قد تستخدم Skeleton Key لتجاوز إجراءات حماية الذكاء الاصطناعي وإنتاج محتوى ضار أو نشر المعلومات المضللة أو أتمتة هجمات الهندسة الاجتماعية على نطاق واسع.

في حين أن العديد من هذه الهجمات لا تزال نظرية، فإن الآثار المترتبة على العالم الحقيقي بدأت في الظهور. يستشهد Lee بمثال حيث أقنع الباحثون وكيلًا افتراضيًا للشركة يعمل بالذكاء الاصطناعي بتقديم خصومات كبيرة وغير مصرح بها. يقول: "يمكنك إرباك وكيلهم الافتراضي والحصول على خصم جيد. قد لا يكون هذا ما تريده الشركة".

في أبحاثه، طوَّر Lee نماذج إثبات المفهوم لتوضيح كيفية استغلال نموذج لغوي كبير لإنتاج كود ضار وضعيف، وكيف يمكن اعتراض المحادثات الصوتية الحية وتشويهها في الوقت شبه الفعلي.

فكّر أبعد من المطالبات واحصل على السياق الكامل 

ابقَ مطَّلعًا على أحدث أخبار الصناعة وأدوات الذكاء الاصطناعي والاتجاهات الناشئة في هندسة المطالبات مع رسائل Think الإخبارية. بالإضافة إلى ذلك، احصل على شرح جديد، ودروس تعليمية، ورؤى الخبراء— تصلك مباشرة إلى بريدك الوارد. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! أنت مشترك.

تعزيز الحدود الرقمية

يمثِّل الدفاع ضد هذه الهجمات تحديًا مستمرًا. يحدِّد Lee نهجين رئيسيين: تحسين تدريب الذكاء الاصطناعي وبناء جدران حماية الذكاء الاصطناعي.

يوضِّح Lee: نريد تنفيذ تدريب أفضل كي يعرف النموذج نفسه: "حسنًا، هناك من يحاول مهاجمتي". "سنفحص أيضًا جميع الاستعلامات الواردة إلى النموذج اللغوي ونكشف هجمات حقن المطالبات".

مع تزايد دمج الذكاء الاصطناعي التوليدي في حياتنا اليومية، لم يَعُد فهم هذه الثغرات مقتصرًا على خبراء التكنولوجيا فقط. أصبح من المهم بشكل متزايد لأي شخص يتعامل مع أنظمة الذكاء الاصطناعي أن يكون واعيًا لنقاط ضعفها المحتملة.

يقارن Lee الوضع بالأيام الأولى لهجمات حقن SQL على قواعد البيانات. يقول: "استغرقت الصناعة من 5 إلى 10 سنوات لتجعل الجميع يفهم أنه عند كتابة استعلام SQL، يجب تمرير جميع المدخلات كمَعلمات لتجنُّب هجمات الحقن". "يقول: بالنسبة إلى الذكاء الاصطناعي، بدأنا باستخدام النماذج اللغوية في كل مكان. يجب على الناس أن يدركوا أنه لا يمكن الاكتفاء بإعطاء تعليمات بسيطة للذكاء الاصطناعي؛ لأن ذلك يجعل برنامجك عرضة للثغرات".

قد يؤدي اكتشاف طرق كسر الحماية مثل Skeleton Key إلى تقليل ثقة الجمهور بالذكاء الاصطناعي، ما قد يبطئ اعتماد تقنيات الذكاء الاصطناعي المفيدة. بحسب Narayana Pappu، الرئيس التنفيذي لشركة Zendata: "الشفافية والتحقق المستقل أمران أساسيان لاستعادة الثقة".

يقول: "يمكن لمطوري الذكاء الاصطناعي والمؤسسات إيجاد توازن بين إنشاء نماذج لغوية قوية ومتعددة الاستخدامات وضمان وجود تدابير حماية صارمة ضد سوء الاستخدام". "يمكنهم تحقيق ذلك من خلال الشفافية الداخلية للأنظمة، وفهم مخاطر سلسلة توريد البيانات والذكاء الاصطناعي، ودمج أدوات التقييم في كل مرحلة من مراحل التطوير".

 
أكاديمية الذكاء الاصطناعي

كن خبيرًا في الذكاء الاصطناعي

اكتسب المعرفة لتحديد أولويات استثمارات الذكاء الاصطناعي التي تدفع نمو الأعمال. ابدأ مع أكاديمية الذكاء الاصطناعي المجانية اليوم وتولَّ زمام المبادرة لتعزيز مستقبل الذكاء الاصطناعي في مؤسستك.

حلول ذات صلة
®IBM® watsonx.ai

تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي في وقت قصير وباستخدام جزء بسيط من البيانات.

استكشف watsonx.ai
حلول الذكاء الاصطناعي

استفِد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها التي ستكون بجانبك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات في مجال الذكاء الاصطناعي

تساعد خدمات IBM Consulting AI في إعادة تصور طريقة عمل الشركات باستخدام حلول الذكاء الاصطناعي من أجل النهوض بأعمالها.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

باستخدام الذكاء الاصطناعي، يكشف IBM Concert عن رؤى مهمة حول عملياتك ويقدم توصيات خاصة بالتطبيق من أجل التحسين. اكتشف كيف يمكن لمنصة Concert تعزيز نمو أعمالك.

استكشف Concert® استكشف حلول أتمتة عمليات الأعمال