مع تبني المؤسسات للذكاء الاصطناعي التوليدي، توجد العديد من المزايا المتوقعة من هذه المشاريع—بدءًا من الكفاءة وزيادة الإنتاجية إلى تحسين سرعة الأعمال وحتى تعزيز الابتكار في المنتجات والخدمات. ومع ذلك، يتمثل أحد العوامل التي تشكل جزءًا حساسًا من ابتكارات الذكاء الاصطناعي في الثقة. يعتمد الذكاء الاصطناعي الجدير بالثقة على فهم كيفية عمل الذكاء الاصطناعي وكيفية اتخاذه للقرارات.
وفقًا لاستطلاع أُجري للمسؤولين التنفيذيين في الإدارة العليا من IBM Institute for Business Value، يقول 82% من المشاركين إن الذكاء الاصطناعي الجدير بالثقة ضروري لنجاح أعمالهم، ومع ذلك لم يُجرَ تأمين سوى 24% فقط من مشاريع الذكاء الاصطناعي التوليدي الحالية. وهذا يترك فجوة هائلة في تأمين مشاريع الذكاء الاصطناعي المعروفة. أضف إلى ذلك 'الذكاء الاصطناعي الظلي' الموجود داخل المؤسسات، ما يجعل الفجوة الأمنية للذكاء الاصطناعي أكبر بكثير.
رسائل Think الإخبارية
انضم إلى قادة الأمن الإلكتروني الذين يعتمدون على الرسالة الإخبارية Think للحصول على أخبار مُنتقاة عن الذكاء الاصطناعي والأمن السيبراني والبيانات والأتمتة. تعلم بسرعة من برامج تعليمية وشروحات يقدّمها خبراء - تُرسَل مباشرة إلى بريدك الإلكتروني. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجِع بيان الخصوصية لشركة IBM للمزيد من المعلومات.
لدى المؤسسات سلسلة جديد كليًا من المشاريع التي تعتمد على الذكاء الاصطناعي التوليدي. خلال مرحلة جمع البيانات ومعالجتها، تحتاج إلى جمع كميات هائلة من البيانات لتغذية النموذج، كما أنك تتيح إمكانية الوصول للعديد من الأشخاص المختلفين، بما في ذلك علماء البيانات والمهندسون والمطورون وغيرهم. وهذا يمثل خطرًا بطبيعته حيث تكون كل تلك البيانات مجمعة في مكان واحد مع منح العديد من الأشخاص إمكانية الوصول إليها. وهذا يعني أن الذكاء الاصطناعي التوليدي هو نوع جديد من مخازن البيانات يمكنه إنشاء بيانات جديدة بناءً على البيانات المؤسسية الموجودة. وسواء دربت النموذج أو ضبطته أو ربطته بنظام توليد معزز بالاسترجاع (قاعدة بيانات المتجهات)، فمن المحتمل أن تحتوي تلك البيانات على معلومات تحديد الهوية الشخصية ومخاوف تتعلق بالخصوصية وغيرها من المعلومات الحساسة. وتُعد هذه المجموعة من البيانات الحساسة هدفًا يحاول المهاجمون الوصول إليه.
في عملية تطوير النماذج، تُطور تطبيقات جديدة بطريقة جديدة تمامًا مع ثغرات جديدة تمثل نقاط دخول جديدة سيحاول المهاجمون استغلالها. غالبًا ما تبدأ عملية التطوير بعمل فرق علم البيانات على تنزيل نماذج التعلم الآلي مفتوحة المصدر والمدربة مسبقًا من مستودعات النماذج الإلكترونية مثل HuggingFace أو TensorFlow Hub وإعادة توظيفها. لقد نشأت المستودعات مفتوحة المصدر والمخصصة لمشاركة النماذج نتيجة التعقيد المتأصل لعلم البيانات، ونقص الخبراء، والقيمة التي تقدمها للمؤسسات في تقليل الوقت والجهد اللازمين لتبني الذكاء الاصطناعي التوليدي بشكل كبير. ومع ذلك، يمكن أن تفتقر مثل هذه المستودعات إلى ضوابط أمنية شاملة، ما يؤدي في النهاية إلى نقل المخاطر إلى المؤسسة—ويعتمد المهاجمون على ذلك. يمكنهم حقن باب خلفي أو برنامج ضار في أحد هذه النماذج ورفع النموذج المصاب مرة أخرى إلى مستودعات مشاركة النماذج، ما يؤثر في أي شخص ينزله. قلة التدابير الأمنية العامة المتعلقة بنماذج التعلم الآلي، إلى جانب البيانات الحساسة المتزايدة التي تتعامل معها نماذج التعلم الآلي هذه، يعني أن الهجمات التي تستهدف هذه النماذج لها احتمالية عالية للضرر.
وفي أثناء الاستنتاج والاستخدام المباشر، يمكن للمهاجمين التلاعب بالموجِّهات لاختراق الضوابط ودفع النماذج إلى التصرف بشكل غير صحيح من خلال توليد ردود غير مسموح بها على موجِّهات ضارة تشمل المعلومات المتحيزة والكاذبة وغيرها من المعلومات المسيئة، ما يسبب ضررًا يلحق بالسمعة. أو، يمكن للمهاجمين التلاعب بالنموذج وتحليل أزواج المدخلات والمخرجات لتدريب نموذج بديل لمحاكاة سلوك النموذج المستهدف، ما يؤدي فعليًا إلى "سرقة" إمكاناته، ومن ثَم خسارة تلك المؤسسة لميزتها التنافسية.
تستخدم المؤسسات المختلفة طرقًا مختلفة لتأمين الذكاء الاصطناعي مع تطور معايير وأُطر عمل تأمين الذكاء الاصطناعي. يدور إطار عمل تأمين الذكاء الاصطناعي من IBM حول تأمين الركائز الأساسية لنشر الذكاء الاصطناعي—وهي تأمين البيانات، وتأمين النموذج، وتأمين الاستخدام. بالإضافة إلى ذلك، تحتاج إلى تأمين البنية التحتية التي تُبنى عليها نماذج الذكاء الاصطناعي وتعمل. كما تحتاج إلى إرساء حوكمة الذكاء الاصطناعي ومراقبة مدى الإنصاف والتحيز والانحراف بمرور الوقت—كل ذلك بطريقة مستمرة لتتبع أي تغييرات أو انحراف في النموذج.
وكل هذا يجب فعله مع الحفاظ على الامتثال التنظيمي.
بينما تتعامل المؤسسات مع التهديدات القائمة وزيادة تكلفة حوادث اختراق أمن البيانات، سيكون تأمين الذكاء الاصطناعي مبادرة كبيرة—وستحتاج العديد من المؤسسات إلى الدعم. لمساعدة المؤسسات على استخدام الذكاء الاصطناعي الآمن والجدير بالثقة، طرحت IBM حل IBM Guardium AI Security. بفضل عقود من الخبرة في أمن البيانات مع IBM Guardium، يتيح هذا العرض الجديد للمؤسسات إمكانية تأمين نشر الذكاء الاصطناعي لديها.
وهو يتيح لك إمكانية إدارة المخاطر والثغرات الأمنية في بيانات الذكاء الاصطناعي الحساسة ونماذج الذكاء الاصطناعي. ويساعدك على تحديد الثغرات الأمنية في نموذج الذكاء الاصطناعي وإصلاحها وحماية البيانات الحساسة. راقب باستمرار تكوينات الذكاء الاصطناعي الخاطئة، واكتشف تسرب البيانات، وعزز ضوابط الوصول—مع حل رائد وموثوق في مجال أمن البيانات.
يتضمن هذا العرض الجديد IBM Guardium Data Security Center، الذي يُمكّن فرق الأمن والذكاء الاصطناعي من التعاون عبر المؤسسة من خلال سير عمل متكاملة، ورؤية مشتركة حول أصول البيانات، وسياسات الامتثال المركزية.
يُعد تأمين الذكاء الاصطناعي بمثابة رحلة ويتطلب تعاونًا بين الفرق متعددة الوظائف—فرق الأمن، وفرق المخاطر والامتثال، وفرق الذكاء الاصطناعي—وتحتاج المؤسسات إلى العمل من خلال نهج برمجي لتأمين نشر الذكاء الاصطناعي لديها.
اكتشف كيف يمكن أن يساعد Guardium AI Security مؤسستك، وسجل لحضور ندوتنا عبر الإنترنت لتتعرف على المزيد.