يسلط تقرير تكلفة خرق البيانات لعام 2024 الضوء على اكتشاف رائد: أدى تطبيق الأتمتة المدعومة بالذكاء الاصطناعي في الوقاية إلى توفير ما معدله 2.2 مليون دولار أمريكي للمؤسسات.
تستخدم الشركات الذكاء الاصطناعي لسنوات في الكشف والتحقق والاستجابة. ومع ذلك، مع توسع سطوح الهجوم، يتعين على قادة الأمن اعتماد موقف أكثر استباقية.
وفيما يلي ثلاث طرق تساعد بها الذكاء الاصطناعي على تحقيق ذلك:
تشكل التعقيدات والترابطات المتزايدة تحديًّا متزايدًا لفِرق الأمن، وتتوسع أسطح الهجوم إلى ما هو أبعد بكثير مما يمكنهم مراقبته باستخدام الوسائل اليدوية وحدها. ومع قيام المؤسسات بتطوير استراتيجياتها متعددة السحابة واستخدام أدوات SaaS الجديدة والرموز الخاصة بجهات خارجية في تطوير البرامج ونشرها، فإن التحدي لا يزداد إلا صعوبة.
مع اتساع مساحات الهجوم هذه، تزداد تعقيدات تفاعلات الشبكة وتزداد احتمالية ظهور العديد من نقاط الدخول الجديدة التي يمكن للمهاجمين استغلالها. توفر إدارة سطح الهجوم(ASM) حماية في الوقت الفعلي مدعومة بالذكاء الاصطناعي للبنى التحتية الرقمية، بغض النظر عن التعقيد الأساسي..
يعمل ASM المؤتمت على زيادة التدقيق اليدوي بشكل كبير من خلال توفير رؤية شاملة لأسطح الهجوم. علاوةً على ذلك، يتعلم الذكاء الاصطناعي من البيانات التي يراقبها لتحسين نتائج الكشف في المستقبل، وإن كان ذلك بسرعة ونطاق لا يمكن للبشر وحدهم مجاراته.
ومع ذلك، على الرغم من أن أدوات ASM غالبًا ما يتم تقديمها كحلول جاهزة وعادةً ما تكون سهلة التنفيذ نسبيًا، فإن قدرة فِرق الأمن على تفسير التدفق الهائل للبيانات التي تولدها ضرورية لتحقيق أقصى قدر من التأثير.
النشرة الإخبارية الخاصة بالمجال
ابقَ على اطلاع دومًا بأهم—اتجاهات المجال وأكثرها إثارة للفضول—بشأن الذكاء الاصطناعي والأتمتة والبيانات وغيرها الكثير مع نشرة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
إن عملية اختبار الذكاء الاصطناعي هي عملية تجعل الناس يقومون باختبار نماذج الذكاء الاصطناعي بحثًا عن نقاط الضعف المحتملة وغيرها من المشكلات، مثل التحيز والمعلومات المضللة. في حين أن معظم النماذج مصممة مع وجود حواجز وقائية في مكانها للتخفيف من هذه المخاطر، فإن المهاجمين يحاولون بشكل روتيني "كسر الحماية" لها من خلال استخدام المطالبات الذكية. بالنسبة للفِرق الحمراء، فإن الهدف هو الوصول إلى هناك قبل خصومهم، ما يمنحهم فرصة لاتخاذ إجراءات تصحيحية.
يمكن للفِرق الحمراء استخدام الذكاء الاصطناعي للمساعدة على تحديد المشكلات المحتملة في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي. على سبيل المثال، وفقًا لتقرير IBM، فإن أكثر من ثلث اختراقات أمن البيانات تنطوي على بيانات ظلية. إذا تم استخدام هذه البيانات، غير الخاضعة للتدقيق والمراقبة فيما يتعلق بالجودة والنزاهة، في تدريب النماذج، فقد تكون التأثيرات المتتالية كبيرة. يمكن للذكاء الاصطناعي أن يساعد الفِرق الحمراء على اكتشاف البيانات الظلية من خلال تحديد الحالات الشاذة ومصادر البيانات التي تم تجاهلها والتي قد تشكّل مخاطر أمنية. يمكن للفِرق الحمراء أيضًا اختبار نماذج الذكاء الاصطناعي ضد بعضها باستخدام أساليب التعلم الآلي المعادية لتحديد نقاط الضعف.
وعلى عكس إدارة سطح الهجوم، يتضمن عمل الفِرق الحمراء عمليات محاكاة مصممة خصوصًا لبيانات المؤسسة ومشهد التهديدات. وللحصول على الفوائد الكاملة، يتعين على المؤسسات العمل مع فِرق ماهرة قادرة على تفسير النتائج وتحليلها بشكل صحيح وتنفيذ التغييرات المطلوبة.
تبرز قدرات المراقبة القابلة للتطوير في الوقت الفعلي للذكاء الاصطناعي في إدارة الوضع الأمني. ففي حين تكشف إدارة سطح الهجوم عن نقاط الضعف المحتملة في أسطح الهجمات، فإن إدارة الوضع الأمني تتخذ نهجًا أوسع بكثير؛ من خلال مراقبة التكوينات، والامتثال لسياسات الأمان والاتصالات بين الأنظمة الداخلية والخارجية، بطريقة مستمرة وأسلوب رشيق وقابل للتكيف.
من خلال أتمتة إدارة الوضع الأمني باستخدام الذكاء الاصطناعي، يمكن للفِرق الأمنية التخفيف من المخاطر في وقت أقل بكثير وتوسيع نطاق جهودها عبر البنى التحتية المعقدة متعددة السحابة لضمان الاتساق في جميع المجالات. وبالإضافة إلى ذلك، نظرًا لانخفاض الاعتماد على العمليات اليدوية، تقل فرص الخطأ البشري بشكل كبير.
حتى عندما تحدث الاختراقات، يمكن للمؤسسات التي تدمج الذكاء الاصطناعي والأتمتة في الاستراتيجية الخاصة بها أن تحددها وتخفف من حدتها أسرع بنحو 100 يوم من المؤسسات التي لا تستخدم الذكاء الاصطناعي على الإطلاق. وبطبيعة الحال، فإن الوقت الذي يتم توفيره في كلٍ من الوقاية والمعالجة يؤدي إلى نتائج كبيرة في التكاليف المباشرة وغير المباشرة أيضًا.
إن الفرصة التي يوفرها الذكاء الاصطناعي في مجال الأمن السيبراني لا يمكن إنكارها. لا يمكن أن يساعد ذلك على توسيع نطاق الاستراتيجيات عبر بيئات معقدة بشكل متزايد فحسب، بل يمكنه أيضًا المساعدة على إضفاء الطابع الديمقراطي على الأمن من خلال السماح للمحللين الأقل خبرة بالتفاعل مع أنظمة الأمان باستخدام استعلامات اللغة الطبيعية.
ومع ذلك، هذا لا يعني أن الذكاء الاصطناعي هو بديل للخبرة البشرية. بل يجب أن يكون مكملًا لها.
لقد ساعد الذكاء الاصطناعي والأتمتة في مجال الأمن المؤسسات على توفير ملايين الدولارات من الأضرار المحتملة وجهود الإصلاح، ولكنها لا تزال بحاجة إلى أن يفهم الناس البيانات والرؤى التي يوفرها الذكاء الاصطناعي لتعظيم إمكاناته.
ولهذا السبب تقدم خدمات الأمن المُدارة دورًا متزايد الأهمية في ضمان توافق تبنّي الذكاء الاصطناعي استراتيجيًا مع احتياجات العمل وأهدافه - بدلًا من نشر الذكاء الاصطناعي لتقليل التكاليف والعمالة.