في الصيف الماضي، أصدر باحثو الأمن الإلكتروني في شركة HYAS إثباتًا لفكرة برنامج EyeSpy، وهو نوع من البرامج الخبيثة المدعومة بالذكاء الاصطناعي والتي تعمل بشكل ذاتي تمامًا، وقد أوضحوا أنها تتمكن من التفكير في الهجمات الإلكترونية والتخطيط لها وتنفيذها ذاتيًا.1 وحذروا من أن هذه التجربة كانت لمحة عن عصر جديد من التهديدات الإلكترونية المدمرة التي لا يمكن اكتشافها والتي سيطلقها الذكاء الاصطناعي قريبًا.
أو ربما لا.
يقول Ruben Boonen، المسؤول عن تطوير إمكانات CNE في قسم خدمات محاكاة الخصوم من IBM X-Force: "ثمة ضجة كبيرة مثارة حول الذكاء الاصطناعي في مجال الأمن الإلكتروني والمجالات الأخرى". "ولكن في رأيي أننا، في الوقت الحالي، لا ينبغي أن نقلق أكثر من اللازم بشأن البرامج الخبيثة المدعومة بالذكاء الاصطناعي. فأنا لم أرَ أي دليل على أن الذكاء الاصطناعي تسبب في حدوث شيء لم يكن موجودًا من قبل".
التهديدات آخذة في التطور، وقد يأتي الوقت الذي تُشكل فيه البرامج الخبيثة المدعومة بالذكاء الاصطناعي خطرًا جسيمًا. ولكن في الوقت الراهن، على الأقل، يرى العديد من الخبراء الأمنين أن الحديث حول البرامج الخبيثة المدعومة بالذكاء الاصطناعي ما هو إلا مزيج من التكهنات المحضة وأكثر من مجرد تسويق.
تستخدم جهات التهديدات الذكاء الاصطناعي إلى حد كبير في الوقت الحالي من أجل تحسين البرامج النصية البدائية نفسها وهجمات الهندسة الاجتماعية التي اعتادت عليها فرق الأمن الإلكتروني بالفعل. وهذا يعني أنه يمكن للمؤسسات حماية نفسها من خلال الاستمرار في التركيز على الأساسيات، مثل معالجة مشاكل الأصول وتدريب الموظفين والاستثمار في الحلول المناسبة للكشف عن التهديدات.
يمكن أن تساعد كل من النماذج اللغوية الكبرى (LLMs) عامة الأغراض مثل Llama المقدم من شركة Meta والتطبيقات الموجهة مثل watsonx Code Assistant المقدم من شركة IBM المبرمجين على تسريع عملية التطوير من خلال كتابة التعليمات البرمجية وتصحيح أخطائها وترجمتها.
لكن القلق ينبع من كون هذه المزايا لا تقتصر على المبرمجين ذوي النوايا الحسنة فقط. من خلال اختراق حماية أنظمة الذكاء الاصطناعي أو إنشاء أنظمة خاصة بهم، يمكن أن تستخدم جهات التهديدات نظريًا أدوات الذكاء الاصطناعي هذه لتبسيط عمليات تطوير البرامج الخبيثة.
ينتاب بعض الناس شعورٌ بالقلق من أن الذكاء الاصطناعي قد يجعل الدخول إلى سوق البرامج الخبيثة أمرًا سهلاً، ما يُمكّن المزيد من المجرمين الإلكترونيين من كتابة برمجيات خبيثة مهما كان مستوى مهارتهم. أو قد تساعد تقنيات الذكاء الاصطناعي، وهو الأسوأ، جهات التهديدات على تطوير برامج خبيثة جديدة تمامًا يمكنها تجاوز أنظمة الحماية الشهيرة وإحداث ضرر لا يوصف.
حاول بعض الباحثين توضيح المخاطر التي قد تشكلها التهديدات الإلكترونية المدعومة بالذكاء الاصطناعي من خلال تجربة طرق مختلفة لدمج الذكاء الاصطناعي في البرامج الخبيثة، ومنها ما يلي:
تبدو هذه التجارب مثيرة للقلق للوهلة الأولى، لكن العديد من الخبراء الأمنين يرونها مجرد حالات غريبة.
يقول Boonen، الذي يُجري تدريبات الفريق الأحمر لمساعدة المؤسسات على تعزيز أنظمة الحماية من الهجمات الإلكترونية الفعلية: "أشياء مثل [BlackMamba وEyeSpy] لا تُثير قلقي على الإطلاق."
ويوضح قائلاً: "عندما استعرض التفاصيل التقنية المتعلقة بكيفية تنفيذ هذه البرامج، فلا أعتقد أنها ستحقق أي نجاح إذا استخدمناها في تفاعلاتنا مع العملاء."
ثمة سببان وراء تشكك Boonen وأشخاص آخرين في سياق الحديث عن البرامج الخبيثة المدعومة بالذكاء الاصطناعي حاليًا.
الأول: أن هذه "التهديدات الجديدة" لن تتسبب في شيء جديد لم تتعامل معه الفرق الأمنية من قبل، ما يعني أن إستراتيجيات الحماية الحالية لا تزال فعالة في مواجهتها.
يقول Kevin Henson، رئيس قسم الهندسة العكسية للبرامج الخبيثة في IBM X-Force Threat Intelligence: "المفاهيم المطروحة في برنامجي BlackMamba وEyeSpy ليست جديدة." "لقد واجهت أنظمة الحماية برامج خبيثة بهذه الإمكانات - مختبئة في الذاكرة، والتعليمات البرمجية متعددة الأشكال - من قبل."
يشير Henson إلى مطوري البرامج الخبيثة الذين يستخدمون تقنيات مثل البرمجة الوصفية لإخفاء البيانات المهمة وإنشاء عناصر معينة فريدة، مثل أنماط التعليمات البرمجية، في كل عملية تجميع.
الثاني: أنه على الرغم من أن النماذج اللغوية الكبرى (LLMs) تتمتع بإمكانات برمجة مبهرة، فمن غير المرجح أن تتمكن من إنشاء أي أشكال غير مسبوقة من البرامج الخبيثة في أي وقت قريب.
يقول Henson: "أعتقد أن استخدام ChatGPT [وأدوات الذكاء الاصطناعي الأخرى] لإنشاء برامج خبيثة أمر له حدود لأن التعليمات البرمجية تُنشئها نماذج مدربة على مجموعة من البيانات." "ونتيجة لذلك، لن تكون التعليمات البرمجية المطورة معقدة مثل التعليمات البرمجية التي يطورها الإنسان".
في حين أن الكثير من الناس يرون أن الذكاء الاصطناعي وخوارزميات التعلم الآلي قد يؤديان إلى إحداث طفرة في مجال الجريمة الإلكترونية من خلال تسهيل عملية إنتاج البرامج الخبيثة، إلا أن النماذج الحالية لم تصل إلى هذا المستوى بعد. لا يزال المستخدمون بحاجة إلى معرفة بعض الأمور عن التعليمات البرمجية للتأكد من أن أي شيء تنتجه النماذج اللغوية الكبرى يمكن أن يفعل ما يريدونه.
يقول Boonen: "الذكاء الاصطناعي هو عامل يُسهل الإنتاجية، وإلى حد ما يُقلل من مستوى المعرفة المطلوبة لكتابة التعليمات البرمجية عند استخدامه." "إلا أنه لا يقللها إلى حد كبير."
في الواقع، إذا بدأت جهات التهديدات تنفيذ البرامج الخبيثة المدعومة بالذكاء الاصطناعي على نطاق واسع في الوقت الحالي، فمن المحتمل أن تنتج الكثير من التعليمات البرمجية منخفضة الجودة التي يمكن لأنظمة الحماية اكتشافها وإبطال مفعولها بسهولة.
يقول Boonen: "أنا لا أقول أنه يستحيل أن توجد تقنية في المستقبل تساعد على ابتكار برامج خبيثة جيدة حقًا من خلال الاستفادة من الذكاء الاصطناعي." "إذا استمرت النماذج في التحسن بالمعدل الذي هو عليه، فأعتقد أنها ستصل إلى مستوى تتمكن فيه من القيام بأشياء جوهرية. وعندئذٍ، يتعين علينا أن نأخذ الأمر على محمل الجد. لكنني أعتقد أننا لم نصل إلى هذه المرحلة بعد."
يقول Golo Mühr، المهندس بقسم الهندسة العكسية للبرمجيات الخبيثة في IBM X-Force Threat Intelligence: "تعكس هذه المشكلة بشكل وثيق ما يحدث عند تطوير البرمجيات لأن البرامج الخبيثة ما هي إلا برمجيات خبيثة."
يوضح Mühr قائلاً: "في الوقت الحالي، لا توجد الكثير من التطبيقات التي تدمج الذكاء الاصطناعي بسلاسة في تعليماتها البرمجية." "بينما نرى الذكاء الاصطناعي أصبح سائدًا في البرمجيات بشكل عام، يمكننا أن نتوقع أن يصبح شائعًا في البرامج الخبيثة أيضًا".
وقد ظهر هذا النمط في الماضي، كما أفادت تقارير مؤشر X-Force Threat Intelligence. لم تصبح برامج طلب الفدية وتعدين العملات المشفرة الخبيث تهديدات منتشرة إلا بعد تبني التقنيات المشروعة التي تعزز هذه الهجمات بشكل كامل - مثل Microsoft Active Director لبرامج طلب الفدية، والعملات الرقمية والبنية التحتية كخدمة لتعدين العملات المشفرة الخبيث.
يشير Mühr إلى أن أي تقنية جديدة ينبغي أن توفر عائد الاستثمار المناسب قبل أن يتبناها المطورون - وينطبق الأمر نفسه على مطوري البرامج الخبيثة.
لم يعثر الباحثون في مجال الأمن الإلكتروني، بمن فيهم باحثو ®X-Force التابعون لشركة IBM، على أدلة تشير إلى استخدام جهات التهديدات للذكاء الاصطناعي من أجل إنشاء برامج خبيثة جديدة على أرض الواقع. لكن المجرمون الإلكترونيون يستخدمون أدوات الذكاء الاصطناعي في أنشطة خبيثة أكثر روتينية، مثل كتابة البرامج النصية البسيطة ورسائل البريد الإلكتروني الاحتيالية.
يقول Mühr: "في مجال تطوير البرمجيات المشروعة، نلاحظ أن الذكاء الاصطناعي التوليدي يُستخدم كأداة مُساعدة في عمليات التطوير، حيث يوجّه العملية ويُنشئ أجزاءً أساسية من التعليمات البرمجية. وهذا النوع من تقنيات الذكاء الاصطناعي تستخدمه جهات التهديدات بالفعل لأغراض خبيثة في الوقت الحالي، ولكن هذا ليس شيئًا يتعين علينا أن ننظر إليه كتهديد متطور للغاية".
على سبيل المثال، تمكنت شركة Microsoft وOpenAI من الكشف عن العديد من جهات التهديدات الدولية التي تحاول استخدام النماذج اللغوية الكبرى كمساعدين في البرمجة وإحباط محاولاتها. واستخدمت مجموعة "Forest Blizzard" التابعة لروسيا النماذج اللغوية الكبرى من أجل البحث عن الثغرات الأمنية في الأنظمة المستهدفة، بينما استخدمتها مجموعة "Crimson Sandstorm" الإيرانية في كتابة نصوص برمجية لاستخراج المعلومات من المواقع الإلكترونية.3
ومع ذلك، فإن هجمات التصيد المدعومة بالنماذج اللغوية الكبرى تُعد أكثر استخدامات الذكاء الاصطناعي الخبيثة إثارة للقلق بالنسبة إلى العديد من الخبراء الأمنين.
يقول Mühr: "أعتقد أن أكبر تهديد في هذه المرحلة هو استخدام الذكاء الاصطناعي التوليدي في انتحال الشخصيات والتصيد الاحتيالي. وهي حالة استخدام يمكن أن يكون للذكاء الاصطناعي فيها تأثير كبير بالفعل من خلال إنشاء نصوص ومقاطع فيديو ومقاطع صوتية شبيهة بما ينتجه البشر. وقد رأينا بالفعل مؤشرات تدل على استخدام ذلك كسلاح في التصيد الاحتيالي".
على سبيل المثال، يمكن للمخترقين استخدام النماذج اللغوية الكبرى لكتابة رسائل بريد إلكتروني احتيالية تحاكي عن كثب دعايا العلامات التجارية الموثوقة. كما تفتقر رسائل البريد الإلكتروني هذه التي تنتجها النماذج اللغوية الكبرى إلى علامات التنبيه الشائعة، مثل الأخطاء النحوية والصياغة الركيكة، والتي غالبًا ما يستخدمها الضحايا المحتملون للتعرف على العمليات الاحتيالية.
يمكن أن تستفيد الجهات الخبيثة من الذكاء الاصطناعي في إنشاء الصور والمقاطع المزيفة التي تجعل عمليات الاحتيال أكثر إقناعًا. على سبيل المثال، استخدم محتالون في Hong Kong S.A.R. بجمهورية الصين الشعبية مؤتمر فيديو من إنشاء الذكاء الاصطناعي لخداع أحد الضحايا وإجباره على تحويل 25 مليون دولار أمريكي إلى حسابات مصرفية احتيالية.4
يمكن أن تخدع حوادث الاحتيال المدعومة بالذكاء الاصطناعي هذه كلاً من الأشخاص المستهدفين والأنظمة الأمنية بالمؤسسات المعنية بمواجهتها. على سبيل المثال، من المحتمل أن تستخدم المجموعة الإجرامية الإلكترونية التي تطلق عليها X-Force لقب "Hive0137" الذكاء الاصطناعي لإنشاء أشكال مختلفة من رسائل التصيد الاحتيالي حتى تتمكن من تجاوز عوامل التصفية التي تبحث عن الرسائل الخبيثة المعروفة.
لم يُحدث الذكاء الاصطناعي تغييرًا جذريًا في مجال الأمن الإلكتروني. بل ساعد المهاجمين على تبسيط الأمور التي كانوا يقومون بها بالفعل. وهذا يعني أن أفضل خط دفاع ضد الهجمات المدعومة بالذكاء الاصطناعي هو أن تلتزم المؤسسات بالأساسيات.
يقول Ben Shipley، محلل التهديدات الإستراتيجية في IBM X-Force Threat Intelligence: "إذا كنا نتحدث عن استخدام الذكاء الاصطناعي في شن الهجمات، فإن المخاطر والاستجابة لها لن تكون غريبة بالنسبة إلى أنظمة الحماية." "سيظل سلوك البرامج الخبيثة المنشأة باستخدام الذكاء الاصطناعي أو التي يطورها الإنسان كما هو". فبرامج طلب الفدية المطورة باستخدام الذكاء الاصطناعي لن يكون تأثيرها في الضحية أكبر من تأثير برامج طلب الفدية التي يطورها الإنسان".
يمكن أن تساعد التدابير الأمنية القياسية على سد الثغرات الأمنية التي تستغلها البرامج الخبيثة - بمساعدة الذكاء الاصطناعي أم من دونه - لاختراق الأنظمة. على سبيل المثال، يمكن أن تعالج برامج إدارة التصحيحات الرسمية إصلاح أخطاء البرمجيات قبل أن تعثر عليها الجهات الخبيثة. ويمكن أن تمنع ضوابط الهوية والوصول الصارمة مثل المصادقة متعددة العوامل اختراق الحسابات، ويُعد من أكثر العوامل شيوعًا في الهجمات الإلكترونية في الوقت الحالي.
ويمكن أن تساعد التدابير الأخرى على التصدي لهجمات الذكاء الاصطناعي كذلك، ومنها ما يلي:
بينما يمكن أن تستفيد الجهات الخبيثة من أدوات الذكاء الاصطناعي لتبسيط عملياتها، يمكن – بل ينبغي – أن تفعل أنظمة الحماية الشيء نفسه.
وفقًا لتقرير IBM حول تكلفة حوادث اختراق البيانات، يمكن للمؤسسات التي تستخدم الذكاء الاصطناعي والأتمتة في مجال الأمن الإلكتروني أن تقلل بشكل كبير من تكاليف حوادث الاختراق.
يمكن أن يزيد الذكاء الاصطناعي من كفاءة جهود الحماية ويسرّع فترات الكشف عن التهديدات ومعالجتها، ما يقلل 1.88 مليون دولار أمريكي من متوسط تكلفة حوادث اختراق البيانات. (بالنسبة إلى المؤسسات التي تستثمر على نطاق واسع في مجال الذكاء الاصطناعي والأتمتة الأمنية، يبلغ متوسط تكلفة حوادث الاختراق 3.84 مليون دولار أمريكي. وبالنسبة إلى المؤسسات التي لا تستخدم الذكاء الاصطناعي والأتمتة في المجال الأمني، فإن متوسط تكلفة حوادث الاختراق يبلغ 5.72 مليون دولار أمريكي).
الذكاء الاصطناعي التقليدي المستند إلى القواعد مدمج بالفعل في العديد من أدوات الأمن الإلكتروني الشائعة، مثل أدوات الكشف عن نقاط النهاية والاستجابة لها (EDR) وأدوات تحليلات سلوك المستخدمين والكيانات (UEBA). ولكن نماذج الذكاء الاصطناعي التوليدي الجديدة مهيأة أيضًا لمساعدة أجهزة الحماية.
يقول Boonen: "أعتقد أن نماذج الذكاء الاصطناعي التوليدي سيكون لها تأثير كبير في أشياء مثل الاستجابة للحوادث". "على سبيل المثال، قد يتمكنون من فهم الحوادث أو تلخيصها بشكل أسرع نظرًا إلى أن النماذج يمكن أن تفحص كميات هائلة من البيانات في فترة زمنية أقصر مما يمكن للإنسان".
يؤدي ذلك إلى تسريع العملية بالنسبة إلى المحللين، الذين يمكنهم استخدام هذه المعارف للتصدي للتهديدات بشكل أسرع وأكثر فعالية.
وبينما يمكن أن ينتج الذكاء الاصطناعي الصور والمقاطع مزيفة التي تستخدمها الجهات الخبيثة لخداع الناس، إلا أنه يمكن أن يؤدي أيضًا دورًا حيويًا في مواجهة تلك المخططات ذاتها.
يوضح Boonen قائلاً: " بعض الصور لا يمكن تقريبًا تمييزها عن الصور الحقيقية، وفي ظل التطور، أظن أن معظم الناس لن يتمكنوا من التمييز بينها". "لذلك أعتقد أنه سيتعين علينا تدريب نماذج الذكاء الاصطناعي على قول، "هذا الفيديو مزيف" أو "هذه الصورة مزيفة" حين لا يتمكن البشر من فعل ذلك".
كما هو الحال بالنسبة إلى مستقبل التهديدات المدعومة بالذكاء الاصطناعي، من المرجح أن يكون تأثير الذكاء الاصطناعي على العاملين في مجال الأمن الإلكتروني بمثابة تحول تدريجي وليس تحولاً مفاجئًا. فبدلاً من الانجراف وراء الضجيج أو الانسياق وراء المتشائمين، سيكون من الأفضل للفرق الأمنية أن تواصل ما كانت تفعله دائمًا: التركيز على الحاضر مع إبقاء أعينهم على المستقبل.
تؤدي كل الروابط إلى صفحات خارج ibm.com.
1. إثبات فكرة برنامج EyeSpy، شركة HYAS، 01 أغسطس 2023.
2. BlackMamba: استخدام الذكاء الاصطناعي لإنشاء برامج خبيثة متعددة الأشكال، شركة HYAS، 31 يوليو 2023.
3. استباق جهات التهديدات في عصر الذكاء الاصطناعي، شركة Microsoft، 14 فبراير 2024.
4. موظف في قسم المالية يدفع 25 مليون دولار أمريكي بعد مكالمة فيديو مزيفة مع "المدير المالي"، CNN، 4 فبراير 2024.
الجرائم التي يحرِّكها المخترقون. الدفاع القائم على الأبحاث. الحماية المستندة إلى المعلومات الاستخباراتية.
التنبؤ بالتهديدات الحديثة ومنعها والاستجابة لها، ما يزيد من مرونة الأعمال.
حماية على مدار الساعة طوال أيام الأسبوع وكشف واستجابة أسرع باستخدام الذكاء الاصطناعي.