بينما تحتوي نماذج الذكاء الاصطناعي التوليدي العامة على حواجز أمان مدمجة، لا توجد مثل هذه القيود في البدائل مفتوحة المصدر. وإليك ما يعنيه ذلك بالنسبة لجريمة إلكترونية.
ليس هناك شك في أن المصدر المفتوح هو مستقبل البرمجيات. وفقاً لتقرير حالة المصدر المفتوح لعام 2024، فإن أكثر من ثلثي الشركات زادت من استخدامها لبرمجيات المصدر المفتوح في العام الماضي.
الذكاء الاصطناعي التوليدي ليس استثناء. يتزايد عدد المطورين الذين يساهمون في مشاريع مفتوحة المصدر على GitHub والمنصات الأخرى. تستثمر المؤسسات مليارات الدولارات في الذكاء الاصطناعي التوليدي عبر مجموعة واسعة من حالات الاستخدام، من روبوت محادثة لخدمة العملاء إلى توليد الرموز البرمجية. العديد منها إما يبني نماذج الذكاء الاصطناعي الخاصة من الصفر أو ينطلق من الاعتماد على مشاريع مفتوحة المصدر.
لكن الشركات الشرعية ليست الوحيدة التي تستثمر في الذكاء الاصطناعي التوليدي. كما أنه منجم ذهب حقيقي للجهات الفاعلة الخبيثة، بدءاً من الدول المارقة المصممة على نشر المعلومات المضللة بين منافسيها إلى مجرمي الإنترنت الذين يطورون رموزًا برمجية خبيثة أو عمليات الاحتيال الموجّهة.
في الوقت الحالي، أحد الأشياء القليلة التي تعيق الجهات الفاعلة الخبيثة هو الحواجز التي يضعها المطورون لحماية نماذج الذكاء الاصطناعي من سوء الاستخدام. لن يقوم ChatGPT بإنشاء بريد إلكتروني تصيدي عن قصد، ولن يقوم Midjourney بإنشاء صور مسيئة. ومع ذلك، تنتمي هذه النماذج إلى النماذج مغلقة المصدر حيث يمتلك المطورون الذين يقفون وراءها القدرة على تحديد ما يمكن وما لا يمكن استخدامه.
وقد استغرق الأمر شهرين فقط من إصدار ChatGPT للجمهور العام ليصل إلى 100 مليون مستخدم. ومنذ ذلك الحين، حاول عدد لا يحصى من المستخدمين اختراق حواجز الحماية و "اقتحامه" لفعل ما يريدون - بدرجات متفاوتة من النجاح.
سيؤدي الارتفاع الذي لا يمكن إيقافه لنماذج المصدر المفتوح إلى جعل حواجز الحماية هذه قديمة على أي حال. بينما كان الأداء عادة متأخراً عن النماذج مغلقة المصدر، لا شك أن النماذج مفتوحة المصدر ستتحسن. السبب بسيط — يمكن للمطورين استخدام أي بيانات يرغبون بها لتدريبها. على الجانب الإيجابي، يمكن أن يعزز هذا الأمر الشفافية والمنافسة مع دعم إتاحة الذكاء الاصطناعي للجميع - بدلاً من تركه في أيدي الشركات الكبرى والهيئات التنظيمية فقط.
ومع ذلك، وبدون ضمانات، فإن الذكاء الاصطناعي التوليدي هو الجبهة التالية في الجريمة الإلكترونية. تتوفر برامج الذكاء الاصطناعي المارقة مثل FraudGPT وWormGPT على نطاق واسع في أسواق الشبكة الخفية. يعتمد كلاهما على النموذج اللغوي الكبير (LLM) مفتوح المصدر GPT-J الذي طورته EleutherAI في عام 2021.
تستخدم الجهات الخبيثة أيضًا مُركّبات الصور مفتوحة المصدر مثل Stable Diffusion لبناء نماذج متخصصة قادرة على توليد محتوى مسيء. إن محتوى الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أصبح قريبًا. قدراتها محدودة حالياً فقط حتى يتم توفير نماذج مفتوحة المصدر عالية الأداء وقوة الحوسبة الكبيرة المطلوبة لتشغيلها.
النشرة الإخبارية الخاصة بالمجال
ابقَ على اطلاع دائم على أبرز الاتجاهات في مجالات الذكاء الاصطناعي، والأتمتة، والبيانات، وغيرها الكثير من خلال رسالة Think الإخبارية. راجع بيان الخصوصية لشركة IBM.
سيصلك محتوى الاشتراك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك من هنا. لمزيد من المعلومات، راجع بيان خصوصية IBM.
قد يكون من المغري تجاهل هذه المشكلات باعتبارها تهديدات خارجية ينبغي أن يكون أي فريق مدرب بشكل كافٍ ومجهّزًا بشكل كافٍ للتعامل معها. ولكن مع استثمار المزيد من المؤسسات في بناء نماذج الذكاء الاصطناعي التوليدي، فإنها تخاطر أيضاً بتوسيع أسطح الهجوم الداخلية.
أحد أكبر مصادر التهديد في تطوير النموذج هو عملية التدريب نفسها. على سبيل المثال، إذا كانت هناك أي بيانات سرية أو محمية بحقوق الطبع والنشر أو غير صحيحة في مجموعة بيانات التدريب، فقد تظهر لاحقًا استجابةً لمطالبة ما. قد يكون هذا بسبب سهو من جانب فريق التطوير أو بسبب هجوم تسميم متعمد للبيانات من جانب جهة خبيثة.
تُعد هجمات حقن الموجّه مصدرًا آخر للمخاطر، والتي تنطوي على خداع أو كسر حماية نموذج ما لتوليد محتوى يتعارض مع شروط الاستخدام التي وضعها البائع. وهذا خطر يواجه كل نموذج من نماذج الذكاء الاصطناعي التوليدي، لكن المخاطر تكون أكبر على الأرجح في بيئات المصدر المفتوح التي تفتقر إلى الرقابة الكافية. بمجرد أن تصبح أدوات الذكاء الاصطناعي مفتوحة المصدر، تفقد المؤسسات التي نشأت منها السيطرة على تطوير واستخدام التقنية.
إن أسهل طريقة لفهم التهديدات التي يشكلها الذكاء الاصطناعي غير الخاضع للتنظيم هي أن نطلب من الذكاء الصناعي من المصادر المغلقة أن يسيء التصرف. في ظل معظم الظروف، سترفضن التعاون، ولكن كما أظهرت العديد من الحالات، فإن كل ما يتطلبه الأمر عادةً هو بعض الموجّهات الإبداعية واستخدام مبدأ التجربة والخطأ. ومع ذلك، لن تواجه مثل هذه القيود مع أنظمة الذكاء الاصطناعي مفتوحة المصدر التي طورتها منظمات مثل Stability AI أو EleutherAI أو Hugging Face — أو، في الواقع، نظام خاص بك تبنيه داخلياً.
في النهاية، يكمن تهديد نماذج الذكاء الاصطناعي في مدى قابليتها لسوء الاستخدام. وفي حين أن تعزيز مبدأ الإتاحة العامة للجميع في تطوير النماذج يعد في حد ذاته هدفًا نبيلًا، إلا أن التهديد سيتطور وينمو ولا يمكن للشركات أن تتوقع الاعتماد على الجهات التنظيمية لمواكبة ذلك. لهذا السبب أصبح الذكاء الاصطناعي نفسه أداة حيوية في ترسانة محترفي الأمن السيبراني. لفهم السبب، اقرأ دليلنا حول الأمن السيبراني في الذكاء الاصطناعي.