تظهر شركة DeepSeek الصينية الناشئة كلاعب منافس في مجال الذكاء الاصطناعي التوليدي، لكن خبراء الأمن يطرحون مخاوف بشأن الثغرات الأمنية المحتملة في منصتها.
أشار تقرير صادر عن شركة الأمن Wiz أولًا إلى تساؤلات حول موثوقية DeepSeek، محددًا ثغرة أمنية كبيرة في منصتها. وفقًا لشركة Wiz، عند الكشف عن الثغرة الأمنية، قامت DeepSeek "بتأمين الثغرة بسرعة". على الرغم من أن التفاصيل لا تزال محدودة، فإن الباحثين لاحظوا أيضًا مخاوف بشأن كيفية إدارة الشركة لمعلومات المستخدمين. أظهر اختبار أمني إضافي أجرته فِرق مشتركة من Cisco وجامعة بنسلفانيا أن آليات الأمن في DeepSeek-R1 واجهت صعوبةً في التعامل مع بعض المطالبات العدائية، حيث تمكَّن الباحثون من تجاوز القيود في عدة حالات.
كما شهدت DeepSeek انقطاعات في الخدمة، ما زاد من حدة النقاش حول مخاطر الاعتماد على خدمات الذكاء الاصطناعي من جهة خارجية. على الرغم من أن مثل هذه المشكلات شائعة بين مزوِّدي الذكاء الاصطناعي السحابي، فإن الخبراء يحذِّرون من أن أي منصة تتعامل مع بيانات مؤسسية حساسة يجب أن تُثبت وجود تدابير أمان قوية.
يقول Ruben Boonen، قائد تطوير القدرات في خدمات الخصم لدى IBM® X-Force: "لأسباب تتعلق بالخصوصية، لا أوصي بالبناء على خدمة السحابة الخاصة بهم. هناك مخاطرة".
بالنسبة إلى الشركات التي تفكر في دمج الذكاء الاصطناعي، تُعَد بروتوكولات الأمن عاملًا رئيسيًا. يقدِّم العديد من مزوِّدي الذكاء الاصطناعي للمؤسسات خيارات نشر محلية لتقليل الاعتماد على الخدمات السحابية. على سبيل المثال، تقدِّم IBM حلول ذكاء اصطناعي بمستوى مؤسسي يمكن استضافتها بشكل خاص، بينما أطلقت Meta نماذج مفتوحة المصدر يمكن للمؤسسات تشغيلها داخل مراكز البيانات الخاصة بها.
يشير Boonen إلى أن نموذج DeepSeek يمكن تشغيله محليًا أيضًا، ما يلغي المخاوف المتعلقة بمخاطر أمن السحابة. ومع ذلك، فإنه يحذر من أن الشركات التي تعتمد على خدماتها القائمة على السحابة يجب أن تكون حذرة بشكل خاص من الثغرات الأمنية المحتملة.
جزء من النقاش حول DeepSeek يتعلق بعدم اليقين بشأن إذا ما كان بإمكان العملاء الانسحاب من جمع البيانات لاستخدامها في تدريب الذكاء الاصطناعي. بينما توفِّر شركات مثل OpenAI مثل هذه الخيارات، لا يزال من غير الواضح إذا ما كانت DeepSeek تقدِّم ضمانات مماثلة.
يقول Boonen: "في حالة OpenAI، لديك قدر من الثقة بأنه إذا أخبرتهم بعدم استخدام بياناتك للتدريب، فإنهم بالفعل لا يفعلون ذلك". يقول: "لست على دراية بخيارات الانسحاب لدى DeepSeek؛ وحتى لو تم توضيحها جيدًا، فستكون لديَّ ثقة أقل في تطبيقها".
أعلنت Maryam Ashoori، المدير الأول لإدارة المنتجات في IBM watsonx، على LinkedIn أن المؤسسات يمكنها الآن "نشر هذه النماذج بأمان محليًا أو على السحابة التي تختارها"، مشيرةً إلى نظام النشر بنقرة واحدة الجديد في watsonx.ai لنماذج DeepSeek المصغَّرة للذكاء الاصطناعي.