دراسة أجرتها IBM وAWS: يتم تأمين أقل من 25% من مشاريع الذكاء الاصطناعي التوليدي الحالية
يعتمد عالم الأعمال منذ فترة طويلة على فكرة أن الثقة هي العنصر الأساسي لتحقيق النجاح. ولكن مع قيام الذكاء الاصطناعي بتحويل وإعادة تعريف كيفية أداء الأعمال وكيفية تفاعل العملاء معها، يجب بناء الثقة في التكنولوجيا.
يمكن للتطورات في مجال الذكاء الاصطناعي أن تُسهم في تحرير الموارد البشرية من المهام الروتينية للتركيز على الإنجازات عالية القيمة. ولا بد أن يكون لهذا التطور تأثير تحويلي على نمو الأعمال، ولكن تجارب المستخدمين والعملاء تتوقف على التزام المؤسسات ببناء حلول تقنية آمنة ومسؤولة وجديرة بالثقة.
يجب على المؤسسات تحديد إذا ما كان تفاعل الذكاء الاصطناعي التوليدي مع المستخدمين موثوقًا به، والأمان يُعَد عنصرًا أساسيًا للثقة. لذلك، هنا تكمن واحدة من أكبر الرهانات التي تواجهها المؤسسات: تأمين عمليات نشر الذكاء الاصطناعي الخاصة بها.
اليوم، أصدر معهد IBM لقيمة الأعمال دراسة تأمين الذكاء الاصطناعي التوليدي: المهم في الوقت الحالي، والتي شاركت في إعدادها شركة IBM وAWS، وهي تقدِّم بيانات وممارسات وتوصيات جديدة حول تأمين عمليات نشر الذكاء الاصطناعي التوليدي. وفقًا لدراسة IBM، ذكر 82% من المشاركين في الإدارات العليا أن الذكاء الاصطناعي الآمن والجدير بالثقة ضروري لنجاح أعمالهم. ورغم أن هذا يبدو واعدًا، أشار 69% من القادة الذين شملهم الاستطلاع أيضًا إلى أنه عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي، فإن الابتكار له الأسبقية على الأمن.
قد يبدو تحديد الأولوية بين الابتكار والأمن بمثابة خيار، لكنه في الواقع اختبار. هناك توتر واضح هنا؛ إذ تدرك المؤسسات أن المخاطر أصبحت أعلى من أي وقت مضى مع الذكاء الاصطناعي التوليدي، ولكنها لا تطبِّق الدروس المستفادة من الاضطرابات التقنية السابقة. وكما هو الحال مع التحول إلى البيئة السحابية الهجينة، أو تطوير البرمجيات المرنة، أو الثقة الصفرية، فإن أمن الذكاء الاصطناعي التوليدي قد يُعتبر مجرد فكرة ثانوية. يشعر أكثر من 50% من المشاركين بالقلق بشأن المخاطر غير المتوقعة التي تؤثِّر في مبادرات الذكاء الاصطناعي التوليدي ويخشون أن تؤدي إلى زيادة احتمالية تعطُّل الأعمال. ومع ذلك، فإنهم يشيرون إلى أن 24% فقط من مشاريع الذكاء الاصطناعي التوليدي الحالية يتم تأمينها. لماذا توجد هذه الفجوة؟
قد يكون التردد الأمني مؤشرًا ونتيجةً لفجوة معرفية أوسع نطاقًا في مجال الذكاء الاصطناعي التوليدي. وقال ما يقرب من نصف المشاركين (47%) إنهم غير متأكدين من مكان ومقدار الاستثمار عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي. حتى مع قيام الفِرَق بتجربة قدرات جديدة، لا يزال القادة يعملون على تحديد حالات استخدام الذكاء الاصطناعي التوليدي الأكثر منطقية وكيفية توسيع نطاقها في بيئات الإنتاج الخاصة بهم.
قد يكون عدم معرفة نقطة البداية هو العائق أمام اتخاذ إجراءات أمان فعَّالة. لذلك، تعاونت كلٌّ من IBM وAWS لوضع دليل إجرائي وتوصيات عملية للمؤسسات التي تريد حماية تقنياتها المعتمدة على الذكاء الاصطناعي.
لإرساء الثقة والأمان في الذكاء الاصطناعي التوليدي، يجب على المؤسسات أن تبدأ بالأساسيات أولًا، متخذةً الحوكمة كنقطة انطلاق أساسية. في الواقع، أشار 81% من المشاركين في الاستطلاع إلى أن الذكاء الاصطناعي التوليدي يتطلب نموذج حوكمة أمنيًّا جديدًا بشكل أساسي. ومن خلال البدء بالحوكمة والمخاطر والامتثال (GRC)، يمكن للقادة بناء الأساس لاستراتيجية الأمن الإلكتروني لحماية بنية الذكاء الاصطناعي الخاصة بهم التي تتماشى مع أهداف العمل وقيم العلامة التجارية.
كي يتم تأمين أي عملية، يجب أولًا فهم كيفية عملها وما يجب أن تبدو عليه العملية المتوقعة، حتى يتم التمكُّن من تحديد الانحرافات. إن الذكاء الاصطناعي الذي يخرج عن نطاق الوظائف المصمم للعمل من أجلها يمكن أن يتسبَّب في حدوث مخاطر جديدة تؤثِّر في الأعمال بطرق غير متوقعة. لذا، فإن تحديد تلك المخاطر المحتملة وفهمها يساعد المؤسسات على تحديد مستوى المخاطر الممكن تحمله، وهو ما يتأثر بمتطلبات الامتثال والمتطلبات التنظيمية الخاصة بها.
بمجرد وضع ضوابط الحوكمة، يمكن للمؤسسات أن تؤسس بشكل أكثر فاعلية استراتيجية لتأمين مسار الذكاء الاصطناعي. البيانات والنماذج واستخدامها، بالإضافة إلى البنية التحتية الأساسية التي يقومون ببنائها وتضمين ابتكارات الذكاء الاصطناعي فيها. وفي حين أن نموذج المسؤولية المشتركة للأمن قد يتغير بناءً على كيفية استخدام المؤسسة للذكاء الاصطناعي التوليدي، إلا أن هناك العديد من الأدوات والضوابط والعمليات المتاحة للمساعدة على التخفيف من مخاطر التأثير في الأعمال خلال قيام المؤسسات بتطوير عمليات الذكاء الاصطناعي الخاصة بها.
تحتاج المؤسسات إلى إدراك أن التهديدات التي تواجه سلسلة الذكاء الاصطناعي قد تؤثر في الثقة نفسها، وليس فقط على قضايا مثل الهلوسة والتحيز والأخلاقيات. تأخذ التهديدات التقليدية أبعادًا جديدة في ظل تطور الذكاء الاصطناعي، حيث تستخدم التهديدات الجديدة قدرات الذكاء الاصطناعي الهجومية كوسيلة جديدة للهجوم. كما أن هذه التهديدات تسعى إلى اختراق أصول وخدمات الذكاء الاصطناعي التي نستخدمها بشكل متزايد.
يمكن أن يساعد الأمان على تحقيق الثقة والاطمئنان في حالات استخدام الذكاء الاصطناعي التوليدي. ولتحقيق هذا التآزر، يجب على المؤسسات اتباع نهج القرية. إذ من الضروري توسيع نطاق المناقشات ليشمل جميع الأطراف المعنية في المؤسسة، الاستراتيجية وتطوير المنتجات والمخاطر وسلاسل التوريد ومشاركة العملاء، وليس فقط أولئك المعنيين بأنظمة المعلومات وتكنولوجيا المعلومات.
ولأن هذه التقنيات تُعتبر محورية وتحمل طابعًا متغيرًا، فإن إدارة ممتلكات الذكاء الاصطناعي والذكاء الاصطناعي التوليدي في المؤسسة تتطلب تعاونًا عبر مجالات الأمن والتكنولوجيا والأعمال.
يمكن أن يكون للشريك التقني دور رئيسي. إذ إن الاستفادة من شمولية وعمق خبرات شركاء التكنولوجيا عبر دورة التهديدات وفي النظام البنائي للأمان يمكن أن يكون من الأصول التي لا تُقدَّر بثمن. في الواقع، كشفت دراسة IBM أن أكثر من 90% من المؤسسات التي شملها الاستطلاع يتم تمكينها من خلال منتج خارجي أو شريك تقني لحلولها الأمنية القائمة على الذكاء الاصطناعي التوليدي. عندما يتعلق الأمر باختيار شريك تقني لاحتياجاتهم الأمنية ذات الصلة بالذكاء الاصطناعي التوليدي، أفادت المؤسسات التي شملها الاستطلاع بما يلي:
تؤكِّد الدراسة أن المؤسسات تدرك أهمية الأمن بالنسبة لابتكاراتها في مجال الذكاء الاصطناعي، لكنها لا تزال تحاول فهم أفضل السبل للتعامل مع ثورة الذكاء الاصطناعي. إن بناء العلاقات التي يمكن أن تساعد على توجيه هذه الجهود وتقديم المشورة لها ودعمها فنيًا هي الخطوة التالية الحاسمة في مجال الذكاء الاصطناعي التوليدي المحمي والموثوق به. بالإضافة إلى مشاركة الأفكار الرئيسية حول تصورات وأولويات المديرين التنفيذيين، قامت IBM وAWS بتضمين دليل إجرائي يتضمن توصيات عملية للارتقاء باستراتيجية أمن الذكاء الاصطناعي التوليدي إلى المستوى التالي.
تعرَّف على المزيد عن الدراسة المشتركة بين IBM وAWS وكيفية تمكُّن المؤسسات من حماية مسار الذكاء الاصطناعي