الذكاء الاصطناعي الظلي هو الاستخدام غير المصرح به لأي أداة أو تطبيق للذكاء الاصطناعي من قِبل الموظفين أو المستخدمين النهائيين دون موافقة رسمية أو إشراف من قسم تكنولوجيا المعلومات (IT).
ومن الأمثلة الشائعة على الذكاء الاصطناعي الظلي الاستخدام غير المصرح به لتطبيقات الذكاء الاصطناعي التوليدي (gen AI) مثل ChatGPT من OpenAI لأتمتة المهام مثل تحرير النصوص وتحليل البيانات. غالبا ما يلجأ الموظفون إلى هذه الأدوات لتعزيز الإنتاجية وتسريع العمليات. ومع ذلك، نظرًا لأن فرق تكنولوجيا المعلومات لا تدرك استخدام هذه التطبيقات، فقد يعرض الموظفون المؤسسة دون علمهم لمخاطر كبيرة تتعلق بأمن البيانات والامتثال وسمعة الشركة.
بالنسبة للمديرين التنفيذيين للمعلومات والمديرين التنفيذيين لأمن المعلومات، فإن تطوير استراتيجية قوية للذكاء الاصطناعي تتضمن مبادرات حوكمة الذكاء الاصطناعي والأمن هو أمر أساسي لإدارة مخاطر الذكاء الاصطناعي بشكل فعال. من خلال الالتزام بسياسات الذكاء الاصطناعي التي تؤكد على أهمية الامتثال والأمن السيبراني، يمكن للقادة إدارة مخاطر الذكاء الاصطناعي الظلي مع تبني فوائد تقنيات الذكاء الاصطناعي.
لفهم الآثار المترتبة على الذكاء الاصطناعي الظلي، من المفيد تمييزه عن تكنولوجيا المعلومات الظلية.
تشير تكنولوجيا المعلومات الظلية إلى نشر أي برنامج أو جهاز أو تكنولوجيا المعلومات على شبكة المؤسسة دون موافقة أو معرفة أو إشراف قسم تكنولوجيا المعلومات أو المدير التنفيذي للمعلومات (CIO). قد يلجأ الموظفون إلى تقنية الذكاء الاصطناعي غير المعتمدة عندما يجدون أن الحلول الحالية غير كافية أو يعتقدون أن الخيارات المعتمدة بطيئة للغاية. تتضمن الأمثلة الشائعة استخدام خدمات التخزين السحابي الشخصي أو أدوات إدارة المشاريع غير المعتمدة.
بينما تركز تكنولوجيا المعلومات الظلية على أي تطبيق أو خدمة غير مصرح به، يركز الذكاء الاصطناعي الظلي على الأدوات والمنصات الخاصة بالذكاء الاصطناعي وحالات الاستخدام. على سبيل المثال، قد يستخدم الموظف نموذج لغوي كبير (LLM) لإنشاء تقرير بسرعة دون إدراك المخاطر الأمنية. يكمن الاختلاف الرئيسي في طبيعة الأدوات المستخدمة: يدور الذكاء الاصطناعي الظلي حول الاستخدام غير المصرح به للذكاء الاصطناعي، والذي يقدم مخاوف فريدة تتعلق بإدارة البيانات ومخرجات النموذج واتخاذ القرار.
في الفترة من 2023 إلى 2024، ارتفعت نسبة تبني موظفي المؤسسات لتطبيقات الذكاء الاصطناعي التوليدي من 74% إلى 96% مع تبني المؤسسات لتقنيات الذكاء الاصطناعي.1 وإلى جانب هذا النمو، ارتفع معدل استخدام الذكاء الاصطناعي الظلي. اليوم، يقرّ أكثر من ثلث الموظفين (38%) بمشاركة معلومات العمل الحساسة مع أدوات الذكاء الاصطناعي دون إذن أصحاب العمل.2
يمكن أن يُعرّض الذكاء الاصطناعي الظلي الشركات للعديد من المخاطر، بما في ذلك تسرب البيانات والغرامات لعدم الامتثال والضرر البالغ الذي يلحق بسمعتها:
أحد أهم المخاطر المرتبطة بالذكاء الاصطناعي الظلي هو احتمال حدوث خروقات للبيانات. عندما يكون هناك نقص في الرقابة فيما يتعلق باستخدام الذكاء الاصطناعي، يمكن للموظفين الكشف عن معلومات حساسة عن غير قصد مما يؤدي إلى مخاوف تتعلق بخصوصية البيانات. وفقًا لاستطلاع حديث للرؤساء التنفيذيين لأمن المعلومات، تعرضت واحدة من كل 5 شركات بريطانية لتسريب البيانات بسبب استخدام الموظفين للذكاء الاصطناعي التوليدي.3 وقد يفسر ارتفاع خطر تسرب البيانات سبب تصريح ثلاثة أرباع المستجيبون أيضًا بأن الموظفين الداخليين يشكلون خطرًا أكبر على المؤسسة مقارنةً بالتهديدات الخارجية.4
في العديد من الصناعات، يعد الامتثال التنظيمي أمرًا غير قابل للتفاوض. قد يؤدي استخدام الذكاء الاصطناعي الظلي إلى مشكلات تتعلق بالامتثال، وخاصة فيما يتعلق بحماية البيانات والخصوصية. قد يُطلب من المؤسسات الالتزام باللوائح التنظيمية مثل اللائحة العامة لحماية البيانات (GDPR). يمكن أن تكون الغرامات المفروضة على عدم الامتثال للائحة العامة لحماية البيانات كبيرة: يمكن أن تكلف المخالفات الكبيرة (مثل معالجة البيانات لأغراض غير قانونية) الشركات ما يزيد عن 20000000 يورو أو 4% من إيرادات المؤسسة في جميع أنحاء العالم في العام السابق—أيهما أعلى.
إن الاعتماد على نماذج الذكاء الاصطناعي غير المصرح بها قد يؤثر على جودة عملية اتخاذ القرار. وبدون حوكمة سليمة، فإن المخرجات التي تولدها هذه النماذج قد لا تتوافق مع أهداف المؤسسة أو معاييرها الأخلاقية. البيانات المتحيزة ، وفرط التخصيص ، وانحراف النموذج هي بعض الأمثلة على مخاطر الذكاء الاصطناعي التي يمكن أن تؤدي إلى خيارات استراتيجية سيئة وتضر بسمعة الشركة.
قد يتعارض الاستخدام غير المصرح به لنظام الذكاء الاصطناعي أيضًا مع معايير الجودة الخاصة بالشركة ويقوض ثقة المستهلك. ضع في اعتبارك رد الفعل العنيف عندما تم فضح مجلة Sports Illustrated لنشرها مقالات كتبها مؤلفون من إنتاج الذكاء الاصطناعي أو عندما تم استدعاء Uber Eats لاستخدامها صور طعام من إنتاج الذكاء الاصطناعي.
على الرغم من المخاطر، فإن الذكاء الاصطناعي الظلي أصبح أكثر شيوعًا لعدة أسباب. تبني المؤسسات للتحول الرقمي، وبالتالي التكامل بين تقنيات الذكاء الاصطناعي لإعادة تصور مهام سير العمل واتخاذ القرارات.
إن انتشار أدوات الذكاء الاصطناعي سهلة الاستخدام يعني أن الموظفين يمكنهم الوصول بسهولة إلى حلول الذكاء الاصطناعي المتقدمة لتعزيز قدراتهم. تتوفر العديد من تطبيقات الذكاء الاصطناعي كمنتجات برمجيات كخدمة (SaaS)، مما يسمح للأفراد بتبني هذه الأدوات بسرعة دون الحاجة إلى إشراك فرق تكنولوجيا المعلومات أو الأمن. من خلال تعميم الذكاء الاصطناعي، يجد الموظفون طرقًا جديدة من أجل:
يتجلى الذكاء الاصطناعي الظلي بطرق مختلفة في مختلف المؤسسات، وغالباً ما يكون مدفوعاً بالحاجة إلى الكفاءة والابتكار. تشمل الأمثلة الشائعة للذكاء الاصطناعي الظلي روبوتات المحادثة المدعومة بالذكاء الاصطناعي، ونماذج التعلم الآلي لتحليل البيانات، وأدوات الأتمتة للتسويق، وأدوات العرض المصور للبيانات.
في خدمة العملاء، قد تلجأ الفرق إلى روبوتات المحادثة المدعومة بالذكاء الاصطناعي غير المصرح بها لتوليد إجابات للاستفسارات. على سبيل المثال، قد يحاول ممثل خدمة العملاء الإجابة على سؤال العميل عن طريق طرح سؤال على روبوت المحادثة بدلاً من النظر إلى المواد المعتمدة لشركته. يمكن أن يؤدي ذلك إلى رسائل غير متسقة أو خاطئة وسوء التواصل المحتمل مع العملاء ومخاطر أمنية إذا كان سؤال الممثل يحتوي على بيانات الشركة الحساسة.
قد يستخدم الموظفون نماذج التعلم الآلي الخارجية لتحليل بيانات الشركة والعثور على الأنماط. على الرغم من أن هذه الأدوات يمكن أن تقدم رؤى قيّمة، إلا أن الاستخدام غير المصرح به لخدمات الذكاء الاصطناعي يمكن أن يؤدي إلى خلق ثغرات أمنية. على سبيل المثال، قد يستخدم أحد المحللين نموذج سلوك تنبؤي لفهم سلوك العميل بشكل أفضل من مجموعة بيانات مملوكة له، مما يكشف معلومات حساسة دون علم منه في هذه العملية.
قد تسعى فرق التسويق إلى تحسين الحملات باستخدام أدوات الذكاء الاصطناعي الظلي، والتي يمكنها أتمتة جهود التسويق عبر البريد الإلكتروني أو تحليل بيانات المشاركة في وسائل التواصل الاجتماعي. يمكن أن يؤدي استخدام هذه الأدوات إلى تحسين نتائج التسويق. ومع ذلك، فإن غياب الحوكمة قد يؤدي إلى عدم الامتثال لمعايير حماية البيانات، وخاصة إذا تم التعامل مع بيانات العملاء بشكل خاطئ.
تستخدم العديد من المؤسسات أدوات العرض المصور للبيانات المدعومة بالذكاء الاصطناعي لإنشاء خرائط حرارية ومخططات خطية ومخططات شريطية وغير ذلك بسرعة. يمكن أن تساعد هذه الأدوات في تعزيز ذكاء الأعمال من خلال عرض علاقات البيانات المعقدة والرؤى بطريقة يسهل فهمها. ومع ذلك، فإن إدخال بيانات الشركة دون موافقة تكنولوجيا المعلومات يمكن أن يؤدي إلى عدم الدقة في إعداد التقارير ومشكلات محتملة في أمن البيانات.
ولإدارة مخاطر الذكاء الاصطناعي الظلي، قد تفكر المؤسسات في عدة طرق تشجع الاستخدام المسؤول للذكاء الاصطناعي مع إدراك الحاجة إلى المرونة والابتكار:
يمكن للحوار المفتوح بين إدارات تكنولوجيا المعلومات وفرق الأمن ووحدات الأعمال أن يسهل فهم قدرات الذكاء الاصطناعي وقيوده بشكل أفضل. يمكن لثقافة التعاون مساعدة للمؤسسات على تحديد أدوات الذكاء الاصطناعي المفيدة مع المساعدة أيضًا في ضمان الامتثال لبروتوكولات حماية البيانات.
يمكن لأطر عمل الحوكمة استيعاب الطبيعة السريعة لتبني الذكاء الاصطناعي مع الحفاظ على التدابير الأمنية. يمكن أن تتضمن أطر العمل هذه إرشادات واضحة حول أنواع أنظمة الذكاء الاصطناعي التي يمكن استخدامها، وكيفية التعامل مع المعلومات الحساسة، والتدريب الذي يحتاجه الموظفون فيما يتعلق بأخلاقيات الذكاء الاصطناعي والامتثال لها.
يمكن أن توفر سبل الحماية المتعلقة باستخدام الذكاء الاصطناعي شبكة أمان، ما يساعد على ضمان استخدام الموظفين للأدوات المعتمدة فقط ضمن معلمات محددة. يمكن أن تتضمن سبل الحماية سياسات تتعلق باستخدام الذكاء الاصطناعي الخارجي أو بيئات آلية تحديد الوصول لاختبار تطبيقات الذكاء الاصطناعي أو جدارن الحماية لحظر المنصات الخارجية غير المصرح بها.
قد لا يكون من الممكن القضاء على جميع حالات الذكاء الاصطناعي الظلي. لذلك، يمكن للمؤسسات تطبيق أدوات مراقبة الشبكة لتتبع استخدام التطبيقات وإنشاء ضوابط وصول للحد من البرامج غير المعتمدة. يمكن أن تساعد عمليات التدقيق المنتظمة والمراقبة النشطة لقنوات الاتصال أيضًا في تحديد ما إذا كان يتم استخدام التطبيقات غير المصرح بها وكيفية استخدامها.
يتطور مشهد الذكاء الاصطناعي الظلي باستمرار، مما يمثل تحديات جديدة للمؤسسات. يمكن للشركات إنشاء اتصالات منتظمة، مثل الرسائل الإخبارية أو التحديثات ربع السنوية، لإعلام الموظفين عن الذكاء الاصطناعي الظلي والمخاطر المرتبطة به.
من خلال تعزيز الوعي بالآثار المترتبة على استخدام أدوات الذكاء الاصطناعي غير المصرح بها، يمكن للمؤسسات تعزيز ثقافة الذكاء الاصطناعي المسؤول. قد يشجع هذا الفهم الموظفين على البحث عن بدائل معتمدة أو التشاور مع تكنولوجيا المعلومات قبل نشر تطبيقات جديدة.
كل الروابط تنقلك خارج موقع ibm.com
1 ارتفاع مخاطر مشاركة البيانات الحساسة مع تزايد استخدام الذكاء الاصطناعي التوليدي، Infosecurity Magazine، 17 يوليو 2024.
2 أكثر من ثلث الموظفين يشاركون معلومات العمل سرًا مع الذكاء الاصطناعي، Infosecurity Magazine، 26 سبتمبر 2024.
3 خُمس مدراء أمن المعلومات يعترفون بتسريب الموظفين للبيانات عبر الذكاء الاصطناعي التوليدي، Infosecurity Magazine، 24 إبريل 2024.
4 المادة 99: العقوبات، قانون الاتحاد الأوروبي للذكاء الاصطناعي.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.