ما هو الذكاء الاصطناعي الظلي؟

منظر صاعد لناطحات السحاب

المؤلفين

Tom Krantz

Staff Writer

IBM Think

Alexandra Jonker

Staff Editor

IBM Think

Amanda McGrath

Staff Writer

IBM Think

ما هو الذكاء الاصطناعي الظلي؟

الذكاء الاصطناعي الظلي هو الاستخدام غير المصرح به لأي أداة أو تطبيق للذكاء الاصطناعي من قِبل الموظفين أو المستخدمين النهائيين دون موافقة رسمية أو إشراف من قسم تكنولوجيا المعلومات (IT).

ومن الأمثلة الشائعة على الذكاء الاصطناعي الظلي الاستخدام غير المصرح به لتطبيقات الذكاء الاصطناعي التوليدي (gen AI) مثل ChatGPT من OpenAI لأتمتة المهام مثل تحرير النصوص وتحليل البيانات. غالبا ما يلجأ الموظفون إلى هذه الأدوات لتعزيز الإنتاجية وتسريع العمليات. ومع ذلك، نظرًا لأن فرق تكنولوجيا المعلومات لا تدرك استخدام هذه التطبيقات، فقد يعرض الموظفون المؤسسة دون علمهم لمخاطر كبيرة تتعلق بأمن البيانات والامتثال وسمعة الشركة.

بالنسبة للمديرين التنفيذيين للمعلومات والمديرين التنفيذيين لأمن المعلومات، فإن تطوير استراتيجية قوية للذكاء الاصطناعي تتضمن مبادرات حوكمة الذكاء الاصطناعي والأمن هو أمر أساسي لإدارة مخاطر الذكاء الاصطناعي بشكل فعال. من خلال الالتزام بسياسات الذكاء الاصطناعي التي تؤكد على أهمية الامتثال والأمن السيبراني، يمكن للقادة إدارة مخاطر الذكاء الاصطناعي الظلي مع تبني فوائد تقنيات الذكاء الاصطناعي.

تكنولوجيا المعلومات الظلية مقابل الذكاء الاصطناعي الظلي

لفهم الآثار المترتبة على الذكاء الاصطناعي الظلي، من المفيد تمييزه عن تكنولوجيا المعلومات الظلية.

تقنية المعلومات الظلية

تشير تكنولوجيا المعلومات الظلية إلى نشر أي برنامج أو جهاز أو تكنولوجيا المعلومات على شبكة المؤسسة دون موافقة أو معرفة أو إشراف قسم تكنولوجيا المعلومات أو المدير التنفيذي للمعلومات (CIO). قد يلجأ الموظفون إلى تقنية الذكاء الاصطناعي غير المعتمدة عندما يجدون أن الحلول الحالية غير كافية أو يعتقدون أن الخيارات المعتمدة بطيئة للغاية. تتضمن الأمثلة الشائعة استخدام خدمات التخزين السحابي الشخصي أو أدوات إدارة المشاريع غير المعتمدة.

الذكاء الاصطناعي الظلي

بينما تركز تكنولوجيا المعلومات الظلية على أي تطبيق أو خدمة غير مصرح به، يركز الذكاء الاصطناعي الظلي على الأدوات والمنصات الخاصة بالذكاء الاصطناعي وحالات الاستخدام. على سبيل المثال، قد يستخدم الموظف نموذج لغوي كبير (LLM) لإنشاء تقرير بسرعة دون إدراك المخاطر الأمنية. يكمن الاختلاف الرئيسي في طبيعة الأدوات المستخدمة: يدور الذكاء الاصطناعي الظلي حول الاستخدام غير المصرح به للذكاء الاصطناعي، والذي يقدم مخاوف فريدة تتعلق بإدارة البيانات ومخرجات النموذج واتخاذ القرار.

ما هي مخاطر الذكاء الاصطناعي الظلي؟

في الفترة من 2023 إلى 2024، ارتفعت نسبة تبني موظفي المؤسسات لتطبيقات الذكاء الاصطناعي التوليدي من 74% إلى 96% مع تبني المؤسسات لتقنيات الذكاء الاصطناعي.1 وإلى جانب هذا النمو، ارتفع معدل استخدام الذكاء الاصطناعي الظلي. اليوم، يقرّ أكثر من ثلث الموظفين (38%) بمشاركة معلومات العمل الحساسة مع أدوات الذكاء الاصطناعي دون إذن أصحاب العمل.2

يمكن أن يُعرّض الذكاء الاصطناعي الظلي الشركات للعديد من المخاطر، بما في ذلك تسرب البيانات والغرامات لعدم الامتثال والضرر البالغ الذي يلحق بسمعتها:

اختراق أمن البيانات والثغرات الأمنية

أحد أهم المخاطر المرتبطة بالذكاء الاصطناعي الظلي هو احتمال حدوث خروقات للبيانات. عندما يكون هناك نقص في الرقابة فيما يتعلق باستخدام الذكاء الاصطناعي، يمكن للموظفين الكشف عن معلومات حساسة عن غير قصد مما يؤدي إلى مخاوف تتعلق بخصوصية البيانات. وفقًا لاستطلاع حديث للرؤساء التنفيذيين لأمن المعلومات، تعرضت واحدة من كل 5 شركات بريطانية لتسريب البيانات بسبب استخدام الموظفين للذكاء الاصطناعي التوليدي.3 وقد يفسر ارتفاع خطر تسرب البيانات سبب تصريح ثلاثة أرباع المستجيبون أيضًا بأن الموظفين الداخليين يشكلون خطرًا أكبر على المؤسسة مقارنةً بالتهديدات الخارجية.4

عدم الامتثال للوائح التنظيمية

في العديد من الصناعات، يعد الامتثال التنظيمي أمرًا غير قابل للتفاوض. قد يؤدي استخدام الذكاء الاصطناعي الظلي إلى مشكلات تتعلق بالامتثال، وخاصة فيما يتعلق بحماية البيانات والخصوصية. قد يُطلب من المؤسسات الالتزام باللوائح التنظيمية مثل اللائحة العامة لحماية البيانات (GDPR). يمكن أن تكون الغرامات المفروضة على عدم الامتثال للائحة العامة لحماية البيانات كبيرة: يمكن أن تكلف المخالفات الكبيرة (مثل معالجة البيانات لأغراض غير قانونية) الشركات ما يزيد عن 20000000 يورو أو 4% من إيرادات المؤسسة في جميع أنحاء العالم في العام السابق—أيهما أعلى. 

الإضرار بالسمعة

إن الاعتماد على نماذج الذكاء الاصطناعي غير المصرح بها قد يؤثر على جودة عملية اتخاذ القرار. وبدون حوكمة سليمة، فإن المخرجات التي تولدها هذه النماذج قد لا تتوافق مع أهداف المؤسسة أو معاييرها الأخلاقية. البيانات المتحيزة ، وفرط التخصيص ، وانحراف النموذج هي بعض الأمثلة على مخاطر الذكاء الاصطناعي التي يمكن أن تؤدي إلى خيارات استراتيجية سيئة وتضر بسمعة الشركة. 

قد يتعارض الاستخدام غير المصرح به لنظام الذكاء الاصطناعي أيضًا مع معايير الجودة الخاصة بالشركة ويقوض ثقة المستهلك. ضع في اعتبارك رد الفعل العنيف عندما تم فضح مجلة Sports Illustrated لنشرها مقالات كتبها مؤلفون من إنتاج الذكاء الاصطناعي أو عندما تم استدعاء Uber Eats لاستخدامها صور طعام من إنتاج الذكاء الاصطناعي.

أسباب الذكاء الاصطناعي الظلي

على الرغم من المخاطر، فإن الذكاء الاصطناعي الظلي أصبح أكثر شيوعًا لعدة أسباب. تبني المؤسسات للتحول الرقمي، وبالتالي التكامل بين تقنيات الذكاء الاصطناعي لإعادة تصور مهام سير العمل واتخاذ القرارات. 

إن انتشار أدوات الذكاء الاصطناعي سهلة الاستخدام يعني أن الموظفين يمكنهم الوصول بسهولة إلى حلول الذكاء الاصطناعي المتقدمة لتعزيز قدراتهم. تتوفر العديد من تطبيقات الذكاء الاصطناعي كمنتجات برمجيات كخدمة (SaaS)، مما يسمح للأفراد بتبني هذه الأدوات بسرعة دون الحاجة إلى إشراك فرق تكنولوجيا المعلومات أو الأمن. من خلال تعميم الذكاء الاصطناعي، يجد الموظفون طرقًا جديدة من أجل:

  • تعزيز الإنتاجية: غالبًا ما يستخدم الموظفون أدوات الذكاء الاصطناعي الظلي لزيادة إنتاجيتهم والتحايل على أوجه القصور التشغيلية. باستخدام تطبيقات الذكاء الاصطناعي التوليدي، يمكن للأفراد أتمتة المهام المتكررة وإنشاء المحتوى بسرعة وتبسيط العمليات التي كانت ستستغرق وقتاً أطول بكثير.
  • تسريع الابتكار: يمكن للذكاء الاصطناعي الظلي أن يعزز ثقافة الابتكار، مما يمكّن الفرق من تجربة أدوات ذكاء اصطناعي جديدة دون انتظار الموافقة الرسمية. يمكن أن تؤدي هذه المرونة إلى حلول مبتكرة وتحسين سير العمل، مما يمنح المؤسسات ميزة تنافسية في الأسواق سريعة التغير.
  • تبسيط الحلول: في كثير من الأحيان، يسمح الذكاء الاصطناعي الظلي للفرق بالتعامل مع التحديات في الوقت الفعلي. يمكن للموظفين العثور على حلول مخصصة بسرعة باستخدام أدوات الذكاء الاصطناعي المتاحة، بدلًا من الاعتماد على الأساليب التقليدية الأبطأ. يمكن أن تعزز هذه الاستجابة خدمة العملاء وتحسّن الكفاءة التشغيلية.
تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر رؤى وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

أمثلة على الذكاء الاصطناعي الظلي

يتجلى الذكاء الاصطناعي الظلي بطرق مختلفة في مختلف المؤسسات، وغالباً ما يكون مدفوعاً بالحاجة إلى الكفاءة والابتكار. تشمل الأمثلة الشائعة للذكاء الاصطناعي الظلي روبوتات المحادثة المدعومة بالذكاء الاصطناعي، ونماذج التعلم الآلي لتحليل البيانات، وأدوات الأتمتة للتسويق، وأدوات العرض المصور للبيانات.

روبوتات المحادثة المدعومة بالذكاء الاصطناعي

في خدمة العملاء، قد تلجأ الفرق إلى روبوتات المحادثة المدعومة بالذكاء الاصطناعي غير المصرح بها لتوليد إجابات للاستفسارات. على سبيل المثال، قد يحاول ممثل خدمة العملاء الإجابة على سؤال العميل عن طريق طرح سؤال على روبوت المحادثة بدلاً من النظر إلى المواد المعتمدة لشركته. يمكن أن يؤدي ذلك إلى رسائل غير متسقة أو خاطئة وسوء التواصل المحتمل مع العملاء ومخاطر أمنية إذا كان سؤال الممثل يحتوي على بيانات الشركة الحساسة.

نماذج التعلم الآلي لتحليل البيانات

قد يستخدم الموظفون نماذج التعلم الآلي الخارجية لتحليل بيانات الشركة والعثور على الأنماط. على الرغم من أن هذه الأدوات يمكن أن تقدم رؤى قيّمة، إلا أن الاستخدام غير المصرح به لخدمات الذكاء الاصطناعي يمكن أن يؤدي إلى خلق ثغرات أمنية. على سبيل المثال، قد يستخدم أحد المحللين نموذج سلوك تنبؤي لفهم سلوك العميل بشكل أفضل من مجموعة بيانات مملوكة له، مما يكشف معلومات حساسة دون علم منه في هذه العملية.

أدوات أتمتة التسويق

قد تسعى فرق التسويق إلى تحسين الحملات باستخدام أدوات الذكاء الاصطناعي الظلي، والتي يمكنها أتمتة جهود التسويق عبر البريد الإلكتروني أو تحليل بيانات المشاركة في وسائل التواصل الاجتماعي. يمكن أن يؤدي استخدام هذه الأدوات إلى تحسين نتائج التسويق. ومع ذلك، فإن غياب الحوكمة قد يؤدي إلى عدم الامتثال لمعايير حماية البيانات، وخاصة إذا تم التعامل مع بيانات العملاء بشكل خاطئ.

أدوات العرض المصور للبيانات

تستخدم العديد من المؤسسات أدوات العرض المصور للبيانات المدعومة بالذكاء الاصطناعي لإنشاء خرائط حرارية ومخططات خطية ومخططات شريطية وغير ذلك بسرعة. يمكن أن تساعد هذه الأدوات في تعزيز ذكاء الأعمال من خلال عرض علاقات البيانات المعقدة والرؤى بطريقة يسهل فهمها. ومع ذلك، فإن إدخال بيانات الشركة دون موافقة تكنولوجيا المعلومات يمكن أن يؤدي إلى عدم الدقة في إعداد التقارير ومشكلات محتملة في أمن البيانات.

كيفية إدارة مخاطر الذكاء الاصطناعي الظلي

ولإدارة مخاطر الذكاء الاصطناعي الظلي، قد تفكر المؤسسات في عدة طرق تشجع الاستخدام المسؤول للذكاء الاصطناعي مع إدراك الحاجة إلى المرونة والابتكار:

التأكيد على التعاون

يمكن للحوار المفتوح بين إدارات تكنولوجيا المعلومات وفرق الأمن ووحدات الأعمال أن يسهل فهم قدرات الذكاء الاصطناعي وقيوده بشكل أفضل. يمكن لثقافة التعاون مساعدة للمؤسسات على تحديد أدوات الذكاء الاصطناعي المفيدة مع المساعدة أيضًا في ضمان الامتثال لبروتوكولات حماية البيانات.

تطوير إطار عمل مرن

يمكن لأطر عمل الحوكمة استيعاب الطبيعة السريعة لتبني الذكاء الاصطناعي مع الحفاظ على التدابير الأمنية. يمكن أن تتضمن أطر العمل هذه إرشادات واضحة حول أنواع أنظمة الذكاء الاصطناعي التي يمكن استخدامها، وكيفية التعامل مع المعلومات الحساسة، والتدريب الذي يحتاجه الموظفون فيما يتعلق بأخلاقيات الذكاء الاصطناعي والامتثال لها.

تنفيذ سبل الحماية

يمكن أن توفر سبل الحماية المتعلقة باستخدام الذكاء الاصطناعي شبكة أمان، ما يساعد على ضمان استخدام الموظفين للأدوات المعتمدة فقط ضمن معلمات محددة. يمكن أن تتضمن سبل الحماية سياسات تتعلق باستخدام الذكاء الاصطناعي الخارجي أو بيئات آلية تحديد الوصول لاختبار تطبيقات الذكاء الاصطناعي أو جدارن الحماية لحظر المنصات الخارجية غير المصرح بها.

مراقبة استخدام الذكاء الاصطناعي

قد لا يكون من الممكن القضاء على جميع حالات الذكاء الاصطناعي الظلي. لذلك، يمكن للمؤسسات تطبيق أدوات مراقبة الشبكة لتتبع استخدام التطبيقات وإنشاء ضوابط وصول للحد من البرامج غير المعتمدة. يمكن أن تساعد عمليات التدقيق المنتظمة والمراقبة النشطة لقنوات الاتصال أيضًا في تحديد ما إذا كان يتم استخدام التطبيقات غير المصرح بها وكيفية استخدامها.

إعادة التأكيد على المخاطر

يتطور مشهد الذكاء الاصطناعي الظلي باستمرار، مما يمثل تحديات جديدة للمؤسسات. يمكن للشركات إنشاء اتصالات منتظمة، مثل الرسائل الإخبارية أو التحديثات ربع السنوية، لإعلام الموظفين عن الذكاء الاصطناعي الظلي والمخاطر المرتبطة به.

من خلال تعزيز الوعي بالآثار المترتبة على استخدام أدوات الذكاء الاصطناعي غير المصرح بها، يمكن للمؤسسات تعزيز ثقافة الذكاء الاصطناعي المسؤول. قد يشجع هذا الفهم الموظفين على البحث عن بدائل معتمدة أو التشاور مع تكنولوجيا المعلومات قبل نشر تطبيقات جديدة.

حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا