دليل خصوصية البيانات للذكاء الاصطناعي والتعلم الآلي

شخص يقوم بتأمين بيانات رقمية على جهاز لوحي مع أيقونة قفل وعلامة صح.

بينما كانت خصوصية البيانات بشكل عام مصدر قلق منذ زمن طويل، فإن مصطلح "خصوصية البيانات في الذكاء الاصطناعي" يعترف بأن التقنية الناشئة للذكاء الاصطناعي تجلب معها مخاطر ومخاوف جديدة تتعلق بالخصوصية.  

أثناء التدريب، تتعلم أنظمة الذكاء الاصطناعي من مجموعات بيانات ضخمة. تحتوي مجموعة بيانات Common Crawl، التي تتدرب عليها العديد من النماذج، على أكثر من 9.5 بيتابايت من البيانات.1 العديد من الأشخاص الذين يستخدمون الذكاء الاصطناعي يومياً قد يزودون الأنظمة ببيانات حساسة، دون إدراك تام بأنهم يساهمون في تآكل خصوصيتهم الفردية. مع توسع انتشار الذكاء الاصطناعي وانتقاله إلى عصر وكلاء الذكاء الاصطناعي، تبرز أنواع جديدة من اختراقات الخصوصية التي قد تحدث في غياب أدوات التحكم المناسبة في الوصول أو حوكمة الذكاء الاصطناعي.

مشهد مخاطر متحول

لا تقوم نماذج الذكاء الاصطناعي بمعالجة المزيد من البيانات فحسب؛ بل تتعامل أيضًا مع البيانات بشكل مختلف عن الأنظمة القديمة. إذا قام أحد البرامج التقليدية بالكشف عن معلومات حساسة عن طريق الخطأ، فيمكن للمهندس الدخول وتصحيح الكود. لكن نماذج الذكاء الاصطناعي (بما في ذلك النماذج اللغوية الكبيرة مثل ChatGPT) لا يتم برمجتها بقدر ما يتم جعلها تتطور عبر عملية تسمى التعلم الآلي. حتى مبتكروها لا يعرفون بالضبط كيف تعمل، مما يجعل "تصحيح الأخطاء" مهمة غير هينة، إن لم تكن مستحيلة.

تُعد المخرجات غير المقصودة أحد جوانب القلق، ولكن يتعين على المؤسسات أيضاً الحذر من الهجمات المتعمدة والخبيثة. لقد أثبت الباحثون أن أدوات الذكاء الاصطناعي تحتوي على أنواع جديدة من الثغرات الأمنية التي يمكن للمخترقين الأذكياء استغلالها، وهو مجال يُعرف باسم التعلم الآلي العدائي. 

في السنوات الأخيرة، على سبيل المثال، أثبت خبراء الأمن السيبراني أنه من خلال استغلال إحدى سمات نماذج الذكاء الاصطناعي — وهي منح مخرجاتها درجات ثقة أعلى عند الاستجابة للبيانات التي تدربت عليها — يمكن لجهة خبيثة استنتاج ما إذا كانت بيانات معينة ضمن مجموعة التدريب. في بعض السيناريوهات، سيكون مثل هذا الاستنتاج بمثابة اختراق كبير للخصوصية. على سبيل المثال، لنأخذ بعين الاعتبار نموذجاً للذكاء الاصطناعي يُعرف بأنه تدرّب على سجلات رعاية صحية خاصة لمرضى مصابين بفيروس نقص المناعة البشرية (HIV).

في حالة أخرى معروفة، ذهب الباحثون إلى أبعد من مجرد استنتاج ما إذا كانت البيانات موجودة في مجموعة تدريب. لقد أنشأوا هجومًا خوارزميًا يمكنه إجراء هندسة عكسية للبيانات الفعلية التي تم استخدامها لتدريب النموذج بشكل فعال. من خلال استغلال جانب من نماذج الذكاء الاصطناعي يعرف باسم "التدرجات"، تمكن الباحثون من تحسين صورة مليئة بالضوضاء بشكل تكراري إلى صورة تقارب وجها حقيقيا تم استخدامه لتدريب نموذج التعرف على الوجوه.2

ما تزال المخاطر المحيطة بحماية البيانات مرتفعة؛ حيث خلص تقرير تكلفة اختراق البيانات لعام 2025 الصادر عن IBM إلى أن متوسط تكلفة هذه الاختراقات بلغ 4.4 مليون دولار أمريكي. (كما تترتب على مثل هذه الانتهاكات تكلفةٌ يصعب قياسها، تتمثل في تضرر ثقة الجمهور في العلامة التجارية.)

في حين أن الكثير من عمليات اختراق البيانات هذه لا علاقة لها بالذكاء الاصطناعي، إلا أن هناك عدداً متزايداً من الحالات التي يرتبط بها. أظهر تقرير مؤشر الذكاء الاصطناعي لعام 2025 الصادر عن جامعة ستانفورد أن عدد حوادث خصوصية وأمن الذكاء الاصطناعي قفز بنسبة 56.4% في عام واحد، مع تسجيل 233 حالة مبلّغ عنها في عام 2024.3

أحدث اتجاهات الذكاء الاصطناعي، يقدمها لك الخبراء

احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! لقد اشتركت بنجاح.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

بيئة تنظيمية متطورة

أكد صُنّاع السياسات على مستوى العالم أنه لا ينبغي بأي حال من الأحوال إعفاء تقنيات الذكاء الاصطناعي من مسؤولية الالتزام بحماية الخصوصية الأساسية. تُطبق لائحة الاتحاد الأوروبي العامة لحماية البيانات (GDPR)، التي طالما اعتبرت معياراً أساسياً للتعامل مع البيانات الشخصية (بغض النظر عن الولاية القضائية)، على استخدام الشركات لأنظمة الذكاء الاصطناعي. تتضمن مبادئ اللائحة العامة لحماية البيانات العامة تقليل البيانات إلى الحد الأدنى (جمع الحد الأدنى فقط من البيانات اللازمة لغرض ما)، والشفافية (إبلاغ المستخدمين بكيفية استخدام البيانات) والحد من التخزين (الاحتفاظ بالبيانات لفترة لا تزيد عن اللازم).

كان عام 2024 عاماً مفصلياً في هذا المجال، حيث بدأ العديد من المنظمين في إنفاذ قوانين الخصوصية في القضايا التي تنطوي على تطبيقات الذكاء الاصطناعي.

على سبيل المثال، في عام 2024، فرضت لجنة حماية البيانات الأيرلندية غرامة قدرها 310 ملايين يورو على شبكة التواصل الاجتماعي LinkedIn بسبب انتهاك للخصوصية متعلق بالذكاء الاصطناعي. تتبَّعت LinkedIn بعض سلوكيات المستخدمين الدقيقة، مثل مدة بقاء الشخص في منشور ما. ثم استخدم الموقع بعد ذلك الذكاء الاصطناعي لاستخلاص استنتاجات حول هؤلاء المستخدمين (مثل ما إذا كانوا يبحثون بنشاط عن وظائف جديدة، أو ما إذا كانوا معرضين لخطر الإرهاق المهني). تَمّ استخدام هذا التوصيف لاحقاً لتوجيه الإعلانات وتحديث بعض أنظمة التصنيف الداخلية في LinkedIn.

وخلصت اللجنة الأيرلندية في نهاية المطاف إلى أنه رغم مظهر إخفاء الهوية الظاهري، إلا أن هذه الاستنتاجات المستمدة من الذكاء الاصطناعي يمكن تتبعها في نهاية المطاف وصولاً إلى بيانات أفراد محددين، مما يشكل انتهاكاً لقوانين خصوصية البيانات. حكمت المحاكم بأن شركة LinkedIn لم تحترم مبدأ تحديد الغرض من اللائحة العامة لحماية البيانات (GDPR)، ولم تحصل على موافقة مستنيرة من المستخدمين، وبالتالي انتهكت خصوصية المستهلك. كما أجبر الحكم LinkedIn على تنفيذ آليات الموافقة في الوقت الفعلي ومراجعة الإعدادات الافتراضية لإعدادات تخصيص الإعلانات.4

كذلك في عام 2024، سلط إجراء لإنفاذ القانون ضد شركة Clearview AI المتخصصة في تقنية التعرف على الوجوه الضوء على مبدأ مفاده أن البيانات الحيوية (مثل صور الوجوه) تثير قضايا خصوصية إضافية، حتى لو كانت هذه البيانات متاحة للجمهور من الناحية التقنية (كما هو الحال في حسابات وسائل التواصل الاجتماعي غير المحمية).

قامت شركة Clearview بجمع 30 مليار صورة من مواقع مثل Facebook و Instagram، بحجة أن الشركة لا تحتاج إلى إذن المستخدمين، لأن الصور متاحة للجمهور عبر الإنترنت. ثم ساهمت عملية جمع البيانات الضخمة هذه في العمليات الخاصة بتطوير شركة Clearview لقاعدة بيانات للتعرف على الوجوه مستندة إلى الذكاء الاصطناعي.

انتقد مسؤولو إنفاذ القانون الهولنديون نهج Clearview. فرضت هيئة حماية البيانات الهولندية في النهاية غرامة قدرها 30.5 مليون يورو على الشركة، معتبرة أن الحقوق الفردية للمواطنين الهولنديين المدرجة في جمع بيانات Clearview قد انتُهكت.5

وأخيراً، شهد عام 2024 توسع الاتحاد الأوروبي في اللوائح التنظيمية الخاصة بالذكاء الاصطناعي من خلال قانون الذكاء الاصطناعي، الذي دخل حيز التنفيذ في أغسطس من ذلك العام. نطاق اختصاص القانون أوسع من مجرد البيانات المتعلقة بالذكاء الاصطناعي، حيث يمتد ليشمل مخاطر الذكاء الاصطناعي وتطويره على نطاق أوسع). ومع ذلك، فإن العديد من أحكامه تمس أمن البيانات، ومشاركة البيانات، وحوكمة البيانات. وعلى سبيل المثال لا الحصر: يحظر القانون أنظمة الهوية البيومترية التي تستخدم البيانات ونماذج الذكاء الاصطناعي لتحديد هوية الأفراد بناءً على سمات حساسة مثل العرق أو الدين أو التوجه الجنسي.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال.ومن المفهوم أيضًا أنه موضوع شائك.سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

مبادئ لتقليل مخاطر خصوصية بيانات الذكاء الاصطناعي

في هذا المشهد المتسارع، ومع وجود تعارض ظاهري بين الحاجة إلى تبني الابتكار والحاجة إلى القيام بذلك بمسؤولية، ما هي الخطوات التي قد تتخذها الشركات لتحقيق هذا التوازن؟ يمكن كتابة كتب كاملة حول هذا الموضوع، ولكن يمكن البدء ببعض المبادئ لتوجيه المؤسسة أثناء تطبيقها للذكاء الاصطناعي بمسؤولية.

إدارة دورة حياة بيانات الذكاء الاصطناعي بأكملها

تُعد النماذج التقليدية لأمن البيانات غير كافية عندما يتم استيعاب البيانات ومعالجتها وإنتاجها في مراحل متعددة من دورة حياة نموذج الذكاء الاصطناعي. على مشرفي البيانات، ومختصي الامتثال، وغيرهم من المعنيين الاهتمام بسلامة بيانات التدريب الخاصة بهم، ومن المثالي إجراء عمليات تدقيق لمخاطر الخصوصية. تدعي إحدى الشركات أنها عثرت على 12000 مفتاح وكلمة مرور لواجهة برمجة التطبيقات في مجموعة بيانات Common Crawl.6

وعندما يتعلق الأمر باستخدام البيانات الضخمة الناتجة عن نشاط الشركة، يمكن أن تكون معايير مثل اللائحة العامة لحماية البيانات (GDPR) واللوائح المتعلقة بالخصوصية أدلة مفيدة.

البقاء في الصدارة في سباق التسلح

إن الذكاء الاصطناعي مجال نشط للغاية، حيث تتدفق الأبحاث والاكتشافات الجديدة بشكل يومي تقريبًا. من المهم أن يبقى محترفو الأمن السيبراني على اطلاع بأحدث التطورات التكنولوجية، حتى يتمكنوا من إصلاح الثغرات قبل أن يستغلها عنصر التهديد.

يمكن للشركات استخدام تقنيات تعزيز الخصوصية مثل التعلم الموحد، والخصوصية التفاضلية والبيانات الاصطناعية. كالعادة، يمكنهم الإصرار على ضوابط وصول قوية لمنع الوصول غير المصرح به من قِبل البشر ووكلاء الذكاء الاصطناعي على حد سواء.

اتخاذ قرارات مع مراعاة الخصوصية

مع زيادة استخدام الشركات لتقنيات الذكاء الاصطناعي التوليدي وتقنيات الذكاء الاصطناعي الأخرى لأتمتة اتخاذ القرار، ينبغي على المديرين التنفيذيين النظر بمنظور الخصوصية إلى الممارسات المدعومة بالذكاء الاصطناعي، حيث قد يصبح مفهوم "البيانات" فيها غامضاً وغير واضح. يتجلى هذا المبدأ في الحكم الصادر ضد LinkedIn المذكور سابقًا؛ ففي ظروف معينة، قد يؤدي استخلاص الاستنتاجات بناءً على أنماط البيانات إلى مخالفة اللائحة العامة لحماية البيانات (GDPR) واللوائح ذات الصلة، حتى وإن بدا عليها مظهر من مظاهر إخفاء الهوية.

"بينما تزداد قدرة الذكاء الاصطناعي على اكتشاف الأنماط، فقد يقوض ذلك المفاهيم الراسخة حول ما يشكل بيانات "مجهولة المصدر". أظهرت دراسة نُشرت في مجلة Nature عام 2019 أنه باستخدام النموذج التوليدي الصحيح، "يمكن إعادة تحديد هوية 99.98% من الأمريكيين بشكل صحيح في أي مجموعة بيانات باستخدام 15 سمة ديموغرافية". تشير هذه النتيجة إلى أن مفهوم ما يشكل البيانات الشخصية يشهد تحولًا.7

مؤلف

David Zax

Staff Writer

IBM Think

حلول ذات صلة
™IBM® watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول حوكمة الذكاء الاصطناعي

اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

اكتشف خدمات إدارة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

1. "تقرير Mozilla: كيف شكلت البنية التحتية لبيانات Common Crawl المعركة الكبرى حول الذكاء الاصطناعي التوليدي،" Mozilla، بتاريخ 6 فبراير 2024

2. "هجمات عكس النموذج التي تستغل معلومات الثقة والتدابير المضادة الأساسية،" CCS’15، أكتوبر 2015

3. "تقرير مؤشر الذكاء الاصطناعي لعام 2025،" معهد Stanford HAI (Human-Centered Artificial Intelligence، أبريل 2025

4. "الغرامات المفروضة على انتهاكات اللائحة العامة لحماية البيانات (GDPR) في أنظمة الذكاء الاصطناعي وكيفية تجنبها،" مكتب خصوصية البيانات في الاتحاد الأوروبي، 16 أكتوبر 2025

5. "هيئة حماية البيانات الهولندية تفرض غرامة على شركة Clearview بسبب الجمع غير القانوني للبيانات لغرض التعرف على الوجه،" Autoriteit Persoonsgegevens، بتاريخ 3 سبتمبر 2024

6. "بحث يكشف عن 12000 من مفاتيح واجهة برمجة التطبيقات (API) وكلمات المرور 'النشطة' في بيانات تدريب DeepSeek"، Truffle Security، بتاريخ 27 فبراير 2025

7. “تقدير نجاح إعادة تحديد الهوية في مجموعات البيانات غير المكتملة باستخدام النماذج التوليدية،” Nature Communications، بتاريخ 23 يوليو 2019