30 سبتمبر 2024
إنها واحدة من الحقائق الصعبة للابتكار: مع تقدم التقنية، تزداد مخاطر استخدامها.
على سبيل المثال، الأدوات التي تعزز جمع البيانات وتحليلها تزيد أيضًا من احتمالية ظهور البيانات الشخصية والمعلومات الحساسة في غير مكانها الصحيح.
هذا الخطر المحدد، وهو خطر الخصوصية، منتشر بشكل خاص في عصر الذكاء الاصطناعي (AI)، حيث يتم جمع المعلومات الحساسة واستخدامها لإنشاء وتدقيق أنظمة الذكاء الاصطناعي والتعلم الآلي. وبينما يسارع صانعو السياسات إلى معالجة المشكلة من خلال لوائح الخصوصية المتعلقة باستخدام الذكاء الاصطناعي، فإنها تخلق تحديات امتثال جديدة للشركات التي تستخدم تقنيات الذكاء الاصطناعي في اتخاذ القرارات.
على الرغم من المخاوف المتعلقة بالخصوصية والامتثال، تواصل الشركات نشر نماذج الذكاء الاصطناعي لتعزيز الإنتاجية وتحقيق القيمة. دعونا نلقي نظرة فاحصة على مخاطر الخصوصية المرتبطة بالذكاء الاصطناعي والضمانات التي تؤثر على المجتمع والتجارة اليوم.
خصوصية الذكاء الاصطناعي هي ممارسة لحماية المعلومات الشخصية أو الحساسة التي يتم جمعها أو استخدامها أو مشاركتها أو تخزينها بواسطة الذكاء الاصطناعي.
ترتبط خصوصية الذكاء الاصطناعي ارتباطًا وثيقًا بخصوصية البيانات. خصوصية البيانات، والمعروفة أيضًا باسم خصوصية المعلومات، هي المبدأ الذي ينص على أن الشخص يجب أن يكون لديه سيطرة على بياناته الشخصية. يتضمن عنصر التحكم هذا القدرة على تحديد كيفية جمع المؤسسات لبياناتها وتخزينها واستخدامها. ولكن مفهوم خصوصية البيانات يسبق الذكاء الاصطناعي، وقد تطورت طريقة تفكير الأشخاص في خصوصية البيانات مع ظهور الذكاء الاصطناعي.
"قبل عشر سنوات، فكر معظم الأشخاص في خصوصية البيانات من ناحية التسوق عبر الإنترنت. "ظنوا، 'لا أعرف ما إذا كنت أهتم بمعرفة هذه الشركات بما أشتريه وما أبحث عنه، لأنه في بعض الأحيان يكون ذلك مفيدًا،'" كما أوضحت Jennifer King، زميلة معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان، في مقابلة نشرت على موقع المعهد على الإنترنت.1
قالت King: "ولكننا رأينا الآن تحول الشركات إلى جمع البيانات في كل مكان لتدريب أنظمة الذكاء الاصطناعي"، وأضافت: "يمكن أن يكون لذلك تأثير كبير على المجتمع، وخاصةً حقوقنا المدنية."
يمكننا في كثير من الأحيان إرجاع مخاوف الخصوصية المتعلقة بالذكاء الاصطناعي إلى مشكلات تتعلق بجمع البيانات والأمن السيبراني وتصميم النماذج والحوكمة. تتضمن مخاطر خصوصية الذكاء الاصطناعي ما يلي:
يمكن القول إن أحد الأسباب التي تجعل الذكاء الاصطناعي يشكل خطرًا أكبر على خصوصية البيانات مقارنةً بالتطورات التكنولوجية السابقة هو الحجم الهائل للمعلومات التي يتم تشغيلها. يتم تضمين تيرابايت أو بيتابايت من النصوص أو الصور أو الفيديو بشكل روتيني كبيانات تدريب، وحتمًا تكون بعض هذه البيانات حساسة: معلومات الرعاية الصحية، والبيانات الشخصية من مواقع التواصل الاجتماعي، وبيانات التمويل الشخصي، والبيانات البيومترية المستخدمة للتعرف على الوجه والمزيد. مع زيادة عدد البيانات الحساسة التي يتم جمعها وتخزينها ونقلها أكثر من أي وقت مضى، تزداد احتمالات أن يتم كشف أو نشر بعض منها على الأقل بطرق تنتهك حقوق الخصوصية.
قد ينشأ الجدل عندما يتم الحصول على البيانات لتطوير الذكاء الاصطناعي دون موافقة صريحة أو معرفة الأشخاص الذين يتم جمعها منهم. في حالة المواقع الإلكترونية والمنصات، يتوقع المستخدمون بشكل متزايد مزيدًا من الاستقلالية في التعامل مع بياناتهم الخاصة ومزيدًا من الشفافية فيما يتعلق بجمع البيانات. وقد برزت مثل هذه التوقعات في الآونة الأخيرة، حيث واجه موقع LinkedIn للتواصل المهني رد فعل عنيف بعد أن لاحظ بعض المستخدمين أنهم تم اختيارهم تلقائيًا للسماح لبياناتهم بتدريب نماذج الذكاء الاصطناعي التوليدي.2
حتى عندما يتم جمع البيانات بموافقة الأفراد، تلوح مخاطر الخصوصية في الأفق إذا تم استخدام البيانات لأغراض تتجاوز تلك التي تم الكشف عنها في البداية. قالت King: "نحن نرى بيانات مثل السيرة الذاتية أو صورة فوتوغرافية شاركناها أو نشرناها لغرض واحد يُعاد استخدامها لتدريب أنظمة الذكاء الاصطناعي، وغالباً ما يتم ذلك دون علمنا أو موافقتنا". في كاليفورنيا، على سبيل المثال، ورد أن مريضة سابقة خضعت لعملية جراحية اكتشفت أن الصور المتعلقة بعلاجها الطبي قد استُخدمت في مجموعة بيانات تدريب الذكاء الاصطناعي. ادعت المريضة أنها وقعت على استمارة موافقة لطبيبها لالتقاط الصور، ولكن ليس لإدراجها في مجموعة البيانات.3
ظهرت مخاوف الخصوصية المتعلقة بالمراقبة الواسعة النطاق وغير الخاضعة للرقابة—سواء من خلال الكاميرات الأمنية في الشوارع العامة أو تتبع ملفات تعريف الارتباط على أجهزة الكمبيوتر الشخصية—قبل انتشار الذكاء الاصطناعي. لكن الذكاء الاصطناعي يمكن أن يؤدي إلى تفاقم مخاوف الخصوصية هذه لأن نماذج الذكاء الاصطناعي تُستخدم لتحليل بيانات المراقبة. في بعض الأحيان، يمكن أن تكون نتائج هذا التحليل ضارة، خاصةً عندما تُظهر تحيزًا. في مجال إنفاذ القانون، على سبيل المثال، تم ربط عدد من الاعتقالات الخاطئة لأشخاص ملونين بالقرارات المدعومة بالذكاء الاصطناعي.4
تحتوي نماذج الذكاء الاصطناعي على مجموعة كبيرة من البيانات الحساسة التي قد تكون غير قابلة للمقاومة بالنسبة للمهاجمين. "تنتهي هذه [البيانات] بنقطة تحول كبيرة سيحاول شخص ما ضربها"، كما أوضح Jeff Crume، مهندس ®IBM Security المتميز في شركة IBM، في مقطع فيديو حديث عن تقنية IBM (يوجد الرابط خارج موقع ibm.com). يمكن للجهات الفاعلة السيئة إجراء مثل النقل غير المصرح للبيانات (سرقة البيانات) من تطبيقات الذكاء الاصطناعي من خلال استراتيجيات مختلفة. على سبيل المثال، في هجمات الحقن الفوري، يقوم المتسللون بإخفاء المدخلات الضارة على أنها مطالبات شرعية، مما يؤدي إلى التلاعب بأنظمة الذكاء الاصطناعي التوليدي للكشف عن البيانات الحساسة. مثلًا، قد يُخدع المتسلل المساعد الافتراضي المدعوم بنموذج لغوي كبير بإعطائه الأمر المناسب ليتقدم بطلب تحويل وثائق خاصة.
تسرب البيانات هو الكشف العرضي لبيانات حساسة، وقد ثبت أن بعض نماذج الذكاء الاصطناعي معرضة لاختراق أمن البيانات. في أحد الحالات التي تصدرت العناوين الرئيسية، أظهر ChatGPT، نموذج لغوي كبير (LLM) من OpenAI، لبعض المستخدمين عناوين سجلات محادثات المستخدمين الآخرين.5 كما توجد مخاطر على نماذج الذكاء الاصطناعي الصغيرة والمملوكة. على سبيل المثال، ضع في اعتبارك شركة رعاية صحية تقوم ببناء تطبيق تشخيصي داخلي مدعوم بالذكاء الاصطناعي بناءً على بيانات عملائها. قد يقوم هذا التطبيق بتسريب المعلومات الخاصة للعملاء عن غير قصد إلى عملاء آخرين يستخدمون موجِّه معين. حتى مثل هذه المشاركة غير المقصودة للبيانات يمكن أن تؤدي إلى انتهاكات خطيرة للخصوصية.
تعود الجهود التي يبذلها صانعو السياسات لمنع التقدم التكنولوجي من المساس بخصوصية الأفراد إلى سبعينيات القرن العشرين على الأقل. ومع ذلك، أدى النمو السريع في جمع البيانات التجارية ونشر الذكاء الاصطناعي إلى ظهور حاجة ملحة جديدة لسن قوانين خصوصية البيانات. تشمل هذه القوانين:
تحدد GDPR العديد من المبادئ التي يجب على مراقبي البيانات والمعالجين اتباعها عند التعامل مع البيانات الشخصية. بموجب مبدأ تقييد الغرض، يجب أن يكون لدى الشركات غرض محدد وقانوني لأي بيانات تجمعها. ويجب عليهم نقل هذا الغرض إلى المستخدمين وجمع الحد الأدنى من البيانات المطلوبة لهذا الغرض فقط.
يجب على الشركات أيضًا استخدام البيانات بشكل عادل. ويجب عليهم إبقاء المستخدمين على اطلاع بشأن معالجة البيانات الشخصية واتباع قواعد حماية البيانات. بموجب مبدأ تقييد التخزين، يجب على الشركة الاحتفاظ بالبيانات الشخصية فقط حتى تحقيق الغرض منها. يجب حذف البيانات بمجرد عدم الحاجة إليها.
ويعتبر قانون الاتحاد الأوروبي للذكاء الاصطناعي أول إطار عمل شامل في العالم للذكاء الاصطناعي، حيث يحظر بعض استخدامات الذكاء الاصطناعي بشكل صريح وينفذ متطلبات صارمة للحوكمة وإدارة المخاطر والشفافية بالنسبة لاستخدامات أخرى.
على الرغم من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي لا يتضمن ممارسات منفصلة محظورة على وجه التحديد بشأن خصوصية الذكاء الاصطناعي، إلا أن القانون يفرض قيودًا على استخدام البيانات. تشمل ممارسات الذكاء الاصطناعي المحظورة ما يلي:
يجب أن تلتزم أنظمة الذكاء الاصطناعي عالية المخاطر بمتطلبات محددة، مثل اعتماد ممارسات صارمة لإدارة البيانات للضمان أن بيانات التدريب والتحقق والاختبار تفي بمعايير الجودة المحددة.
دخلت القوانين المتعلقة بخصوصية البيانات حيز التنفيذ في العديد من الاختصاصات القضائية الأمريكية في السنوات الأخيرة. وتشمل الأمثلة قانون خصوصية المستهلك في كاليفورنيا وقانون خصوصية البيانات والأمن في تكساس. في مارس 2024، سنّت ولاية يوتا قانون الذكاء الاصطناعي والسياسات، والذي يعتبر أول قانون رئيسي للولاية يحكم استخدام الذكاء الاصطناعي على وجه التحديد.
على المستوى الفيدرالي، لم تنفذ حكومة الولايات المتحدة بعد قوانين جديدة للذكاء الاصطناعي وخصوصية البيانات على مستوى البلاد. ومع ذلك، في عام 2022، أصدر مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) "المخطط لوثيقة حقوق الذكاء الاصطناعي". يحدد إطار العمل غير الملزم خمسة مبادئ لتوجيه تطوير الذكاء الاصطناعي، بما في ذلك قسم مخصص لخصوصية البيانات يشجع المتخصصين في مجال الذكاء الاصطناعي على طلب موافقة الأفراد على استخدام البيانات.
تعد الصين من أوائل الدول التي سنت لوائح الذكاء الاصطناعي. في عام 2023، أصدرت الصين إجراءاتها المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي. بموجب القانون، يجب أن يؤدي توفير واستخدام خدمات الذكاء الاصطناعي التوليدي إلى "احترام الحقوق والمصالح المشروعة للآخرين" ويجب عليه "عدم تعريض الصحة الجسدية والعقلية للآخرين للخطر، وعدم انتهاك حقوق الآخرين في الصورة وحقوق السمعة وحقوق الشرف وحقوق الخصوصية وحقوق المعلومات الشخصية."6
يمكن للمؤسسات أن تبتكر مناهج للخصوصية بالذكاء الاصطناعي للمساعدة في الامتثال للوائح التنظيمية وبناء الثقة مع الأطراف المعنية.7 تشمل التوصيات الصادرة عن مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) ما يلي:
يجب تقييم مخاطر الخصوصية ومعالجتها طوال دورة حياة تطوير نظام الذكاء الاصطناعي. قد تشمل هذه المخاطر احتمال إلحاق الضرر بأولئك الذين ليسوا من مستخدمي النظام ولكن قد يتم الاستدلال على معلوماتهم الشخصية من خلال تحليل البيانات المتقدم.
يجب على المؤسسات أن تقصر جمع بيانات التدريب على ما يمكن جمعه بشكل قانوني واستخدامه "بما يتوافق مع توقعات الأشخاص الذين يتم جمع بياناتهم". بالإضافة إلى تقليل البيانات إلى الحد الأدنى، يجب على الشركات أيضًا وضع جداول زمنية للاحتفاظ بالبيانات، بهدف حذف البيانات في أقرب وقت ممكن.
يجب على المؤسسات تزويد الجمهور بآليات "الموافقة والوصول والتحكم" على بياناتهم. يجب الحصول على الموافقة من جديد إذا تغيرت حالة الاستخدام التي دفعت إلى جمع البيانات.
يجب على المؤسسات التي تستخدم الذكاء الاصطناعي اتباع أفضل الممارسات لتجنب تسرب البيانات والبيانات الوصفية. قد تشمل هذه الممارسات استخدام آليات التشفير وإخفاء الهوية والتحكم في الوصول.
يجب أن تخضع البيانات من نطاقات معينة لحماية إضافية وأن تستخدم فقط في «سياقات محددة بدقة». وتشمل هذه «المجالات الحساسة» الصحة والتوظيف والتعليم والعدالة الجنائية والتمويل الشخصي. تعتبر البيانات التي تم إنشاؤها بواسطة الأطفال أو عنهم حساسة أيضًا، حتى إذا كانت لا تندرج ضمن أحد المجالات المدرجة.
يجب على المؤسسات الاستجابة لطلبات الأفراد لمعرفة أي من بياناتهم يتم استخدامها في الذكاء الاصطناعي. يجب على المؤسسات أيضًا تقديم تقارير موجزة عامة للجمهور بشكل استباقي حول كيفية استخدام بيانات الأشخاص والوصول إليها وتخزينها. فيما يتعلق ببيانات المجالات الحساسة، يجب على المؤسسات أيضًا الإبلاغ عن الثغرات الأمنية أو الانتهاكات التي تسببت في تسرب البيانات.
يمكن أن تساعد أدوات وبرامج إدارة البيانات الشركات على اتباع توصيات مكتب البيت الأبيض لسياسات العلوم والتقنية (OSTP) وأفضل ممارسات خصوصية الذكاء الاصطناعي الأخرى. يمكن للشركات نشر أدوات برمجية من أجل:
مع تطور قوانين الذكاء الاصطناعي وخصوصية البيانات، يمكن للحلول التقنية الناشئة أن تمكّن الشركات من مواكبة التغييرات التنظيمية والاستعداد إذا طلبت الجهات التنظيمية إجراء عمليات تدقيق. تقوم الحلول متطورة بأتمتة تحديد التغييرات التنظيمية وتحويلها إلى سياسات قابلة للتنفيذ.
(جميع هذه الروابط تفتح في صفحات خارج موقع ibm.com.)
1 "الخصوصية في عصر الذكاء الاصطناعي: كيف نحمي معلوماتنا الشخصية؟" معهد جامعة ستانفورد للذكاء الاصطناعي الموجه للإنسان. 18 مارس 2024.
2 "LinkedIn يدرب الذكاء الاصطناعي على بياناتك من دون علمك - إليك كيفية إيقافه" PCMag. 18 سبتمبر 2024.
3 "فنان يعثر على صور سجلات طبية خاصة في مجموعة بيانات تدريب ذكاء اصطناعي شهير". Ars Technica. 21 سبتمبر 2022.
4 "عندما يخطئ الذكاء الاصطناعي". Innocence Project. 19 سبتمبر 2023.
5 "الرئيس التنفيذي لشركة OpenAI يعترف بوجود خطأ سمح لبعض مستخدمي ChatGPT برؤية عناوين محادثات الآخرين". CNBC. 17 إبريل 2023.
6 التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي، إدارة الفضاء الإلكتروني في الصين. 13 يوليو2023.
7 "مخطط لوثيقة حقوق خصوصية الذكاء الاصطناعي". مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا. تم الوصول إليه في 19 سبتمبر 2024.