طورت أداة جديدة للقبض على الطلاب الذين يغشون باستخدام ChatGPT. فإنها فعالة بنسبة 99.9%. ولكن OpenAI لم تصدره بعد لأنه ما زال محاطًا بمخاوف أخلاقية.
هذا مجرد مثال واحد على أحد التحديات الرئيسية التي تواجه الذكاء الاصطناعي. كيف يمكننا مراقبة التقنية للتأكد من استخدامها بشكل أخلاقي؟
على مدى السنوات القليلة الماضية، ضغطت أكبر الأسماء في مجال الذكاء الاصطناعي من أجل استخدام تقنياتها بشكل مسؤول. كما أن استخدام الذكاء الاصطناعي بشكل أخلاقي ليس فقط الشيء الصحيح الذي يجب على الشركات القيام به—بل هو أيضًا شيء يريده المستهلكون. في الواقع، يعتقد 86% من الشركات أن العملاء يفضلون التعامل مع شركات تتبع مبادئ أخلاقية وتكون واضحة بشأن كيفية استخدام بياناتهم ونماذج الذكاء الاصطناعي، وفقًا لـ مؤشر اعتماد الذكاء الاصطناعي العالمي من IBM.
تقول Phaedra Boinodiris، المسؤولة العالمية للذكاء الاصطناعي الجدير بالثقة في IBM: "لقد تجاوزنا جميعًا مرحلة الأمل في أن الشركات مدركة [لاستخدام الذكاء الاصطناعي بشكل أخلاقي]. السؤال الأكبر هو، لماذا من المهم أن تُحاسب الشركات والمؤسسات الأخرى على تحقيق نتائج آمنة ومسؤولة من الذكاء الاصطناعي الذي تنشره؟"
هل يمكن أن تساعد أدوات أخلاقيات الذكاء الاصطناعي؟ هل الأدوات نفسها متحيزة؟ إليك نظرة سريعة على أحدث الأبحاث.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
ارتفعت محاولات الاحتيال باستخدام التزييف العميق بنسبة 3000% من 2022 إلى 2023، حيث تصبح أكثر تعقيدًا وتطورًا. في فبراير، تم خداع موظف مالي في شركة متعددة الجنسيات في هونغ كونغ ليقوم بصرف 25 مليون دولار أمريكي لمجرمين أنشؤوا مكالمة فيديو تحتوي على عدة شخصيات مزيفة بتقنية التزييف العميق، بما في ذلك المدير المالي للشركة.
في مايو، أعلنت OpenAI أنها أطلقت أداة كشف التزييف العميق الخاصة بها للباحثين في مجال المعلومات المضللة. وتمكنت الأداة من اكتشاف 98.8% من الصور التي أنشأها DALL-E 3. كما انضم OpenAI إلى Google وAdobe وشركات أخرى في اللجنة التوجيهية للتحالف من أجل أصل المحتوى ومصداقيته (C2PA)، وهو تحالف صناعي يعمل على تطوير معيار لتوثيق تاريخ المحتوى الإعلامي ومصدره.
حتى يتم وضع هذا المعيار، تنشأ الشركات أدوات تأمل أن تتمكن من سد الفجوة. وفي أغسطس، أعلنت McAfee عن جهاز McAfee Deepfake Detector. تستخدم الأداة نماذج الشبكات العصبية العميقة لاكتشاف صوت الذكاء الاصطناعي المزيف في الفيديوهات التي تعرض في متصفحك. في عام 2022، قدمت شركة Intel تقنية FakeCatcher، التي تحلل تدفق الدم في بكسلات الفيديو، لتمييز البشر عن التزييف العميق بدقة تصل إلى 96%. وهم ليسوا وحيدين في ذلك. تشمل الشركات الناشئة البارزة في هذا المجال شركة Reality Defender في نيويورك، والشركة الإسرائيلية Clarity، وشركة Sentinel في إستونيا، حيث توفر جميعها أدوات فحص تستخدم الذكاء الاصطناعي لاكتشاف أنماط التزييف العميق بأنواعه المختلفة.
نظرًا إلى تطور تقنية الكشف عن التزييف العميق بهذه السرعة، أصبح من المهم مراعاة التحيزات الخوارزمية المحتملة. طور عالم الحاسوب وخبير التزييف العميق Siwei Lyu وفريقه في جامعة بوفالو ما يعتقدون أنه أول خوارزميات كشف التزييف العميق المُصممة لتقليل التحيز. وعمل باحثو جامعة بوفالو صورة مركبة لمئات الوجوه التي تم تحديدها كزائفة باستخدام خوارزمياتهم؛ وأظهرت النتائج وجود ميل عام للون بشرة أغمق.
يقول ليو: "قد يُستخدم التزييف العميق للهجوم على الجماعات الأقل تمثيلاً، لذا من المهم التأكد من أن تقنيات الكشف لن تقلل من خدمتهم أو تتجاهلهم." أما بالنسبة إلى مستقبل الكشف عن التزييف العميق؟ "ستستمر تقنيات الذكاء الاصطناعي التوليدي الكامنة وراء التزييف العميق بلا شك في التطور، ومن ثَمَّ سنشهد تزايدًا في عدد استخدام تقنيات التزييف العميقة وجودتها وتنوع أشكالها. وأتوقع أن تزود تقنيات [الكشف] المستقبلية بمزيد من الحواجز لتقليل فرص سوء الاستخدام."
أصبحت أنظمة التعرف على الوجه شائعة بشكل متزايد كوسيلة مريحة للتحقق من هوية المستخدم، إلا أن هذه الأنظمة لطالما كانت مليئة بالمشكلات الأخلاقية، بدءًا من التحيز العرقي ووصولًا إلى خصوصية البيانات. توضح Helen Edwards، المؤسسة المشاركة لمؤسسة فكرية لأخلاقيات الذكاء الاصطناعي تُدعى Artificiality، أن "بعض التحيزات [أيضًا] متقاطعة، ما يضاعف طبقات متعددة من التحيز".
في مايو، تم اختراق بيانات شركة Outabox الأسترالية للتعرف على الوجه، ما أدى إلى تسريب البيانات البيومترية لأكثر من مليون مستخدم. وفي وقت سابق من هذا العام، تم رصد برنامج خبيث يُدعى «GoldPickAxe»، يستهدف أجهزة Android وiOS، ويسجل بيانات الوجه لاختراق الحسابات المصرفية.
يُعد أحد الأساليب الواعدة لحماية البيانات البيومترية للوجه هو تشويشها بطريقة غير ملحوظة للعين البشرية، ولكنها تربك أنظمة التعرّف على الوجه. وكانت أداة Fawkes من أوائل الأدوات التي طبّقت هذا الأسلوب، وهي مشروع تم تطويره في جامعة شيكاغو. سُمّي البرنامج تيمنًا بقناع Guy Fawkes، وهو مصمّم لإخفاء الصور عبر تعديل دقيق في البكسلات، ويمكن تنزيله مجانًا من الموقع الإلكتروني للمشروع.
ومؤخرًا، طوّر باحثون في مختبر USSLAB بجامعة تشجيانغ نظام CamPro، الذي يهدف إلى تحقيق مقاومة التعرف على الوجوه (AFR) على مستوى مستشعر الكاميرا نفسه. وينتج نظام CamPro صورًا تقلل قدرة التعرف على الوجه إلى 0.3%، من دون التأثير في تطبيقات أخرى مثل التعرف على النشاطات.
ما زال اكتشاف النصوص المبتكرة من خلال الذكاء الاصطناعي يمثل تحديًا كبيرًا للشركات والمؤسسات التعليمية. في اختبار أعمى في جامعة ريدينغ، تم خلط خمس وحدات مختلفة في علم النفس باختبارات مكتوبة من خلال ChatGPT مع اختبارات كتبها طلاب حقيقيون. وجدت دراسة يونيو أن 94% من إجابات اختبار ChatGPT لم يتم رصدها من قبل الأشخاص الذين قاموا بتصحيح الاختبارات. كما كان متوسط الاختبارات التي تم إنشاؤها من خلال الذكاء الاصطناعي أعلى بنصف درجة من اختبارات الطلاب.
لقد غمرت السوق مجموعة متنوعة من أدوات كشف الكتابة المدعومة بالذكاء الاصطناعي لمعالجة هذه المشكلة، بحثًا عن السمات المميزة للنص الذي تم إنشاؤه بالذكاء الاصطناعي مثل التكرار والقواعد النحوية المثالية. ولكن الخبراء يحذرون من أنها ليست جديرة بالثقة بعد، وغالبًا ما تُظهر تحيزًا.
في العام الماضي، أظهرت دراسة أجرتها جامعة ستانفورد أن أجهزة الكشف بالذكاء الاصطناعي رصدت الكتابة من قبل متحدثين غير أصليين للغة الإنجليزية بنسبة 61.3% في المتوسط، ولكنها ارتكبت أخطاء أقل بكثير عند تقييم الكتابة من قبل متحدثين أصليين للغة الإنجليزية.
تقديم البشر للنصوص المولّدة من قِبل الذكاء الاصطناعي على أنها أعمالهم ليس مجرد تصرّف غير أمين، بل قد يُعد أحيانًا انتحالًا أدبيًا، ما قد يترتب عليه عواقب قانونية خطيرة. وبسبب هذا القلق، تستخدم بعض الشركات أجهزة الكشف عن الكتابة المدعومة بالذكاء الاصطناعي لاختبار نسخ كتّابها. وقد أدى ذلك إلى قيام الشركات باتهام الكُتّاب زورًا بتمرير نسخ من إنتاج الذكاء الاصطناعي على أنها من إنتاجهم، ما أضر بسمعة الكُتّاب ومسيرتهم المهنية.
غالبًا ما تتضمن مجموعات البيانات التحيزات اللاواعية لدى الأشخاص الذين ينشئونها. لهذا السبب التحيز الخوارزمي مشكلة مستمرة في نماذج اللغة الكبيرة التي تتدرب على هذه البيانات.
في أحد الأمثلة، استخدم باحثون في جامعة كورنيل ChatGPT وAlpaca لإنشاء خطابات توصية للرجال والنساء؛ وأظهرت الخطابات انحيازات كبيرة لصالح الرجال. وأظهرت العبارات المولّدة مثل «Kelly شخص ودود» مقارنة بـ «Joseph قدوة يُحتذى بها» كيف يمكن لهذه الانحيازات أن تؤثر في النساء في بيئة العمل.
يعمل الباحثون على إيجاد طرق لرصد الانحيازات والتقليل من آثارها. طور فريق في جامعة إلينوي أوربانا-شامبين QuaCer-B، الذي يولّد مقاييس مثبتة للتحيز في النماذج اللغوية الكبيرة (LLM) للمدخلات المستخلصة من توزيعات محددة، ويمكن استخدامه مع كل من واجهات برمجة التطبيقات والنماذج مفتوحة المصدر.
يقول غاجانديب سينغ، الأستاذ بجامعة UIUC، وهو أحد الباحثين الرئيسيين في QuaCer-B:"تعتمد صناعة الذكاء الاصطناعي حاليًا على تقييم أمان وموثوقية نماذجها من خلال اختبارها على مجموعة صغيرة من المدخلات القياسية." "ومع ذلك، فإن الإنتاج الآمن على المدخلات القياسية لا يضمن أن يكون المحتوى المولَّد من خلال النماذج اللغوية الكبيرة أخلاقيًا عند التعامل مع سيناريوهات متنوعة وغير مرئية في العالم الواقعي. يُمكّن QuaCer-B مطوّري النماذج اللغوية الكبيرة من اتخاذ قرارات مستنيرة بشأن مدى ملاءمة نماذجهم للنشر في العالم الواقعي، وكذلك تحديد أسباب الإخفاقات لتحسين النموذج.
نظرًا إلى استمرار تطور الذكاء الاصطناعي، ستستمر المشكلات الأخلاقية الجديدة في التطور معه. وعلى الرغم من أن الأدوات التي ترصد الاستخدام غير الأخلاقي للتقنية وتراقبه وتمنعه تُعد خطوة أولى، فإن خبراء أخلاقيات الذكاء الاصطناعي لا يرونها حلاً شاملاً بمفردها.
يضيف Boinodiris: "الجزء الصعب ليس شراء الأداة المناسبة". "تنسيق الذكاء الاصطناعي بمسؤولية هي تحدٍ اجتماعي-تقني يتطلب اتباع نهج شامل. والأشخاص يمثلون أصعب جزء في المعادلة ".
توضح Gemma Galdón-Clavell، مستشارة الأمم المتحدة والاتحاد الأوروبي في مجال الأخلاقيات التطبيقية والذكاء الاصطناعي المسؤول ومؤسسة Eticas.ai:"بالإضافة إلى التنظيم الواعي وإنفاذ القوانين، يكمن سر الذكاء الاصطناعي الأخلاقي في التدقيق بعد النشر والمراقبة المستمرة للأداء وتقليل المخاطر إلى الحد الأدنى." "فكر في صناعة السيارات: مصابيح التحذير وأجهزة الاستشعار القريبة يمكن أن تساعد السائقين على تجنب الحوادث، لكننا لا نزال بحاجة إلى أحزمة الأمان والوسائد الهوائية والفحوصات الدورية لضمان أن تكون الطرق المفتوحة آمنة قدر الإمكان."
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.