معلومات خاطئة عن الذكاء الاصطناعي: إليك كيفية تقليل تعرض شركتك لها ولمخاطرها

8 يناير 2025

المؤلفين

Alice Gomstyn

IBM Content Contributor

Alexandra Jonker

Editorial Content Lead

المعلومات الدقيقة هي شريان الحياة للشركات الحديثة. إنهم يعتمدون عليها لاتخاذ القرارات التجارية الرئيسية في كل شيء بدءًا من إدارة سلسلة التوريد وحتى تسويق المنتجات.

في حين أن الذكاء الاصطناعي يمكن أن يحسن عملية صناعة القرار القائمة على البيانات، فإنه يمكن أن يعوقها أيضًا. يمكن أن يكون المحتوى الذي ينشئه الذكاء الاصطناعي مليئًا بالأخطاء، بدءًا من عناوين الأخبار المزيفة والنصائح القانونية السيئة إلى وصفات البيتزا التي تحتوي على غراء Elmer’s بوصفه مكونًا رئيسيًا.1

هل سنصل يومًا ما إلى مرحلة تصبح فيها مثل هذه المواقف الشائكة شيئًا من الماضي؟ بقدر ما يحب عشاق الذكاء الاصطناعي أن يعتقدوا خلاف ذلك، فإن الإجابة ربما لا تكون كذلك.

يوضح Matt Candy من شركة IBM أن نماذج الذكاء الاصطناعي التوليدي ستكون دائمًا عرضة لإنتاج بعض المعلومات المضللة على الأقل عن غير قصد. يقول Candy، الشريك الإداري العالمي للذكاء الاصطناعي في IBM Consulting®: "بحكم أن هذه الأشياء تنبؤية بطبيعتها—فهي تتنبأ وتخمن ما هي الكلمة التالية—سيكون هناك دائمًا بعض المخاطر في ذلك."

ويضيف Candy أن نماذج التعلم الآلي (ML) التقليدية ليست محصنة ضد إنتاج معلومات مضللة أيضًا. يقول: "هذه النماذج هي أنواع إحصائية من الآلات التي تحاول بفعالية التنبؤ بنوع من النتائج". "لذلك في نهاية اليوم، لا يزال بإمكان هذه النماذج التنبؤ بإجابة أو نتيجة غير صحيحة".

ومع ذلك، فإن الخبر السار هو أن هناك العديد من الخطوات التي يمكن للشركات اتخاذها لتقليل فرص إنتاج أنظمة الذكاء الاصطناعي الخاصة بها ونشر المعلومات الخاطئة.

إذا لم تمنع هذه التدابير جميع حالات التضليل الناتج عن الذكاء الاصطناعي، فيمكن للشركات أيضًا تنفيذ إجراءات وقائية للكشف عن المعلومات المضللة قبل أن تتسبب في ضرر.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

فهم المعلومات المضللة

قبل أن ندرس كيف يمكن للشركات أن تحمي نفسها من المعلومات المضللة الناتجة عن الذكاء الاصطناعي، من المهم أن نلقي نظرة فاحصة على المعلومات المضللة والمفاهيم ذات الصلة. تسبق هذه المفاهيم إلى حد كبير الاستخدام على نطاق واسع اليوم للذكاء الاصطناعي في النظام البنائي للمعلومات، ولكن تأثير الذكاء الاصطناعي في هذه الظواهر كبير.

المعلومات المضللة

المعلومات المضللة هي معلومات خاطئة. تشير بعض التعريفات أيضًا إلى أن المعلومات المضللة لا يتم إنشاؤها عن قصد لخداع الآخرين، بل هي ناتجة عن أخطاء.

في حالة المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، قد تشمل الأمثلة النماذج اللغوية الكبيرة (LLMs) حيث تنتج مخرجات غير دقيقة أو لا معنى لها، والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي تحتوي على تصوير غير واقعي أو غير دقيق (مثل "أشخاص حقيقيين" بأذرع كثيرة جدًا).

تُعدّ الهلوسة الناتجة عن الذكاء الاصطناعي سببًا شائعًا للمعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. تحدث الهلوسة الناتجة عن الذكاء الاصطناعي عندما تنتج خوارزميات الذكاء الاصطناعي مخرجات لا تعتمد على بيانات التدريب، أو عندما يتم فك تشفيرها بواسطة المحول بشكل غير صحيح، أو عندما لا تتبع أي نمط يمكن تحديده.

ويوضح Kush Varshney، زميل شركة IBM في شركة ®IBM Research: "الطريقة التي تحدث بها الهلوسة هي أن نماذج الذكاء الاصطناعي تحاول التأكد من أن اللغة تتميز بالطلاقة، ولكنه يحاول أيضًا تجميع مصادر مختلفة من المعلومات". "حتى مع البشر، عندما نحاول القيام بأشياء متعددة في الوقت نفسه، يمكننا أن نخطئ. وهذا ما يحدث أيضًا مع نماذج الذكاء الاصطناعي، فهي تفقد مسار المعلومات في أثناء محاولتها جعل اللغة تتميز بالطلاقة، والعكس".

معلومات مضللة

تُعتبر المعلومات المضللة أحيانًا نوعًا من المعلومات الخاطئة، ولكنها تتميز بأنها محتوى مزيف تم إنشاؤه لخداع جمهورها. ومن الأمثلة على ذلك نظريات المؤامرة، ومؤخرًا المواد السمعية والبصرية الملفقة.

حدثت حالات بارزة من المعلومات المضللة التي أتاحتها الروبوتات وأدوات الذكاء الاصطناعي الأخرى في الفترة التي سبقت الانتخابات الرئاسية الأمريكية لعام 2024. وشمل ذلك مكالمة آلية تنتحل شخصية صوت الرئيس آنذاك والمرشح الديمقراطي Joe Biden، وانتشار الصور التي تنقل تأييد المشاهير الكاذب للرئيس الجمهوري Donald Trump.2،3

لقد حققت أدوات الكشف عن التزييف العميق الذي ينشئه الذكاء الاصطناعي وغيره من المحتويات المضللة والخاطئة نتائج متباينة، على الرغم من أن الجيل الأخير من أجهزة الكشف عن النصوص التي تعمل بالذكاء الاصطناعي أثبت فعالية أكبر من التكرارات السابقة.4،5 وفي الوقت نفسه، بدأت منصات وسائل التواصل الاجتماعي مثل TikTok وFacebook في تصنيف المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي.6

معلومات مُغْرِضَة

على عكس المعلومات المضللة والمعلومات الخاطئة، فإن المعلومات المُغْرِضَة هي معلومات ضارة تستند إلى الواقع والحقائق. المعلومات المُغْرِضَة ضارة لأنها تُنشر لإيذاء الآخرين، مثل الأشخاص أو الشركات.

على سبيل المثال، تندرج مشاركة المعلومات السرية دون إذن تحت مظلة المعلومات المُغْرِضَة، وهي ممارسة تم تضخيمها بواسطة الذكاء الاصطناعي. يمكن للمحتالين استخدام أدوات الذكاء الاصطناعي التوليدية لصياغة رسائل بريد إلكتروني احتيالية متطورة وفعالة يمكن أن تساعدهم على الحصول على معلومات سرية ونشرها.

التخفيف من المعلومات المُغْرِضَة الناتجة عن الذكاء الاصطناعي من المصدر

على الرغم من أنه قد يكون من المستحيل ضمان خلو جميع مخرجات الذكاء الاصطناعي من الأخطاء تمامًا، فإن هناك خطوات يمكن للشركات اتخاذها لتقليل احتمالية أن تنتج أنظمة الذكاء الاصطناعي الخاصة بها معلومات غير دقيقة أو ملفقة بالكامل.

  • التأكد من جودة البيانات
  • نشر التوليد المعزَّز بالاسترجاع (RAG)
  • استخدام نماذج الذكاء الاصطناعي التوليدية الأصغر حجمًا

التأكد من جودة البيانات

البيانات عالية الجودة ضرورية لأداء نموذج AI. يجب تدريب النماذج على بيانات متنوعة ومتوازنة ومنظمة جيدًا لتقليل فرص التحيز والهلوسة. يمكن لشركات التكنولوجيا ومطوري الذكاء الاصطناعي تحسين جودة بيانات التدريب باستخدام أدوات إعداد البيانات وتصفية البيانات لإزالة البيانات منخفضة الجودة والمحتوى الباعث على الكراهية، بما في ذلك المعلومات المُغْرِضَة.

نشر التوليد المعزَّز بالاسترجاع (RAG)

التوليد المعزز بالاسترجاع (RAG). هو إحدى أكثر الأدوات شيوعًا لتقليل احتمالية حدوث الهلوسة المرتبطة بالذكاء الاصطناعي. RAG هي بنية تربط نماذج الذكاء الاصطناعي التوليدي بمصادر البيانات الخارجية، مثل البيانات التنظيمية للشركة والمجلات الأكاديمية ومجموعة البيانات. ومن خلال الوصول إلى مثل هذه المعلومات، يمكن لروبوتات المحادثة المدعومة بالذكاء الاصطناعي والأدوات الأخرى إنتاج محتوى أكثر دقة ومحدد للمجال.

استخدام نماذج الذكاء الاصطناعي التوليدية الأصغر حجمًا

بينما استحوذت تطبيقات الذكاء الاصطناعي التي تواجه المستهلكين في ChatGPT من OpenAI على اهتمام الجمهور، غالبًا ما تجد الشركات نماذج ذكاء اصطناعي أصغر حجمًا وأكثر تخصصًا تناسب احتياجاتها بشكل أفضل، وفي الوقت نفسه أقل عرضة للهلوسة.

يقول Candy: "لقد تم تدريب هذه النماذج الحدودية الكبيرة على أكبر قدر ممكن من البيانات". "ولكن إذا كنت تفكر في معظم حالات استخدام المؤسسات، فأنت لا تحتاج إلى نموذج تم تدريبه على الأعمال الكاملة Shakespeare وReddit وكل البيانات الأخرى المتاحة للجمهور".

نظرًا إلى أن النماذج الأصغر حجمًا لها نوافذ سياقية أضيق وتستخدم معلمات أقل، فإن خطر الهلوسة ينخفض. ويضيف Varshney: "تقل احتمالية اختلاط الأمور".

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

الكشف عن المعلومات المضللة المتعلقة بالذكاء الاصطناعي قبل أن تسبب ضررًا

عند تجنب الضرر الناجم عن المعلومات المضللة الناتجة عن الذكاء الاصطناعي، فإن تدابير التخفيف من الهلوسة ليست سوى جزء من اللغز. يجب أن يكون لدى الشركات أيضًا استراتيجيات وأدوات للكشف عن أي هلوسة ومخرجات غير دقيقة، تنجح في التسلل.

أدوات الكشف عن الهلوسة بالذكاء الاصطناعي

تتضمن الآن منصات حوكمة الذكاء الاصطناعي الرائدة ونماذج الأساس القدرة على الكشف عن الهلوسة. ويقوم كل من إصداري IBM® watsonx.governance™ وGranite Guardian الأحدث من IBM (IBM ® Granite ™ Guardian 3.1، وهو جزء من عائلة نماذج لغة Granite من IBM المصممة للشركات)، بتقييم أداء نماذج الذكاء الاصطناعي التوليدي على مقاييس مثل مدى ملاءمة الإجابة و"الأمانة".

يشرح Varshney: "يسمونها" الأمانة"، وهو عكس الهلوسة". "عندما يكون الرد أمينًا لوثائقه المصدرية، فإنه لا يهلوس". يتميز Granite Guardian 3.1 أيضًا بالقدرات لاكتشاف الاستخدام والنتائج غير العكسية للذكاء الاصطناعي، مثل كسر حمايتها والإساءة والتحيز الاجتماعي.

الإشراف والتفاعل البشري

على الرغم من أدوات حوكمة الذكاء الاصطناعي، لا يزال للبشر دور رئيسي في منع انتشار المعلومات المضللة التي يولدها الذكاء الاصطناعي. يقول Candy، إنه يجب على الشركات في أثناء تطبيقها لأنظمة الذكاء الاصطناعي، أن تضع في حسبانها أين تضع نقاط التحكم التي تسمح بالإشراف البشري. "نحن بحاجة إلى أن نكون هادفين في تصميم نقاط في العملية حيث يوجد تفاعل بشري وضوابط وتوازنات بشرية وصناعة القرار".

ويشير إلى أن صناعة قرارات بشرية أمر مهم بشكل خاص، مع ظهور وكلاء الذكاء الاصطناعي الأقوياء القادرين على التعامل مع مهام معقدة بشكل متزايد.

على سبيل المثال، في حين أنه قد تستخدم شركة متخصصة في علوم الحياة العديد من وكلاء الذكاء الاصطناعي للبحث وكتابة تقارير الامتثال حول تطوير الأدوية الجديدة، فإن الشركة ستظل تعين موظفًا بشريًا لمراجعة التقارير والتحقق من صحتها قبل تقديمها إلى الحكومة.

يقول Candy: "في النهاية، لا يزال يتعين عليك تعيين إنسان في الحلقة حول هذه العملية، للمراجعة والتحقق من صحتها". "لا أستطيع التقليل من أهمية العنصر البشري".

حلول ذات صلة
IBM® watsonx.governance™

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
حلول وخدمات حوكمة الذكاء الاصطناعي

حقِّق أقصى استفادة من الإمكانات الكاملة للذكاء الاصطناعي لديك، واكتشف كيف تساهم حوكمة الذكاء الاصطناعي في تعزيز ثقة موظفيك في الذكاء الاصطناعي، وتسريع عملية التبني والابتكار، وتحسين ثقة العملاء.

اكتشف حلول حوكمة الذكاء الاصطناعي
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا