ما هي هلاوس الذكاء الاصطناعي؟

01 سبتمبر 2023

ما هي هلاوس الذكاء الاصطناعي؟

تشير الهلوسة في الذكاء الاصطناعي إلى ظاهرة تحدث عندما يدرك النموذج اللغوي الكبير (LLM)-غالبًا ما يكون روبوت محادثة مدعوم بالذكاء الاصطناعي التوليدي  أو أداة رؤية الكمبيوتر —أنماطًا أو كائنات غير موجودة أو غير مرئية للمراقبين البشريين، ويقوم بإنشاء مخرجات غير منطقية أو غير صحيحة تمامًا.

بشكل عام، عندما يقدم المستخدم طلبًا لأداة الذكاء الاصطناعي التوليدي، فإنه يرغب في مخرجات تتناسب مع الطلب (أي إجابة صحيحة على سؤاله). ومع ذلك، في بعض الأحيان تقوم خوارزميات الذكاء الاصطناعي بإنتاج مخرجات لا تستند إلى بيانات التدريب، أو يتم تفسيرها بشكل غير صحيح من قبل المحول، أو لا تتبع أي نمط يمكن التعرف عليه. بمعنى آخر، يمكن القول إن الذكاء الاصطناعي "يهلوس" في الرد.

وقد يبدو المصطلح متناقضًا، نظرًا لأن الهلوسة ترتبط عادةً بالعقل البشري أو الحيوانات، وليس بالآلات. ولكن من الناحية المجازية، تصف الهلوسة هذه المخرجات وصفًا دقيقًا، خاصةً في حالة التعرف على الصور والأنماط (حيث قد تبدو المخرجات غير واقعية بالكامل).

تشبه هلوسة الذكاء الاصطناعي الطريقة التي يرى بها البشر أحيانًا أشكالًا في السحب أو الوجوه على القمر. في حالة الذكاء الاصطناعي، تحدث هذه التفسيرات الخاطئة بسبب عوامل مختلفة، بما في ذلك فرط التخصيص، والتحيز في بيانات التدريب أو عدم دقتها والتعقيد العالي للنموذج.

يمكن أن يمثل منع المشكلات باستخدام التقنيات التوليدية مفتوحة المصدر تحديًا. بعض الأمثلة البارزة على هلوسة الذكاء الاصطناعي تشمل ما يلي:

  • ادعاء خاطئ من روبوت المحادثة Bard من جوجل بأن تلسكوب جيمس ويب الفضائي التقط أول صور لكوكب خارج مجموعتنا الشمسية..1
     

  • اعتراف روبوت المحادثة Sydney من مايكروسوفت بأنه عشق المستخدمين وتجسس على موظفي Bing.2

  • سحبت شركة ميتا عرضها التجريبي لنموذجها اللغوي الكبير "Galactica" في عام 2022، بعد أن قدم للمستخدمين معلومات غير دقيقة، بعضها كان متحيزًا.

على الرغم من أن العديد من هذه المشكلات قد تمت معالجتها وحلها منذ ذلك الحين، إلا أنه من السهل أن نرى كيف يمكن أن يؤدي استخدام أدوات الذكاء الاصطناعي حتى في أحسن الظروف إلى عواقب غير متوقعة وغير مرغوب فيها.

تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

تداعيات هلوسة الذكاء الاصطناعي

يمكن أن يكون لهلوسة الذكاء الاصطناعي عواقب وخيمة على التطبيقات الواقعية. على سبيل المثال، قد يخطئ نموذج الذكاء الاصطناعي في تشخيص ورم جلدي حميد على أنه خبيث، مما يؤدي إلى تدخلات طبية غير ضرورية. كما يمكن أن تسهم هلوسة الذكاء الاصطناعي في نشر المعلومات المضللة. إذا استجابت روبوتات الأخبار التي تعاني من الهلوسة على استفسارات حول حالة طارئة بمعلومات لم يتم التحقق منها، فقد يؤدي ذلك إلى انتشار سريع للأكاذيب، مما يعرقل جهود التخفيف من الأضرار. أحد المصادر الرئيسية للهلوسة في خوارزميات التعلم الآلي هو التحيز في المدخلات. إذا تم تدريب نموذج الذكاء الاصطناعي على مجموعة بيانات تضم بيانات متحيزة أو غير ممثلة بشكل كافٍ، فقد يهلوس أنماطًا أو ميزات تعكس هذه التحيزات.

يمكن أن تكون نماذج الذكاء الاصطناعي أيضًا عرضة للهجمات العدائية، حيث يقوم المخترقون بتعديل طفيف في البيانات المدخلة للتلاعب بمخرجات النموذج. في مهام التعرف على الصور، على سبيل المثال، قد يتضمن الهجوم العدائي إضافة كمية صغيرة من التشويش المصمم خصيصًا إلى صورة، ما يتسبب في إساءة تصنيف الذكاء الاصطناعي لها. يمكن أن يشكل هذا خطرًا أمنيًا كبيرًا، خاصة في المجالات الحساسة مثل الأمن الإلكتروني وتقنيات المركبات الذاتية القيادة. يعمل الباحثون في مجال الذكاء الاصطناعي باستمرار على تطوير وسائل حماية ضد الهجمات العدائية لحماية أدوات الذكاء الاصطناعي. تشمل هذه التقنيات التدريب العدائي—حيث يتم تدريب النموذج على مزيج من الأمثلة العادية والعدائية—لتعزيز الأمان. ولكن في الوقت ذاته، تظل اليقظة في مرحلتي التدريب والتأكد من الحقائق أمرًا بالغ الأهمية.

أكاديمية الذكاء الاصطناعي

الثقة والشفافية والحوكمة في عصر الذكاء الاصطناعي

يُعَد التباين حول مدى "الثقة" في الذكاء الاصطناعي أحد أهم الموضوعات في هذا المجال. ومن المفهوم أيضًا أنه موضوع شائك. سنتحدث عن مشاكل مثل الهلوسة والتحيز، والمخاطر، وسنشارك خطوات اعتماد الذكاء الاصطناعي بطريقة أخلاقية، ومسؤولة، ومنصفة.

منع هلوسة الذكاء الاصطناعي

أفضل طريقة للتخفيف من تأثير الهلوسة الذكاء الاصطناعي هي منعها قبل حدوثها. إليك بعض الخطوات التي يمكنك اتخاذها للحفاظ على عمل نماذج الذكاء الاصطناعي لديك على النحو الأمثل:

استخدام بيانات تدريب عالية الجودة

تعتمد نماذج الذكاء الاصطناعي التوليدي على بيانات الإدخال لإكمال المهام، وبالتالي فإن جودة مجموعات بيانات التدريب وأهميتها ستحدد سلوك النموذج وجودة مخرجاته. لمنع الهلوسة، تأكد من أن نموذج الذكاء الاصطناعي مدرب على بيانات متنوعة ومتوازنة ومنظمة تنظيما جيدا. سيساعد هذا النموذج الخاص بك على تقليل التحيز في المخرجات وتحسين فهم مهامه وتقديم مخرجات أكثر فعالية.

تحديد الغرض من استخدام نموذج الذكاء الاصطناعي الخاص بك

توضيح كيفية استخدام نموذج الذكاء الاصطناعي بالإضافة إلى أي قيود على استخدامه سيساعد في تقليل الهلوسات. يجب على فريقك أو منظمتك تحديد مسؤوليات وقيود النظام، مما يساعده على إتمام المهام بشكل أكثر فعالية وتقليل النتائج غير ذات الصلة أو الهلوسات.

استخدام قوالب البيانات

توفر قوالب البيانات للفرق تنسيقًا محددًا مسبقًا، مما يزيد من احتمالية أن يولد نموذج الذكاء الاصطناعي مخرجات تتوافق مع الإرشادات المحددة. يضمن الاعتماد على قوالب البيانات اتساق المخرجات ويقلل من احتمالية تقديم نتائج خاطئة.

وضع حدود للردود

تهلوس نماذج الذكاء الاصطناعي غالبًا لأنها تفتقر إلى القيود التي تحد من النتائج المحتملة. لتجنب هذه المشكلة وتحسين اتساق النتائج ودقتها، ضع قيودًا للنماذج باستخدام أدوات التصفية أو عتبات احتمالية واضحة.

الاختبار والتحسين المستمر للنظام

اختبار نموذج الذكاء الاصطناعي بدقة قبل استخدامه وتقييمه باستمرار ضروري لمنع الهلوسة. تحسن هذه العمليات الأداء العام للنظام وتمكن المستخدمين من تعديل النموذج أو إعادة تدريبه مع تغير البيانات.

الاعتماد على الإشراف البشري

إن التأكد من تحقق البشر من صحة مخرجات الذكاء الاصطناعي هو الخطوة الأخيرة لمنع الهلوسة. يضمن الإشراف البشري أنه في حالة حدوث هلوسة، يكون هناك شخص متاح لتصفية النتائج وتصحيحها. كما يمكن للمراجع البشري تقديم خبرة متخصصة تتيح له تقييم محتوى الذكاء الاصطناعي من حيث الدقة والملاءمة.

تطبيقات الهلوسة في الذكاء الاصطناعي

على الرغم من أن هلوسة الذكاء الاصطناعي تعد في معظم الحالات نتيجة غير مرغوب فيها، إلا أنها توفر مجموعة من حالات الاستخدام المثيرة التي يمكن أن تساعد المنظمات على استغلال إمكاناتها الإبداعية بطرق إيجابية. تشمل الأمثلة ما يلي:

الفن والتصميم

تقدم الهلوسة الذكاء الاصطناعي نهجًا جديدًا للإبداع الفني، حيث توفر للفنانين والمصممين وغيرهم من المبدعين أداة لتوليد صور بصرية مذهلة وخيالية. بفضل قدرات هلوسة الذكاء الاصطناعي، يمكن للفنانين إنتاج صور سريالية تشبه الحلم تسهم في توليد أشكال وأساليب فنية جديدة.

تصور البيانات وتفسيرها

تساعد هلوسة الذكاء الاصطناعي في تسهيل عرض مصور للبيانات من خلال الكشف عن روابط جديدة وتقديم وجهات نظر بديلة حول المعلومات المعقدة. يعتبر هذا الأمر ذا قيمة خاصة في مجالات مثل التمويل، حيث يساعد تصور الاتجاهات السوقية والبيانات المالية المعقدة في اتخاذ قرارات أكثر تفصيلًا وتحليل المخاطر.

الألعاب والواقع الافتراضي (VR)

تعزز هلوسة الذكاء الاصطناعي أيضاً التجارب الغامرة في الألعاب والواقع الافتراضي. باستخدام نماذج الذكاء الاصطناعي للهلوسة وتوليد بيئات افتراضية مبتكرة، يمكن لمطوري الألعاب ومصممي الواقع الافتراضي تخيل عوالم جديدة ترتقي بتجربة المستخدم إلى مستويات جديدة. كما يمكن أن تضيف الهلوسة عنصر المفاجأة، وعدم القدرة على التنبؤ، والابتكار في تجارب الألعاب.

حلول ذات صلة
IBM watsonx.governance

يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.

اكتشف watsonx.governance
خدمات استشارات إدارة الذكاء الاصطناعي

تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.

استكشف خدمات حوكمة الذكاء الاصطناعي
IBM OpenPages

تبسيط كيفية إدارة المخاطر والامتثال التنظيمي من خلال منصة GRC موحدة.

استكشف OpenPages
اتخِذ الخطوة التالية

يمكنك توجيه الذكاء الاصطناعي الذي تستخدمه وإدارته ومراقبته باستخدام محفظة واحدة لتسريع تنفيذ الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.

استكشف watsonx.governance احجز عرضًا توضيحيًا مباشرًا
الحواشي

1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29 March 2023.

2 ChatGTP and the Generative AI Hallucinations, Medium, 15 March 2023.

3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18 November 2022.