تشير الهلوسة في الذكاء الاصطناعي إلى ظاهرة تحدث عندما يدرك النموذج اللغوي الكبير (LLM)-غالبًا ما يكون روبوت محادثة توليدي أو أداة رؤية الكمبيوتر-أنماطًا أو كائنات غير موجودة أو غير مرئية للمراقبين البشريين، ويقوم بإنشاء مخرجات غير منطقية أو غير صحيحة تمامًا.
بشكل عام، عندما يقدم المستخدم طلبا لأداة الذكاء الاصطناعي التوليدي، فإنه يرغب في مخرجات تعالج طلبه بشكل مناسب (أي إجابة صحيحة على سؤاله). ومع ذلك، في بعض الأحيان تقوم خوارزميات الذكاء الاصطناعي بإنتاج مخرجات لا تستند إلى بيانات التدريب، أو يتم تفسيرها بشكل غير صحيح من قبل المحول، أو لا تتبع أي نمط يمكن التعرف عليه. بمعنى آخر، يمكن القول إن الذكاء الاصطناعي "يهلوس" في الرد.
وقد يبدو المصطلح متناقضًا، نظرًا لأن الهلوسة ترتبط عادةً بالعقل البشري أو الحيوانات، وليس بالآلات. ولكن من الناحية المجازية، تصف الهلوسة هذه المخرجات وصفًا دقيقًا، خاصةً في حالة التعرف على الصور والأنماط (حيث قد تبدو المخرجات غير واقعية بالكامل).
تشبه هلوسة الذكاء الاصطناعي الطريقة التي يرى بها البشر أحيانًا أشكالًا في السحب أو الوجوه على القمر. في حالة الذكاء الاصطناعي، تحدث هذه التفسيرات الخاطئة بسبب عوامل مختلفة، بما في ذلك التحسين الزائد، والتحيز في بيانات التدريب أو عدم دقتها والتعقيد العالي للنموذج.
يمكن أن يمثل منع المشكلات باستخدام التقنيات التوليدية مفتوحة المصدر تحديًا. بعض الأمثلة البارزة على هلوسة الذكاء الاصطناعي تشمل ما يلي:
ادعاء خاطئ من روبوت المحادثة Bard من جوجل بأن تلسكوب جيمس ويب الفضائي التقط أول صور لكوكب خارج مجموعتنا الشمسية..1
اعتراف روبوت المحادثة Sydney من مايكروسوفت بأنه عشق المستخدمين وتجسس على موظفي Bing.2
سحب Meta لنموذج Galactica LLM التجريبي في عام 2022 بعد تقديمه معلومات غير دقيقة للمستخدمين، بعضها كان متحيزًا.3
على الرغم من أن العديد من هذه المشكلات قد تمت معالجتها وحلها منذ ذلك الحين، إلا أنه من السهل أن نرى كيف يمكن أن يؤدي استخدام أدوات الذكاء الاصطناعي حتى في أحسن الظروف إلى عواقب غير متوقعة وغير مرغوب فيها.
استكشف كيف يمكن لمساعدي الذكاء الاصطناعي التوليدي تخفيف أحمال العمل لديك وتحسين الإنتاجية.
يمكن أن يكون للهلوسة بالذكاء الاصطناعي عواقب وخيمة على التطبيقات الواقعية. على سبيل المثال، قد يخطئ نموذج الذكاء الاصطناعي في تشخيص ورم جلدي حميد على أنه خبيث، مما يؤدي إلى تدخلات طبية غير ضرورية. كما يمكن أن تسهم الهلوسة في الذكاء الاصطناعي في نشر المعلومات المضللة. إذا استجابت روبوتات الأخبار التي تعاني من الهلوسة على استفسارات حول حالة طارئة بمعلومات لم يتم التحقق منها، فقد يؤدي ذلك إلى انتشار سريع للأكاذيب، مما يعرقل جهود التخفيف من الأضرار. أحد المصادر الرئيسية للهلوسة في خوارزميات التعلم الآلي هو التحيز في المدخلات. إذا تم تدريب نموذج الذكاء الاصطناعي على مجموعة بيانات تضم بيانات متحيزة أو غير ممثلة بشكل كافٍ، فقد يهلوس أنماطًا أو ميزات تعكس هذه التحيزات.
يمكن أن تكون نماذج الذكاء الاصطناعي أيضًا عرضة للهجمات العدائية، حيث يقوم المخترقون بتعديل طفيف في البيانات المدخلة للتلاعب بمخرجات النموذج. في مهام التعرف على الصور، على سبيل المثال، قد يتضمن الهجوم العدائي إضافة كمية صغيرة من التشويش المصمم خصيصًا إلى صورة، ما يتسبب في إساءة تصنيف الذكاء الاصطناعي لها. يمكن أن يشكل هذا خطرًا أمنيًا كبيرًا، خاصة في المجالات الحساسة مثل الأمن الإلكتروني وتقنيات المركبات الذاتية القيادة. يعمل الباحثون في مجال الذكاء الاصطناعي باستمرار على تطوير وسائل حماية ضد الهجمات العدائية لحماية أدوات الذكاء الاصطناعي. تشمل هذه التقنيات التدريب العدائي - حيث يتم تدريب النموذج على مزيج من الأمثلة العادية والعدائية - لتعزيز الأمان. ولكن في الوقت ذاته، تظل اليقظة في مرحلتي التدريب والتأكد من الحقائق أمرًا بالغ الأهمية.
أفضل طريقة للتخفيف من تأثير الهلوسة الذكاء الاصطناعي هي منعها قبل حدوثها. إليك بعض الخطوات التي يمكنك اتخاذها للحفاظ على عمل نماذج الذكاء الاصطناعي لديك على النحو الأمثل:
تعتمد نماذج الذكاء الاصطناعي التوليدي على بيانات الإدخال لإكمال المهام، وبالتالي فإن جودة مجموعات بيانات التدريب وأهميتها ستحدد سلوك النموذج وجودة مخرجاته. لمنع الهلوسة، تأكد من أن نموذج الذكاء الاصطناعي مدرب على بيانات متنوعة ومتوازنة ومنظمة تنظيما جيدا. سيساعد هذا النموذج الخاص بك على تقليل التحيز في المخرجات وتحسين فهم مهامه وتقديم مخرجات أكثر فعالية.
توضيح كيفية استخدام نموذج الذكاء الاصطناعي بالإضافة إلى أي قيود على استخدامه سيساعد في تقليل الهلوسات. يجب على فريقك أو منظمتك تحديد مسؤوليات وقيود النظام، مما يساعده على إتمام المهام بشكل أكثر فعالية وتقليل النتائج غير ذات الصلة أو الهلوسات.
توفر قوالب البيانات للفرق تنسيقًا محددًا مسبقًا، مما يزيد من احتمالية أن يولد نموذج الذكاء الاصطناعي مخرجات تتوافق مع الإرشادات المحددة. يضمن الاعتماد على قوالب البيانات اتساق المخرجات ويقلل من احتمالية تقديم نتائج خاطئة.
تهلوس نماذج الذكاء الاصطناعي غالبًا لأنها تفتقر إلى القيود التي تحد من النتائج المحتملة. لتجنب هذه المشكلة وتحسين اتساق النتائج ودقتها، ضع قيودًا للنماذج باستخدام أدوات التصفية أو عتبات احتمالية واضحة.
اختبار نموذج الذكاء الاصطناعي بدقة قبل استخدامه وتقييمه باستمرار ضروري لمنع الهلوسة. تحسن هذه العمليات الأداء العام للنظام وتمكن المستخدمين من تعديل النموذج أو إعادة تدريبه مع تغير البيانات.
إن التأكد من تحقق البشر من صحة مخرجات الذكاء الاصطناعي هو الخطوة الأخيرة لمنع الهلوسة. يضمن الإشراف البشري أنه في حالة حدوث هلوسة، يكون هناك شخص متاح لتصفية النتائج وتصحيحها. كما يمكن للمراجع البشري تقديم خبرة متخصصة تتيح له تقييم محتوى الذكاء الاصطناعي من حيث الدقة والملاءمة..
تمكّن من تسريع سير العمل المسؤول والشفاف والقابل للتفسير للذكاء الاصطناعي التوليدي المدمج في منصات الأطراف الثالثة.
على الرغم من أن هلوسة الذكاء الاصطناعي تعد في معظم الحالات نتيجة غير مرغوب فيها، إلا أنها توفر مجموعة من حالات الاستخدام المثيرة التي يمكن أن تساعد المنظمات على استغلال إمكاناتها الإبداعية بطرق إيجابية. تشمل الأمثلة ما يلي:
تقدم الهلوسة الذكاء الاصطناعي نهجا جديدا للإبداع الفني، حيث توفر للفنانين والمصممين وغيرهم من المبدعين أداة لتوليد صور بصرية مذهلة وخيالية. بفضل قدرات هلوسة الذكاء الاصطناعي، يمكن للفنانين إنتاج صور سريالية تشبه الحلم تسهم في توليد أشكال وأساليب فنية جديدة.
تساعد هلوسة الذكاء الاصطناعي في تسهيل عرض مصور للبيانات من خلال الكشف عن روابط جديدة وتقديم وجهات نظر بديلة حول المعلومات المعقدة. يعتبر هذا الأمر ذا قيمة خاصة في مجالات مثل التمويل، حيث يساعد تصور الاتجاهات السوقية والبيانات المالية المعقدة في اتخاذ قرارات أكثر تفصيلًا وتحليل المخاطر.
تعزز هلوسة الذكاء الاصطناعي أيضاً التجارب الغامرة في الألعاب والواقع الافتراضي. باستخدام نماذج الذكاء الاصطناعي للهلوسة وتوليد بيئات افتراضية مبتكرة، يمكن لمطوري الألعاب ومصممي الواقع الافتراضي تخيل عوالم جديدة ترتقي بتجربة المستخدم إلى مستويات جديدة. كما يمكن أن تضيف الهلوسة عنصر المفاجأة، وعدم القدرة على التنبؤ، والابتكار في تجارب الألعاب.
تسريع مراحل سير عمل الذكاء الاصطناعي المسؤول والشفاف والقابل للتفسير.
تقديم رعاية عملاء متسقة وذكية عبر جميع القنوات ونقاط الاتصالات باستخدام الذكاء الاصطناعي الحواري.
جرِّب نماذج الأساس لبناء نماذج التعلّم الآلي تلقائيًا في استوديو الجيل التالي الذي نوفره لمنشئي الذكاء الاصطناعي.
اعثر على إجابات ومعارف مهمة من بيانات عملك باستخدام تقنية Enterprise Search المدعومة بالذكاء الاصطناعي.
تعرّف على روبوت محادثة بلغة طبيعية يفهم المحادثة البشرية ويحسّن تجربة العملاء.
Granite هي سلسلة IBM الرائدة من نماذج LLM الأساسية التي تعتمد على بنية المحول المدعومة بآلية فك التشفير فقط. حيث يتم تدريب نماذج Granite اللغوية على بيانات المؤسسات الموثوقة التي تشمل الإنترنت والبيانات الأكاديمية والتعليمات البرمجية والبيانات القانونية والمالية.
استكشف ثلاث تقنيات لتبسيط حوار الذكاء الاصطناعي الخاص بك وزيادة فعاليته وقدرته على تلبية احتياجات المستخدمين: تقليل المدخلات وتقديم خيارات واضحة وتحرير النصوص.
تعلّم المهارات التي تحتاجها لإنشاء ذكاء اصطناعي حواري فعال من خلال مقالات المساعدة والبرامج التعليمية ومقاطع الفيديو وغيرها.
اطّلع على المستندات والموارد الخاصة بنا لبناء روبوت محادثة بسرعة وسهولة.
تم تصنيف IBM مجددًا كشركة رائدة في تقرير ®Gartner Magic™ Quadrant لعام 2023 لمنصات الذكاء الاصطناعي الحواري للمؤسسات.
تعرف على كيفية تأثير جائحة كوفيد-19 على تبني تقنية الوكيل الافتراضي (VAT) بشكل كبير.
1 What Makes A.I. Chatbots Go Wrong? (محتوى الرابط موجود خارج موقع ibm.com)، نيويورك تايمز، 29 مارس 2023.
2 ChatGTP and the Generative AI Hallucinations (محتوى الرابط موجود خارج موقع ibm.com)، متوسط، 15 مارس 2023.
3 Why Meta’s latest large language model survived only three days online (محتوى الرابط موجود خارج موقع ibm.com)، MIT Technology Review، 18 نوفمبر 2022.