يشير مصطلح "الإنسان في الحلقة" (HITL) إلى نظام أو عملية يشارك فيها الإنسان بشكل نشط في تشغيل أو الإشراف أو اتخاذ القرار في نظام آلي. في سياق الذكاء الاصطناعي، يعني HITL أن البشر يشاركون في مرحلة ما من سير عمل الذكاء الاصطناعي لضمان الدقة والسلامة والمساءلة أو اتخاذ القرارات الأخلاقية.
لقد حقَّق التعلم الآلي (ML) تقدمًا مذهلًا في السنوات الأخيرة، ولكن حتى نماذج التعلم العميق الأكثر تقدمًا قد تواجه صعوبة في التعامل مع الغموض أو التحيُّز أو حالات الحافة التي تنحرف عن بيانات التدريب الخاصة بها. يمكن أن تساعد ردود الفعل البشرية على تحسين النماذج وتكون ضمانًا عندما تعمل أنظمة الذكاء الاصطناعي بمستويات غير كافية. يضيف مفهوم HITL البصيرة البشرية في "الدورة"، وهي الحلقة المستمرة من التفاعل والتعليقات بين أنظمة الذكاء الاصطناعي والبشر.
الهدف من HITL هو السماح لأنظمة الذكاء الاصطناعي بتحقيق كفاءة الأتمتة دون التضحية بالدقة والفروق الدقيقة والمنطق الأخلاقي للإشراف البشري.
الرسالة الإخبارية الخاصة بالمجال
احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.
سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.
التعلم الآلي الذي يعتمد على مشاركة الإنسان يُتيح للبشر توفير الإشراف والمدخلات في سير عمل الذكاء الاصطناعي. وفيما يلي الفوائد الأساسية لعملية "الإنسان في الحلقة":
الدقة والموثوقية
صناعة القرار الأخلاقية والمساءلة
الشفافية وقابلية التفسير
الهدف من أتمتة مهام سير العمل هو تقليل مقدار الوقت والجهد الذي يتعين على البشر إنفاقه في إدارتها. ومع ذلك، يمكن أن تتعطل مهام سير العمل المؤتمتة بعدة طرق. في بعض الأحيان تواجه النماذج حالات حافة لم يجهزها تدريبها للتعامل معها. يُتيح نهج HITL للبشر إصلاح المدخلات غير الصحيحة، ما يمنح النموذج الفرصة للتحسين بمرور الوقت. قد يكون البشر قادرين على تحديد السلوكيات الشاذة باستخدام خبرتهم في الموضوع، والتي يمكن دمجها بعد ذلك في فهم النموذج.
في التطبيقات ذات المخاطر العالية، يمكن للبشر فرض التنبيهات والتقييمات البشرية والإجراءات الوقائية للمساعدة على ضمان التحقق من صحة القرارات المستقلة. حيث يمكنهم التقاط المخرجات المتحيزة أو المضللة، ما يمنع النتائج النهائية السلبية. تساعد التعليقات البشرية المستمرة نماذج الذكاء الاصطناعي على التكيف مع البيئات المتغيرة.
يُعَد التحيز مصدر قلق مستمرًا في مجال التعلم الآلي، وعلى الرغم من أن الذكاء البشري معروف بأنه متحيز إلى حد كبير في بعض الأحيان، فإن طبقة إضافية من التدخل البشري يمكن أن تساعد على تحديد وتخفيف التحيز المضمَّن في البيانات والخوارزميات نفسها، ما يشجِّع على العدالة في مخرجات الذكاء الاصطناعي.
عندما يشارك الإنسان في الموافقة على مخرجات الذكاء الاصطناعي أو تجاوزها، فإن المسؤولية لا تقع فقط على عاتق النموذج أو مطوريه.
تتطلب بعض القرارات تفكيرًا أخلاقيًا قد يتجاوز قدرات النموذج. على سبيل المثال، قد تؤدي توصيات منصة التوظيف الخوارزمية إلى إلحاق الضرر ببعض الفئات المهمشة تاريخيًا. على الرغم من أن نماذج التعلم الآلي قد حققت تقدمًا كبيرًا على مدار السنوات القليلة الماضية في قدرتها على دمج الفروق الدقيقة في تفكيرها، إلا أن الإشراف البشري لا يزال في بعض الأحيان هو النهج الأفضل. يُتيح HITL للبشر، الذين يمتلكون فهمًا أفضل للمعايير والسياق الثقافي والمجالات الأخلاقية الرمادية، إيقاف أو تعديل المخرجات الآلية عند مواجهة معضلات معقدة.
يمكن أن يوفر نهج الإنسان في الحلقة سجلًا يوضِّح سبب إلغاء القرار مع أثر تدقيقي يدعم الشفافية والمراجعات الخارجية. وتسمح هذه الوثائق بتوفير دفاع قانوني أكثر قوة، وعمليات تدقيق الامتثال، ومراجعات المساءلة الداخلية.
تفرض بعض لوائح الذكاء الاصطناعي مستويات معينة من HITL. على سبيل المثال، تنص المادة 14 من قانون الذكاء الاصطناعي للاتحاد الأوروبي على أنه "يجب تصميم وتطوير أنظمة الذكاء الاصطناعي عالية المخاطر بطريقة، بما في ذلك استخدام أدوات واجهة الإنسان والآلة المناسبة، بحيث يمكن للأشخاص الطبيعيين الإشراف عليها بشكل فعَّال خلال الفترة التي تكون قيد الاستخدام".
وبحسب اللائحة، ينبغي أن تعمل هذه المراقبة على منع أو تقليل المخاطر التي تهدد الصحة أو السلامة أو الحقوق الأساسية، من خلال أساليب تشمل التشغيل اليدوي والتدخل والتجاوز والمراقبة في الوقت الفعلي. ويجب أن يكون البشر المعنيون "مؤهلين" للقيام بذلك، وفهم قدرات النظام وحدوده، ومدرَّبين على استخدامه بشكل صحيح، ولديهم السلطة للتدخل عندما يكون ذلك ضروريًا. وتهدف هذه المراقبة إلى تشجيع تجنُّب الضرر والحفاظ على الأداء السليم.
من خلال اكتشاف الأخطاء قبل أن تسبِّب الضرر، يعمل HITL كشبكة أمان، وخاصةً في القطاعات عالية المخاطر أو الخاضعة للتنظيم مثل الرعاية الصحية أو التمويل. يساعد نهج HITL على التخفيف من تأثير "الصندوق الأسود" حيث يكون السبب وراء مخرجات الذكاء الاصطناعي غير واضح. ويساعد دمج الرقابة والتحكم البشري في عمليات التطوير والنشر الممارسين على تحديد المخاطر وتخفيفها، سواء أكانت مخاطر تقنية أم أخلاقية أم قانونية أم تشغيلية.
يُعَد HITL نهجًا رائعًا لتحسين أداء أنظمة التعلم الآلي، ولكنه لا يخلو من العيوب.
قابلية التوسع والتكلفة
الخطأ البشري وعدم الاتساق
الخصوصية والأمان
يمكن أن تكون التعليقات التوضيحية البشرية بطيئة ومكلفة، خاصةً بالنسبة إلى مجموعات البيانات الكبيرة أو حلقات التعليقات المتكررة. مع زيادة حجم البيانات أو تعقيد النظام، يمكن أن يصبح الاعتماد على البشر عائقًا. قد تتطلب عملية تصنيف ملايين الصور باستخدام نموذج رؤية الكمبيوتر بدقة عالية، على سبيل المثال، آلاف الساعات من العمل البشري. وقد تتطلب بعض المجالات مثل الطب أو القانون خبيرًا أكثر تكلفة في الحلقة. حيث قد يؤدي تصنيف الورم بشكل خاطئ في فحص الصورة الطبية إلى خطأ خطير.
على الرغم من أن البشر قادرون على توفير قدر أكبر من الدقة، إلا إنهم في بعض النواحي قد يكونون أكثر تحيزًا وعرضةً للخطأ من الآلات. قد يفسر البشر البيانات أو المهام بشكل مختلف، خاصةً في المجالات التي لا تحتوي على إجابة صحيحة أو خاطئة واضحة. يمكن أن يشعر المعلقون البشريون، كونهم بشرًا، بالتعب أو التشتت أو الارتباك عند تصنيف البيانات. لديهم أيضًا وجهات نظر مختلفة حول المشكلات الذاتية، والتي يمكن أن تؤدي إلى تناقضات في وضع التصنيفات.
إن إشراك البشر في عمليات التقييمات الداخلية قد يُثير مخاوف تتعلق بالخصوصية، وحتى المعلقين ذوي النوايا الحسنة قد يقومون عن غير قصد بتسريب أو إساءة استخدام البيانات الحساسة التي يصلون إليها أثناء التعليقات.
يؤدي تقديم تعليقات بشرية هادفة وعالية الجودة قبل التدريب وأثناءه وبعده إلى إنشاء حلقة تعليقات تسرِّع عملية التعلم وتجعل نماذج التعلم الآلي أكثر قوة وقابلية للتفسير والتوافق مع احتياجات العالم الحقيقي. فيما يلي بعض الطرق التي يمكن من خلالها دمج التفاعل البشري في سير عمل الذكاء الاصطناعي.
التعلم تحت الإشراف
التعلم المعزز من التعليقات البشرية (RLHF)
التعلم النشط
تتطلب تطبيقات التعلم الخاضع للإشراف من علماء البيانات تصنيف البيانات بشكل صحيح. تؤدي تعليقات البيانات هذه إلى إنشاء مجموعات بيانات يتم استخدامها بعد ذلك لتدريب خوارزمية التعلم الآلي. وهذا سير عمل تكون فيه إدخالات الإنسان ضرورية وذات أولوية.
على سبيل المثال، قد يتضمن النهج الخاضع للإشراف في سياق معالجة اللغة الطبيعية قيام البشر بوضع علامة على النص بأنه "بريد عشوائي" أو "ليس بريدًا عشوائيًا" من أجل تعليم الآلة كيفية التمييز بين هذه الأمور بنجاح. في حالة استخدام رؤية الكمبيوتر، قد يتضمن النهج الخاضع للإشراف قيام البشر بتصنيف سلسلة من الصور على أنها "سيارة" أو "حافلة" أو "دراجة نارية"، حتى يتمكن النموذج من تنفيذ مهام اكتشاف الكائنات.
في مثال آخر، يستخدم التعلم المعزز باستخدام التعليقات البشرية (RLHF) "نموذج مكافأة" مدربًا على ردود الفعل البشرية المباشرة، والذي يُستخدم بعد ذلك لتحسين أداء وكيل الذكاء الاصطناعي من خلال التعلم المعزز. يُعَد RLHF مناسبًا بشكل فريد للمهام ذات الأهداف المعقدة أو غير المحددة جيدًا أو التي يصعب تحديدها.
في التعلم النشط، يحدِّد النموذج التنبؤات غير المؤكدة أو ذات الثقة المنخفضة ويطلب الإدخال البشري فقط عند الحاجة. يركِّز هذا جهود التصنيف على الأمثلة الأصعب أو الأكثر غموضًا، ما يؤدي إلى التعلم بشكل أسرع وأكثر دقة.
يمكنك إدارة نماذج الذكاء الاصطناعي من أي مكان ونشرها على السحابة أو بشكل محلي باستخدام IBM watsonx.governance.
اكتشف كيف يمكن لحوكمة الذكاء الاصطناعي أن تساعد في زيادة ثقة موظفيك في الذكاء الاصطناعي، وتسريع الاعتماد عليه وتعزيز الابتكار، بالإضافة إلى تحسين ثقة العملاء.
تمكَّن من الاستعداد لقانون الذكاء الاصطناعي في الاتحاد الأوروبي ووضع نهج حوكمة مسؤول للذكاء الاصطناعي بمساعدة IBM Consulting.