في حين أن العديد من قضايا الأخلاقيات الناجمة عن الذكاء الاصطناعي الفاعل تتعلق بالسلوكيات الخاطئة، تنشأ مخاوف أخلاقية أخرى حتى عندما تعمل التقنية كما هو متوقع. على سبيل المثال، ركز كثير من النقاشات على تطبيقات الذكاء الاصطناعي مثل تطبيق ChatGPT من OpenAI الذي يحل محل العمالة البشرية ويقضي على سبل العيش.
ولكن حتى عندما يتم نشر الذكاء الاصطناعي لزيادة (بدلاً من استبدال) العمالة البشرية، قد يواجه الموظفون عواقب نفسية. يوضح Varshney أنه إذا كان العمال البشريون ينظرون إلى وكلاء الذكاء الاصطناعي على أنهم أفضل في أداء وظائفهم، فقد يواجهون انخفاضًا في قيمتهم الذاتية. ويقول: "إذا كنت في وضع يبدو فيه أن كل خبرتك لم تعد مفيدة—وأنها نوع من التبعية لوكيل الذكاء الاصطناعي—فقد تفقد كرامتك". في بعض المناقشات حول أخلاقيات الذكاء الاصطناعي، يُعد فقدان الكرامة هذا انتهاكًا لحقوق الإنسان.8
في ورقة بحثية صادرة في أغسطس 2024، اقترح Varshney وعدة باحثين جامعيين نهجًا تنظيميًا لمعالجة مشكلة الكرامة: التعاون العدائي. وفقًا لطرازهم، يظل البشر مسؤولين عن تقديم التوصيات النهائية، بينما يتم نشر أنظمة الذكاء الاصطناعي للتدقيق في عمل الإنسان.
وكتب الباحثون أن "الإنسان هو من يتخذ القرار في نهاية المطاف، والخوارزمية ليست مصممة للمنافسة في هذا الدور، بل للاستجواب، ومن ثَمَّ صقل توصيات العامل البشري".9 ويقول Varshney، إن مثل هذا التعاون العدائي "هو وسيلة لتنظيم الأشياء التي يمكن أن تحافظ على كرامة الإنسان".