Si de nombreuses considérations éthiques liées à l’IA agentique concernent les mauvais comportements, d’autres questions de cet ordre se posent même lorsque la technologie de l’IA autonome fonctionne comme prévu. Par exemple, de nombreuses discussions ont porté sur les applications d’IA comme ChatGPT d’OpenAI qui remplacent le travail humain et suppriment les moyens de subsistance.
Cependant, même lorsque l’IA est déployée pour augmenter (plutôt que de remplacer) le travail humain, les employés risquent d’en subir les conséquences sur le plan psychologique. Comme l’explique Kush Varshney, si les travailleurs humains perçoivent les agents d’IA comme plus performants qu’eux, leur estime de soi peut diminuer. « Si vous vous trouvez dans une situation où votre expertise semble inutile – comme subordonnée à l’agent d’IA – vous risquez de perdre votre dignité », dit-il. Dans certains débats autour de l’éthique de l’IA, une telle perte de dignité est considérée comme une violation des droits humains.8
Dans un article de recherche d’août 2024, Kush Varshney et plusieurs chercheurs universitaires ont proposé une approche organisationnelle pour répondre au problème de la dignité : la collaboration contradictoire. Selon leur modèle, les humains auraient toujours la responsabilité de fournir les recommandations finales, tandis que les systèmes d’IA seraient déployés pour analyser le travail des humains.
« En fin de compte, l’humain prend la décision finale ; l’algorithme n’est pas conçu pour rivaliser dans ce rôle, mais pour interroger et, par conséquent, affiner les recommandations de l’agent humain », écrivent les chercheurs.9 Une telle collaboration contradictoire « est une façon d’organiser les choses qui peuvent préserver la dignité humaine », explique Kush Varshney.