Embora muitas das questões éticas originadas pela IA agêntica estejam relacionadas a comportamentos inadequados, outras preocupações éticas surgem mesmo quando a tecnologia de IA autônoma funciona conforme o esperado. Por exemplo, muita discussão tem se concentrado em aplicações de IA como o ChatGPT da OpenAI, substituindo o trabalho humano e eliminando meios de subsistência.
Mas mesmo quando as empresas implementam IA para ampliar (e não substituir) a mão de obra humana, os funcionários podem sofrer consequências psicológicas. Varshney explica que, se os trabalhadores perceberem que os agentes de IA executam melhor suas funções, isso pode afetar sua autoestima. “Se você estiver em uma posição em que todo seu conhecimento parece inútil, como se estivesse subordinado ao agente de IA, você pode perder sua dignidade”, afirma. Em alguns debates sobre ética da IA, essa perda de dignidade é vista como uma violação dos direitos humanos.8
Em um artigo de pesquisa de agosto de 2024, Varshney e vários pesquisadores universitários propuseram uma abordagem organizacional para lidar com a questão da dignidade: colaboração adversário. De acordo com seu modelo, os humanos ainda seriam responsáveis por fornecer as recomendações finais, enquanto os sistemas de IA são implementados para examinar o trabalho humano.
"O humano está, em última análise, tomando a decisão, e o algoritmo não foi projetado para competir nesse papel, mas para questionar e, assim, aprimorar as recomendações do agente humano", escreveram os pesquisadores.9 Essa colaboração adversária, diz Varshney, "é uma forma de organizar as coisas que podem manter viva a dignidade humana".