Aunque muchos de los problemas éticos derivados de la IA agentiva se relacionan con malos comportamientos, surgen otras preocupaciones éticas incluso cuando la tecnología de IA autónoma funciona según lo esperado. Por ejemplo, gran parte del debate se ha centrado en aplicaciones de IA como ChatGPT de OpenAI que sustituyen el trabajo humano y eliminan los medios de subsistencia.
Pero incluso cuando la IA se implementa para aumentar (en lugar de reemplazar) el trabajo humano, los empleados pueden enfrentar consecuencias psicológicas. Si los trabajadores humanos perciben que los agentes de IA son mejores que ellos en su trabajo, podrían experimentar una disminución de su autoestima, explica Varshney. "Si está en una posición en la que toda su experiencia ya no parece útil, que está subordinada al agente de IA, podría perder su dignidad", dice. En algunos debates sobre la ética de la IA, esa pérdida de dignidad se considera una violación de los derechos humanos8.
En un artículo de investigación de agosto de 2024, Varshney y varios investigadores universitarios propusieron un enfoque organizativo para abordar el problema de la dignidad: la colaboración entre adversarios. Según su modelo, los humanos seguirían siendo responsables de proporcionar las recomendaciones finales, mientras que los sistemas de IA se implementan para examinar el trabajo de los humanos.
“El ser humano es quien, en última instancia, toma la decisión, y el algoritmo no está diseñado para competir en este rol, sino para interrogar y, por lo tanto, afinar las recomendaciones del agente humano”, escribieron los investigadores9. Esa colaboración adversaria, dice Varshney, “es una forma de organizar las cosas que pueden mantener viva la dignidad humana”.