Si bien muchos de los problemas éticos derivados de la IA agéntica se relacionan con malas conductas, surgen otras preocupaciones éticas incluso cuando la tecnología de IA autónoma funciona como se espera. Por ejemplo, gran parte del debate se ha centrado en las aplicaciones de IA, como ChatGPT de OpenAI, que reemplazan el trabajo humano y eliminan los medios de subsistencia.
Pero incluso cuando la IA se despliega para aumentar (en lugar de reemplazar) el trabajo humano, los empleados podrían enfrentar consecuencias psicológicas. Si los trabajadores humanos perciben que los agentes de IA son mejores en hacer su trabajo que ellos, podrían experimentar una disminución en su autoestima, explica Varshney. “Si están en una posición en la que toda su experiencia ya no parece útil, que está un poco subordinada al agente de IA, podrían perder su dignidad”, dice. En algunos debates sobre la ética de la IA, esa pérdida de dignidad se considera una violación de los derechos humanos.8
En un trabajo de investigación publicado en agosto de 2024, Varshney y varios investigadores universitarios propusieron un enfoque organizacional para abordar el problema de la dignidad: la colaboración adversarial. Según su modelo, los humanos seguirían siendo responsables de proporcionar las recomendaciones finales, mientras que los sistemas de IA se despliegan para examinar el trabajo de los humanos.
“El humano en última instancia está tomando la decisión, y el algoritmo no está diseñado para competir en este rol, sino para interrogar y, así, perfeccionar las recomendaciones del agente humano”, escribieron los investigadores.9 Tal colaboración adversarial, dice Varshney, “es una forma de organizar las cosas que pueden mantener viva la dignidad humana”.