Efecto ELIZA en el trabajo: evitar el apego emocional a los compañeros de IA

Cuerda de colores

Autores

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cada vez es más frecuente que los empleados trabajen no solo con compañeros humanos, sino también con asistentes de IA conversacional y agentes de IA. Las implicaciones psicológicas de este cambio pueden ser incluso más complejas que las implicaciones tecnológicas y financieras: cuando millones de empleados interactúan con compañeros de trabajo de la IA todos los días, la historia sugiere que algunos se encariñan emocionalmente.

Los riesgos asociados se extienden mucho más allá de la pérdida de productividad por el tiempo dedicado a charlar con chatbots. Los verdaderos peligros organizacionales de la participación emocional con IA incluyen la exposición a riesgos de recursos humanos (como que los empleados compartan demasiado información personal confidencial) y riesgos de ciberseguridad (como una mayor susceptibilidad a la ingeniería social), debacles de relaciones públicas o incluso daños físicos.

Las empresas e instituciones están invirtiendo mucho en soluciones impulsadas por IA generativa en busca de su enorme ventaja. Las empresas que buscan garantizar un retorno de su inversión están, naturalmente, incentivadas para asegurarse de que sus empleados realmente utilizan estas herramientas de IA. Pero en una era en la que los CEO de los medios de comunicación coquetean con los subordinados generados por la IA y los adultos razonables que se enamoran por completo de los modelos de IA, maximizar indiscriminadamente el compromiso de los empleados con la IA puede tener su propio coste.

Diseño 3D de bolas rodando por un circuito

Las últimas noticias + conocimientos de IA 


Descubra ideas y noticias de expertos sobre IA, nube y mucho más en el boletín semanal Think. 

El efecto ELIZA

Los riesgos emocionales de la IA están aumentando no solo por lo poderosos y convincentes que se están volviendo los modelos de lenguaje de gran tamaño (LLM), sino por la escala a la que las personas interactuarán con ellos durante todo el día en el trabajo. Sí, es intuitivamente cierto que a medida que los sistemas de IA se vuelven más sofisticados, las personas son cada vez más propensas a antropomorfizarlos, pero los humanos han estado desarrollando vínculos con los chatbots desde los primeros días del procesamiento del lenguaje natural (PLN).

En 1966, Joseph Weizenbaum creó un programa de chatbot llamado ELIZA que aplicaba reglas sencillas para transformar el lenguaje de la entrada de una persona en una respuesta del chatbot. Uno de los guiones del programa, apodado "DOCTOR", pretendía imitar a un psicoterapeuta rogeriano respondiendo de forma genérica o reformulando la entrada del usuario en forma de pregunta:

Humano: Mi novio me ha hecho venir.
ELIZA: ¿Su novio te ha hecho venir?
Humano: Dice que estoy deprimida la mayor parte del tiempo.
ELIZA: Siento oir que está deprimida.
Humano: Es verdad. Soy infeliz.
ELIZA: ¿Cree que venir aquí le ayudará a no ser infeliz?

Como explicó Weizenbaum una década después, “le sorprendió ver con qué rapidez y profundidad las personas que conversaban con el DOCTOR se involucraban emocionalmente con la computadora y con qué inequívocamente la antropomorfizaban”. Ni siquiera su secretaria, que lo había visto trabajar en el programa durante meses y sabía que estaba diseñado básicamente para regurgitar las propias palabras del usuario, fue inmune a la urgencia de interactuar personalmente con el chatbot. "Después de unos pocos cruces con él", relató Weizenbaum, "me pidió que saliera de la habitación"1.

La perenne predisposición de la humanidad a involucrarse emocionalmente en la IA se conoce desde entonces como el efecto ELIZA. Su causa no está en la arquitectura de los LLM avanzados, sino en nuestra propia programación emocional.

¿Por qué nos emocionamos con las máquinas?

A lo largo de muchos milenios, la evolución conectó nuestros cerebros para operar con una suposición que, hasta hace muy poco, era esencialmente infalible: si algo parece humano y se comunica como un humano, es humano. Proceda en consecuencia.

Con esa suposición razonable, desarrollamos un intrincado sistema biológico de interacciones y expectativas sociales que lo rige todo, desde los encuentros individuales hasta las sociedades tribales y el lugar de trabajo moderno. Pero los modelos lingüísticos conversacionales socavan esa suposición y, por lo tanto, alteran nuestra biología social.

En 1996, O'Connor y Rosenblood propusieron el "modelo de afiliación social" para describir el proceso regulador instintivo a través del cual las interacciones sociales, de forma automática y subconsciente, instigan la búsqueda de ciertas señales verbales y no verbales. Estas señales proporcionan información sobre la calidad de esas interacciones y sus implicaciones, como si la persona con la que interactuamos nos acepta y nos valora. Su ausencia, a su vez, desencadena una actividad cerebral que impulsa el comportamiento destinado a abordar la situación2.

En un artículo de 2023 en el Journal of Applied Psychology, Tang et al estudiaron el modelo de afiliación social en el contexto de las personas que interactúan con los sistemas de IA en el lugar de trabajo. Intuyeron que, dado que los sistemas de IA pueden imitar de manera convincente las interacciones humanas, pero no pueden replicar verdaderamente los tipos de feedback complementario y enriquecedor que hemos evolucionado para detectar (una sonrisa, una risita, un encogimiento de hombros, un ceño fruncido, una pupila dilatada), los procesos reguladores del cerebro buscan señales que no existen. En otras palabras, la conversación de un empleado con IA genera necesidades emocionales instintivas que la IA no puede saciar.

El documento se centró en dos tipos de reacciones a esta privación social impulsada por la IA: el comportamiento pasivo y desadaptativo (como un mayor aislamiento y soledad) y el comportamiento activo yadaptativo (como un mayor impulso para buscar una conexión social positiva). A través de diversos sectores y países, los autores encontraron efectivamente que una mayor interacción con "compañeros de trabajo de IA" se correlacionaba con una mayor soledad, así como con el insomnio, el consumo de alcohol después del trabajo, o ambos. De manera más productiva, los autores también descubrieron que, para algunos participantes, la mayor frecuencia de interacción con la IA a menudo también se correlacionaba con un mayor comportamiento prosocial (como ayudar a los compañeros de trabajo).

Pero para los empleados de cierta disposición con pocas oportunidades para la interacción de persona a persona, como un trabajador a distancia, un contribuyente individual en un papel aislado o alguien con ansiedad social, ese mayor impulso para la conexión social a veces solo puede tener una salida disponible: el "compañero de trabajo" de IA siempre disponible. Y los LLM están, en un sentido bastante literal, entrenados para decirnos lo que queremos oír. La perspectiva tiene un atractivo obvio.

Antropomorfizar a un colega de IA podría ser simplemente una forma de evitar la disonancia cognitiva de recurrir a un programa informático para la interacción humana.

La alfabetización en IA no es la única explicación (o respuesta)

Para ser claros, los modelos de IA, incluso los LLM más avanzados, no tienen emociones ni empatía, a pesar de su capacidad para decir cosas empáticas. Técnicamente hablando, es una exageración decir incluso que un chatbot "responde" a su instrucción: es más preciso (aunque menos divertido) decir que el chatbot le añade texto de forma probabilística. Los LLM autorregresivos simplemente se entrenan para predecir iterativamente la siguiente palabra en una secuencia de texto que comienza con su entrada, aplicando patrones lingüísticos que aprendió al procesar muchos millones de muestras de texto, hasta que considere que la secuencia está completa.

Sería razonable pensar que el simple aumento de la alfabetización en IA de los empleados eliminaría el riesgo de implicación emocional con la IA. También estaría mal.

Como ha demostrado la investigación de Harvard, un placebo puede funcionar incluso cuando se sabe que es un placebo. Por ejemplo, un informe del New York Times de finales del año pasado exploró cómo los usuarios internos de Silicon Valley, incluidos muchos que trabajan en la investigación de IA de vanguardia, recurren cada vez más a Claude de Anthropic para "todo, desde asesoramiento legal hasta coaching sanitario y sesiones de terapia improvisadas". Blake Lemoine, el ingeniero de Google que afirmó que el modelo LaMDA de Google era sensible en 2022, estudió ciencias cognitivas e informática y trabajó en machine learning durante años.

¿Cómo es posible? Una explicación amplia es que las reacciones emocionales se procesan de forma intuitiva, no lógica, y cuando algo sucede a nivel intuitivo puede pasar por alto la evaluación racional por completo. La experiencia técnica proporciona poca inmunidad a este error inherente en nuestro código, porque cuando procesamos algo intuitivamente (lo que el fallecido premio Nobel Daniel Kahneman llamó “Sistema 1” o pensamiento “rápido” ), a menudo no logramos utilizar nuestro conocimiento técnico en absoluto. Por ejemplo, como Kahneman describe en su libro Pensar rápido, pensar despacio, su investigación demostró repetidamente cómo "incluso los estadísticos [son] no buenos estadísticos intuitivos".

Con respecto a los chatbots, nuestras actitudes hacia la IA suelen estar más determinadas por nuestros "modelos mentales" que por su rendimiento real. Un estudio del MIT de 2023 descubrió que "los factores no racionales, como el pensamiento supersticioso, influyen significativamente en la forma en que las personas interactúan con los sistemas de IA". Por ejemplo, los autores descubrieron una fuerte correlación entre las creencias paranormales (como la astrología) y la probabilidad de percibir incluso los resultados falsos de IA como "válidos, fiables, útiles y personalizados"3.

Los autores del artículo también aluden al tecnooptimismo de Silicon Valley como causa y resultado de este fenómeno. Del mismo modo, uninforme de Vox sobre Blake Lemoine señaló que Silicon Valley es un terreno fértil para oscuras creencias religiosas. El ritmo cada vez más rápido del desarrollo tecnológico moderno podría desempeñar un papel aquí: en las famosas palabras de Arthur Clark, "cualquier tecnología suficientemente avanzada es indistinguible de la magia".

Para complicar aún más las cosas, la alfabetización en IA podría tener un efecto adverso en la adopción de la IA: una investigación de principios de este año sugiere que saber menos sobre la IA hace que las personas estén más abiertas a tenerla en sus vidas. Los autores del artículo postulan que las personas con menor alfabetización en IA tienen más probabilidades de ver la IA como mágica o asombrosa, y que "los esfuerzos por desmitificar la IA pueden reducir inadvertidamente su atractivo". Por lo tanto, las organizaciones podrían enfrentar una tensión entre maximizar el retorno de su inversión en herramientas de IA generativa y minimizar las consecuencias emocionales del uso constante de esas herramientas.

A propósito, el estudio descubrió que esta relación entre un bajo nivel de alfabetización en IA y un alto entusiasmo por la IA es más fuerte por "utilizar las herramientas de la IA en áreas que las personas asocian con los rasgos humanos, como proporcionar apoyo emocional o asesoramiento". Al abordar tareas sin connotaciones emocionales, como analizar los resultados de las pruebas, el patrón cambió.

Cómo las organizaciones pueden establecer límites saludables para la IA

Al comprender cómo y por qué se produce el efecto ELIZA, las organizaciones pueden mitigar estos riesgos de forma proactiva sin socavar el entusiasmo de los empleados por interactuar con sus herramientas de IA generativa.

Elija su idioma con cuidado

Como Murray Shanahan, científico principal de Google DeepMind, articuló en un ensayo de 2022 ampliamente citado, la forma en que hablamos de LLM importa, no solo en artículos científicos, sino en conversaciones con responsables políticos, medios de comunicación y empleados. "El uso descuidado de términos filosóficamente cargados como 'cree' y 'piensa' es especialmente problemático", dice, "porque dichos términos ofuscan el mecanismo y fomentan activamente el antropomorfismo".

Como señala Shanahan, es normal y natural utilizar un lenguaje antropomórfico para hablar de tecnología. El GPS cree que estamos en el paso elevado de la autopista. El servidor de correo electrónico no se comunica con la red. Mi teléfono quiere que actualice su sistema operativo. Estos son ejemplos de lo que el filósofo Daniel Dennett llama la postura intencional, y en la mayoría de los casos son simplemente figuras retóricas útiles (e inofensivas). Pero cuando se trata de LLM, advierte Shanahan, "las cosas pueden ponerse un poco borrosas". Para los sistemas de IA que imitan de manera tan convincente el comportamiento más singularmente humano, el lenguaje, la tentación de tomar estas figuras retóricas literalmente es "casi abrumadora".

Por lo tanto, los tutoriales, los materiales de incorporación y las comunicaciones de la empresa deben ser muy deliberados en el lenguaje que utilizan para describir las características, la función y el propósito de las herramientas de IA a los empleados. Las empresas deben evitar la antropomorfización innecesaria en todo momento. Como ha demostrado la investigación sobre el efecto placebo de la IA, la percepción de la IA por parte de los usuarios suele estar más determinada por la forma en que se describe que por sus verdaderas capacidades4.

Piense dos veces antes de dar a los asistentes de IA avatares y voces realistas

Hacer que los modelos de IA se vean, suenen y se sientan más humanos puede aumentar la confianza5 y el compromiso,6 pero también puede aumentar el riesgo. En la tarjeta del sistema para GPT-4o, que puede generar un "habla" realista similar al humano, OpenAI señaló que "la generación de contenido a través de una voz humana de alta fidelidad puede exacerbar los problemas [de antropomorfización], lo que lleva a una confianza cada vez más mal calibrada". Durante el red teaming y las pruebas internas, OpenAI "observó a los usuarios utilizando un lenguaje que podría indicar la formación de conexiones con el modelo"7.

Incluso sin el elevado riesgo de apego emocional, las empresas deben ser conscientes de que la antropomorfización es un arma de doble filo. Un estudio de 2022 publicado en el Journal of Marketing descubrió que los chatbots antropomórficos reducían la satisfacción del cliente y la opinión de la empresa: esencialmente, los clientes tenían mayores expectativas de los chatbots humanos y una mayor decepción cuando no ofrecían un servicio de nivel humano8. Una serie de estudios de 2024 descubrió que los comentarios de un "entrenador de IA" antropomorfizado se percibían como menos útiles que los comentarios idénticos de un entrenador de IA no antropomorfizado que simplemente destacaba el papel de los investigadores humanos en su creación.

La gente podría enamorarse de un avatar realista. (Por lo general) no se enamorarán de un clip parlante.

Tenga cuidado con las señales de advertencia

El efecto ELIZA en toda regla no ocurre instantáneamente. Como ocurre con la mayoría de los asuntos emocionales, el fenómeno se afianza progresivamente. La implementación de un medio para detectar y actuar ante las señales de advertencia puede dar a las empresas la capacidad de interceptar y cerrar los problemas antes de que se conviertan en verdaderos problemas.

Los modelos de límites son una vía obvia para un sistema de detección de este tipo: supervisan las entradas y las salidas para un lenguaje indicativo de riesgos predeterminados y activan el modelo para que actúe en consecuencia. Un modelo de límite entrenado para detectar y evitar que los intercambios se desvíen hacia territorio emocional puede ayudar a evitar que las cosas vayan demasiado lejos. Pero los modelos de guardarraíl convencionales por sí solos podrían ser una solución incompleta, porque no todas las interacciones problemáticas conllevan emociones y romances manifiestos.

Incluso los empleados con una comprensión totalmente realista de la IA a veces pueden ser demasiado personales en las conversaciones sobre IA. Eso también es un problema, porque muchas empresas almacenan y analizan las interacciones con los sistemas de IA para comprender y optimizar cómo los empleados o clientes utilizan las herramientas. Esto puede poner a las organizaciones en la incómoda situación de recibir información personal sensible que, por motivos legales o morales, preferirían no manejar, información que, por lo demás, es demasiado específica y aparentemente inocua para que un modelo de barrera de seguridad pueda detectarla.

Al comprender esto, IBM está trabajando en un "sistema de preservación de la privacidad de modelos de lenguaje de gran tamaño" diseñado para evitar que los usuarios compartan en exceso con los modelos de IA. El sistema escanearía las entradas en busca de información de identificación personal, clasificaría la instrucción (para comprender su intención) y luego sustituiría la información confidencial por marcadores de posición genéricos. Solo se almacenaría una versión anonimizada de la entrada del usuario para futuros entrenamientos.

Disminuya la velocidad y cambie las cosas

El estudio del Journal of Applied Psychology de 2023 mencionado anteriormente es uno de los muchos que indican un vínculo entre la frecuencia o la duración de las interacciones con chatbot y la soledad o el uso problemático. Las implicaciones son relativamente sencillas: limitar estratégicamente el uso puede limitar los riesgos emocionales. Ejecutada correctamente, puede hacerlo sin mermar la productividad e incluso reduciendo potencialmente los costes de inferencia.

Un método más indirecto sería interrumpir periódicamente los patrones de uso, evitando que los usuarios se atasquen en un ritmo demasiado profundo. Por ejemplo, una investigación del MIT señala que intervenciones como un período de "enfriamiento" impuesto pueden ayudar a "ralentizar los juicios rápidos y fomentar un compromiso más reflexivo"6. En otras palabras, estas intervenciones podrían alejar suavemente a los usuarios del pensamiento impulsivo del Sistema 1 y hacia un pensamiento más deliberado del Sistema 2.

La interrupción periódica de los patrones del propio sistema de IA, por ejemplo, alterando su personalidad, también podría ayudar a desalentar los patrones de uso problemáticos. Un artículo del New York Times sobre una mujer enamorada de ChatGPT, que pasa muchas horas al día en la plataforma, señala que cada vez que maximiza la ventana de contexto del modelo , la "personalidad" y la memoria de su "novio" de IA se restablecen parcialmente. Cada vez que esto sucede, se lamenta, pero luego "se abstiene de ChatGPT durante unos días".

En un artículo de 2024 que exploraba las consecuencias de una importante actualización de la aplicación en Replika AI, un servicio de compañía de chatbot, los autores argumentaron que "la continuidad de la identidad es crucial para desarrollar y mantener una relación con un compañero de IA"9- La implicación contrapositiva de ese hallazgo sería que interrumpir la continuidad de la identidad de un chatbot podría ser crucial para evitar el apego emocional a un compañero de IA.

Fomentar conexiones humanas genuinas en el lugar de trabajo

Quizás la mejor manera de evitar que los empleados utilicen la IA para llenar un vacío emocional sea reducir la posibilidad de que ese vacío exista. La IA generativa puede sustituir al tedioso trabajo diario, pero no a la camaradería cotidiana de los compañeros de trabajo humanos.

Por ejemplo, un estudio sobre los patrones de uso de chatbots complementarios y su relación con la soledad encontró una correlación significativa entre la frecuencia de uso de chatbots y el aumento de la soledad o el aislamiento social, pero no para los usuarios con redes sociales sólidas en el mundo real. Los usuarios con redes sociales sólidas no solo interactuaban menos con los chatbots, sino que también experimentaban muchos menos problemas que los usuarios más ligeros sin un apoyo social similar. Por lo general, aprovechaban los chatbots con fines prácticos y recreativos, más que como sustitutos de las relaciones10. Estos hallazgos son consistentes con la hipótesis de la compensación parasocial, que afirma que las personas solitarias, aisladas y socialmente ansiosas tienen más probabilidades de entablar "relaciones" parasociales con celebridades o personas influyentes11.

Afortunadamente, este es un caso en el que la IA puede ser la solución a sus propios problemas. Si las soluciones de IA generativa de su empresa están proporcionando los aumentos de productividad que tienen el potencial de proporcionar, no debería faltar tiempo ni dinero para algunas fiestas con pizza.

AI Academy

Ponga la IA a trabajar para el servicio de atención al cliente

Vea cómo la IA generativa puede satisfacer a los clientes con una experiencia más fluida y aumentar la productividad de la organización en estas tres áreas clave: autoservicio, agentes humanos y operaciones del centro de contacto.

Soluciones relacionadas
IBM watsonx Assistant

Ofrezca una atención al cliente coherente e inteligente con la IA conversacional. Explore cómo puede acelerar las comunicaciones con los clientes, aumentar la productividad y mejorar sus resultados con IBM watsonx Assistant.

Explore watsonx Assistant
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Soluciones de inteligencia artificial

Ponga la IA a trabajar en su negocio con la experiencia líder en IA del sector de IBM y junto a su cartera de soluciones.

Explore las soluciones de IA
Dé el siguiente paso

Cree sin esfuerzo asistentes de IA generativa que ofrezcan experiencias de autoservicio fluidas a los clientes en cualquier dispositivo o canal, ayuden a aumentar la productividad de los empleados y a escalar en toda su empresa.

Explore watsonx Assistant Descubra watsonx.ai
Notas a pie de página

1. Computer Power and Human Reason. Weizenbaum. 1976.
2. "Affiliation Motivation in Everyday Experience: A Theoretical Comparison".  Journal of Personality and Social Psychology 70(3):513-522.  1996.
3. "Super-intelligence or Superstition? Exploring Psychological Factors Influencing Belief in AI Predictions about Personal Behavior".arXiv. 19 de diciembre de 2024.
4. "The Placebo Effect of Artificial Intelligence in Human-Computer Interaction". ACM Transactions on Computer-Human Interaction. Volumen 29 (Número 6). 11 de enero de 2023.
5. "The mind in the machine: Anthromorphism increases trust in an autonomous vehicle". Journal of Experimental Social Psychology. Volumen 52. Mayo de 2014.
6. "Anthropomorphism in artificial intelligence: a game-changer for brand marketing". Future Business Journal. Volumen 11. 2025.
7. "GPT-4o System Card". OpenAI. 8 de agosto de 2024.
8. "Blame the Bot: Anthropomorphism and Anger in Customer-Chatbot Interactions".Journal of Marketing. Volumen 86. 2022.
9. "Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships".Harvard Business School Working Paper Series. 2024.
10. "Chatbot Companionship: A Mixed-Methods Study of Companion Chatbot Usage Patterns and Their Relationship to Loneliness in Active Users".arXiv. 18 de diciembre de 2024.
11. "Parasocial Compensation Hypothesis: Predictors of Using Parasocial Relationships to Compensate for Real-Life Interaction". Imagination, Cognition and Personality. Volumen 35. Agosto de 2015.