Los empleados se encuentran cada vez más trabajando no solo con compañeros de trabajo humanos, sino también con asistentes de IA conversacional y agentes de IA. Las implicaciones psicológicas de este cambio podrían ser incluso más complejas que las implicaciones tecnológicas y financieras: cuando millones de empleados interactúan con compañeros de trabajo de IA todos los días, la historia sugiere que algunos se vincularán emocionalmente.
Los riesgos asociados se extienden mucho más allá de la pérdida de productividad por el tiempo dedicado a charlar con chatbots. Los verdaderos peligros organizacionales de la participación emocional con la IA incluyen la exposición a riesgos de RR. HH. (como que los empleados compartan demasiado información personal confidencial) y riesgos de ciberseguridad (como una mayor susceptibilidad a la ingeniería social), debacles de relaciones públicas o incluso daños físicos.
Las empresas e instituciones están invirtiendo fuertemente en soluciones generativas impulsadas por IA en busca de su tremenda ventaja. Las empresas que buscan garantizar un retorno de su inversión están, naturalmente, incentivadas para asegurarse de que sus empleados realmente estén utilizando estas herramientas de IA. Pero en una era en la que los director ejecutivo (CEO) de los medios coquetean con los subordinados generados por la IA y los adultos razonables que se enamoran por completo de los modelos de IA, maximizar indiscriminadamente el compromiso de los empleados con la IA puede tener su propio costo.
Los riesgos emocionales de la IA están aumentando no sólo por lo poderosas y convincentes que se están volviendo los grandes modelos lingüísticos (LLM), sino por la escala a la que las personas interactuarán con ellos todo el día en el trabajo. Sí, es intuitivamente cierto que a medida que los sistemas de IA se vuelven más sofisticados, la gente tiende cada vez más a antropomorfizarlos, pero los humanos han desarrollado vínculos con los chatbots desde los primeros días del procesamiento de lenguaje natural (PLN).
En 1966, Joseph Weizenbaum creó un programa de chatbot llamado ELIZA que aplicaba reglas simples para transformar el lenguaje de la entrada de una persona en una respuesta del chatbot. Uno de los guiones del programa, apodado "DOCTOR", tenía como objetivo imitar a un psicoterapeuta rogeriano respondiendo de forma genérica o reformulando la entrada del usuario en forma de pregunta:
Humano: Bueno, mi novio me hizo venir aquí. ELIZA: ¿Tu novio te hizo venir aquí? Humano: Dice que estoy deprimida la mayor parte del tiempo. ELIZA: Lamento escuchar que estás deprimida. Humano: Es verdad. No estoy contenta. ELIZA: ¿Crees que venir aquí te ayudará a no ser infeliz?
Como explicó Weizenbaum una década después, le "sorprendió ver lo rápido y profundamente que la gente que conversaba con DOCTOR se implicaba emocionalmente con la computadora y lo inequívocamente que lo antropomorfizaban". Ni siquiera su secretaria, que le vio trabajar en el programa durante meses y sabía que estaba diseñado básicamente para regurgitar las propias palabras del usuario, era inmune al impulso de poner personal con el chatbot. "Luego de unos pocos intercambios con ella", cuenta Weizenbaum, "me pidió que saliera de la habitación".1
La perenne predisposición de la humanidad a involucrarse emocionalmente en la IA se conoce desde entonces como el efecto ELIZA. Su causa no reside en la arquitectura de los LLM avanzados, sino en nuestra propia programación emocional.
A lo largo de muchos milenios, la evolución cableó nuestros cerebros para operar bajo la suposición de que, hasta hace muy poco, era esencialmente infalible: si algo parece humano y se comunica como un humano, es humano. Proceda en consecuencia.
Con esa suposición razonable, desarrollamos un intrincado sistema biológico de interacciones y expectativas sociales que gobierna todo, desde los encuentros individuales hasta las sociedades tribales y el lugar de trabajo moderno. Pero los modelos de lenguaje conversacional socavan esa suposición y, por lo tanto, alteran nuestra biología social.
En 1996, O'Connor y Rosenblood propusieron el "modelo de afiliación social" para describir el proceso regulatorio instintivo a través del cual las interacciones sociales, de forma automática y subconsciente, instigan una búsqueda de ciertas señales verbales y no verbales. Estas señales proporcionan información sobre la calidad de esas interacciones y sus implicaciones, como si la persona con la que interactuamos nos acepta y valora. Su ausencia, a su vez, desencadena la actividad cerebral que impulsa el comportamiento destinado a abordar la situación.2
En un artículo de 2023 en el Journal of Applied Psychology, Tang et al estudiaron el modelo de afiliación social en el contexto de las personas que interactúan con los sistemas de IA en el lugar de trabajo. Intuyeron que, como los sistemas de IA pueden imitar de forma convincente las interacciones humanas, pero no pueden reproducir realmente los tipos de feedback social complementario que hemos evolucionado para detectar -sonrisa, risa, encogimiento de hombros, ceño fruncido, pupila dilatada-, los procesos reguladores del cerebro buscan señales que no existen. En otras palabras, la conversación de un empleado con la IA genera necesidades emocionales instintivas que la IA no puede saciar.
El documento se centró en dos tipos de reacciones a esta privación social impulsada por IA: el comportamiento pasivo, desadaptativo (como el aumento de la abstinencia y la soledad) y el comportamiento activo, adaptativo (como un mayor impulso para buscar una conexión social positiva). En diversas industrias y países, los autores encontraron de hecho que una mayor interacción con los “compañeros de trabajo de IA” se correlacionaba con una mayor soledad, así como con el insomnio, el consumo de alcohol después del trabajo o ambos. De manera más productiva, los autores también encontraron que para algunos participantes, el aumento de la frecuencia de interacción de IA a menudo se correlacionaba con un mayor comportamiento prosocial (como ayudar a los compañeros de trabajo) también.
Pero para los empleados de cierta disposición con pocas oportunidades de interacción persona a persona, como un trabajador remoto, un colaborador individual en un rol aislado o alguien con ansiedad social, ese mayor impulso por la conexión social a veces puede tener solo una salida disponible. : el “compañero de trabajo” de IA siempre activo. Y los LLM están, en un sentido bastante literal, capacitados para decirnos lo que queremos escuchar. El prospecto tiene un atractivo obvio.
Antropomorfizar a un colega de IA podría ser simplemente una forma de evitar la disonancia cognitiva de recurrir a un programa informático para la interacción humana.
Para ser claros, los modelos de IA, incluso los LLM más vanguardistas, no tienen emociones ni empatía, a pesar de su capacidad para decir cosas empáticas. Técnicamente hablando, es exagerado incluso decir que un chatbot “responde” a tu instrucción: es más preciso (aunque menos divertido) decir que el chatbot le agrega texto probabilísticamente . Los LLM autorregresivos simplemente están entrenados para predecir iterativamente la siguiente palabra en una secuencia de texto que comienza con su entrada, aplicando patrones lingüísticos que aprendió al procesar muchos millones de muestras de texto, hasta que considere la secuencia completa.
Sería razonable pensar que el simple hecho de aumentar la alfabetización en IA de los empleados eliminará el riesgo de implicación emocional con IA. También estaría mal.
Como lo demostró una investigación de Harvard, un placebo puede funcionar incluso cuando sabes que es un placebo. Por ejemplo, un informe del New York Times de finales del año pasado exploró cómo los usuarios internos de Silicon Valley, incluidos muchos que trabajan en la investigación de IA de vanguardia, recurren cada vez más a Claude de Anthropic para "todo, desde asesoramiento legal hasta coaching sanitario y sesiones de terapia improvisadas". Blake Lemoine, el ingeniero de Google que afirmó famosamente en 2022 que el modelo LaMDA de Google era sensible , estudió ciencias cognitivas e informáticas y trabajó en machine learning durante años.
¿Cómo es esto posible? Una explicación amplia es que las reacciones emocionales se procesan de forma intuitiva, no lógica, y cuando algo sucede en el nivel intuitivo puede pasar por alto la evaluación racional por completo. La experiencia técnica proporciona poca inmunidad a este error inherente en nuestro código, porque cuando procesamos algo de manera intuitiva (lo que el difunto premio Nobel Daniel Kahneman llamó "Sistema 1" o pensamiento "rápido"),a menudo no utilizamos nuestros conocimientos técnicos en absoluto. . Por ejemplo, como Kahneman describe en su libro Thinking, Fast and Slow, su investigación demostró repetidamente cómo "incluso los estadísticos [son] no buenos estadísticos intuitivos".
En lo que respecta a los chatbots, nuestra actitud hacia la IA suele estar más determinada por nuestros "modelos mentales" de ella que por su rendimiento real. Un estudio del MIT de 2023 descubrió que "factores no racionales, como el pensamiento supersticioso, influyen significativamente en la forma en que los individuos se relacionan con los sistemas de IA." Por ejemplo, los autores descubrieron una fuerte correlación entre las creencias paranormales (como la astrología) y la probabilidad de percibir incluso las salidas falsas de IA como “válidas, confiables, útiles y personalizadas. "3
Los autores del trabajo también aluden al tecno-optimismo de Silicon Valley como causa y resultado de este fenómeno. De igual manera, Vox informando sobre Blake Lemoine señaló que Silicon Valley es terreno fértil para creencias religiosas oscuras. El ritmo cada vez más rápido del desarrollo tecnológico moderno podría desempeñar un papel aquí: en las famosas palabras de Arthur Clark, "cualquier tecnología suficientemente avanzada es indistinguible de la magia".
Para complicar aún más las cosas, la alfabetización en IA podría tener un efecto adverso en la adopción de la IA: una investigación de principios de este año sugiere que saber menos sobre la IA hace que las personas estén más abiertas a tenerla en sus vidas. Los autores del artículo postulan que las personas con menor alfabetización en IA tienen más probabilidades de ver la IA como mágica o impresionante, y que "los esfuerzos para desmitificar la IA pueden reducir inadvertidamente su atractivo". Por lo tanto, las organizaciones podrían enfrentar una tensión entre maximizar el retorno de su inversión en herramientas de IA generativa y minimizar las consecuencias emocionales del uso constante de esas herramientas.
El estudio encontró que este vínculo entre la baja alfabetización en IA y el alto entusiasmo por la IA es más fuerte para "usar herramientas de IA en áreas que las personas asocian con rasgos humanos, como brindar apoyo emocional o asesoramiento". Cuando se trataba de tareas sin connotaciones emocionales, como analizar los resultados de las pruebas, el patrón se invirtió.
Armadas con una comprensión de cómo y por qué se produce el efecto ELIZA, las organizaciones pueden mitigar proactivamente estos riesgos sin socavar el entusiasmo de los empleados por comprometerse con sus herramientas generativas de IA.
Como Murray Shanahan, científico principal de Google DeepMind, articuló en un ensayo de 2022 ampliamente citado, la forma en que hablamos de los LLM es importante, no solo en artículos científicos, sino también en debates con responsables políticos, medios de comunicación y empleados. "El uso descuidado de términos filosóficamente cargados como 'cree' y 'piensa' es especialmente problemático", dice, "porque tales términos ofuscan el mecanismo y fomentan activamente el antropomorfismo".
Como señala Shanahan, es normal y natural usar lenguaje antropomórfico para hablar de tecnología. El GPS cree que estamos en el paso elevado de la autopista. El servidor de correo electrónico no se comunica con la red. Mi teléfono quiere que actualice su sistema operativo. Estos son ejemplos de lo que el filósofo Daniel Dennett llama la postura intencional, y en la mayoría de los casos son simplemente figuras retóricas útiles (e inofensivas). Pero cuando se trata de LLM, advierte Shanahan, "las cosas pueden ponerse un poco borrosas". Para los sistemas de IA que imitan de manera tan convincente el comportamiento más singularmente humano, el lenguaje, la tentación de tomar estas figuras retóricas literalmente es "casi abrumadora".
Por lo tanto, los tutoriales, los materiales de incorporación y las comunicaciones de la empresa deben ser muy deliberados en el lenguaje que utilizan para describir las características, la función y el propósito de las herramientas de IA a los empleados. Las empresas deben evitar la antropomorfización innecesaria en todo momento. Como ha demostrado la investigación sobre el efecto placebo de la IA, la percepción de la IA por parte de los usuarios suele estar más determinada por la forma en que se describe que por sus verdaderas capacidades.4
Hacer que los modelos de IA se vean, suenen y sientan más humanos puede aumentar la confianza5 y el compromiso,6 pero también puede aumentar el riesgo. En la tarjeta del sistema para GPT-4o (que puede generar un "habla" realista similar a la humana), OpenAI señaló que "la generación de contenido a través de una voz similar a la humana y de alta fidelidad puede exacerbar los problemas [de antropomorfización], lo que lleva a una confianza cada vez más descalibrada". Durante el trabajo en equipo y las pruebas internas, OpenAI “observó a los usuarios usar un lenguaje que podría indicar la formación de conexiones con el modelo”.7
Incluso sin el elevado riesgo de apego emocional, las empresas deben ser conscientes de que la antropomorfización es un arma de doble filo. Un estudio de 2022 publicado en el Journal of Marketing encontró que los chatbots antropomórficos reducían la satisfacción del cliente y la opinión de la empresa: esencialmente, los clientes tenían mayores expectativas de chatbots similares a los humanos y una mayor decepción cuando no brindaban un servicio de nivel humano.8 Una serie de estudios de 2024 encontró que la retroalimentación de un "entrenador de IA" antropomorfizado se percibía como menos útil que la retroalimentación idéntica de un entrenador de IA no antropomorfizado que simplemente destacaba el papel de los investigadores humanos en su creación.
La gente podría enamorarse de un avatar realista. (Por lo general) no se enamorarán de un clip parlante.
El efecto ELIZA en toda regla no ocurre instantáneamente. Como ocurre con la mayoría de los asuntos emocionales, el fenómeno se afianza progresivamente. La implementación de un medio para detectar y actuar sobre las señales de advertencia puede dar a las empresas la capacidad de interceptar y cerrar los problemas antes de que se conviertan en verdaderos problemas.
Los modelos de medidas de seguridad son una vía obvia para un sistema de detección de este tipo: monitorean las entradas y salidas en busca de lenguaje indicativo de riesgos predeterminados y activan el modelo para que actúe en consecuencia. Un modelo de barrera entrenado para detectar y evitar que los intercambios se desvíen hacia territorio emocional puede ayudar a evitar que las cosas vayan demasiado lejos. Pero los modelos de barreras de seguridad convencionales por sí solos podrían ser una solución incompleta, porque no todas las interacciones problemáticas implican emociones y romances manifiestos.
Incluso los empleados con una comprensión totalmente realista de la IA a veces pueden ser demasiado personales en las conversaciones sobre IA. Eso también es un problema, porque muchas empresas almacenan y analizan interacciones con sistemas de IA para comprender y optimizar cómo los empleados o clientes utilizan las herramientas. Esto puede poner a las organizaciones en la incómoda posición de recibir información personal confidencial que, por razones legales o morales, preferirían no manejar, información que de otro modo sería demasiado específica y aparentemente inocua para entrenar a un modelo de barrera para que la detecte.
Al comprender esto, IBM está trabajando en un "sistema de preservación de la privacidad de modelos de lenguaje de gran tamaño" diseñado para evitar que los usuarios compartan en exceso con los modelos de IA. El sistema escanearía las entradas en busca de información de identificación personal, clasificaría la instrucción ofensiva (para comprender su intención) y luego sustituiría la información confidencial con marcadores de posición genéricos. Solo se almacenaría una versión anónima de la entrada del usuario para futuros entrenamientos.
El estudio de 2023 del Journal of Applied Psychology mencionado anteriormente es uno de los muchos que indican un vínculo entre la frecuencia o la duración de las interacciones del chatbot y la soledad o el uso problemático. Las implicaciones son relativamente sencillas: limitar estratégicamente el uso puede limitar los riesgos emocionales. Ejecutado correctamente, puede hacerlo sin reducir la productividad e incluso reducir potencialmente los costos de inferencia.
Un método más indirecto sería interrumpir periódicamente los patrones de uso, evitando que los usuarios se atasquen en un ritmo demasiado profundo. Por ejemplo, la investigación del MIT señala que intervenciones como un período de "enfriamiento" impuesto pueden ayudar a "ralentizar los juicios rápidos y fomentar un compromiso más reflexivo".6 En otras palabras, tales intervenciones podrían alejar suavemente a los usuarios del pensamiento impulsivo del Sistema 1 y hacia un pensamiento más deliberado del Sistema 2.
Interrumpir periódicamente los patrones del propio sistema de IA, por ejemplo modificando su personalidad, también podría ayudar a desalentar patrones de uso problemáticos. Un artículo del New York Times sobre una mujer enamorada de ChatGPT, que pasa muchas horas al día en la plataforma, señala que cada vez que maximiza la ventana de contexto del modelo , la "personalidad" y la memoria de su "novio" de IA se restablecen parcialmente. Cada vez que esto sucede, ella se lamenta, pero luego “se abstiene de ChatGPT durante unos días”.
En un documento de 2024 que exploraba las consecuencias de una importante actualización de la aplicación en Replika IA, un servicio de compañía de chatbot, los autores argumentaron que "la continuidad de la identidad es crucial para desarrollar y mantener una relación con un compañero de IA".9 La implicación contrapositiva de ese hallazgo sería que interrumpir la continuidad de la identidad de un chatbot podría ser crucial para evitar el apego emocional a un compañero de IA.
Quizás la mejor manera de evitar que los empleados utilicen la IA para llenar un vacío emocional es reducir la posibilidad de que ese vacío exista. La IA generativa puede reemplazar el tedioso trabajo diario, pero no reemplaza la camaradería diaria de los compañeros de trabajo humanos.
Por ejemplo, un estudio sobre los patrones de uso del chatbot complementario y su relación con la soledad encontró una correlación significativa entre la frecuencia de uso del chatbot y el aumento de la soledad o el aislamiento social, pero no para los usuarios con redes sociales sólidas en el mundo real. Los usuarios con redes sociales sólidas no solo interactuaron menos con los chatbots, sino que también experimentaron muchos menos problemas que los usuarios más ligeros sin un apoyo social similar. Por lo general, aprovecharon los chatbots con fines prácticos y recreativos, en lugar de como sustitutos de lasrelaciones. 10 Tales hallazgos son consistentes con la hipótesis de la compensación parasocial, que establece que las personas solitarias, aisladas y socialmente ansiosas tienen más probabilidades de entablar “relaciones” parasociales con celebridades o personas influyentes.11
Afortunadamente, esta es una instancia en la que la IA puede ser la solución a sus propios problemas. Si las soluciones de IA generativa de su empresa están brindando las ganancias de productividad que tienen el potencial de proporcionar, no debería faltar tiempo ni dinero para algunas fiestas de pizza.
Entregue una atención al cliente coherente e inteligente con IA conversacional. Explore cómo puede acelerar las comunicaciones con los clientes, aumentar la productividad y mejorar sus resultados con IBM watsonx Assistant.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
Ponga la IA a trabajar en su negocio con la experiencia en IA líder en la industria y la cartera de soluciones de IBM a su lado.
1. Poder de la computadora y razón humana, Weizenbaum, 1976
2. "La motivación de afiliación en la experiencia cotidiana: una comparación teórica", Revista de personalidad y psicología social 70(3):513-522, 1996
3. "¿Superinteligencia o superstición? Explorando los factores psicológicos que influyen en la creencia en las predicciones de la IA sobre el comportamiento personal".arXiv, 19 de diciembre de 2024
4. "El efecto placebo de la inteligencia artificial en la interacción humano-computadora", ACM Transactions on Computer-Human Interaction Volumen 29 (Número 6), 11 de enero de 2023
5. "La mente en la máquina: el antropomorfismo aumenta la confianza en un vehículo autónomo". Revista de Psicología Social Experimental,Volumen 52, mayo de 2014
6. "Antropomorfismo en inteligencia artificial: un punto de inflexión para el marketing de marca". Revista de Negocios del Futuro,Volumen 11, 2025
7. "Tarjeta del sistema GPT-4o", OpenAI, 8 de agosto de 2024
8. "La culpa es del bot: antropomorfismo e ira en las interacciones entre clientes y chatbots".Revista de Marketing Volumen 86, 2022
9. "Lecciones de una actualización de la aplicación en Replika AI: Discontinuidad de la identidad en las relaciones entre humanos y IA".Serial de documentos de trabajo de la Escuela de Negocios de Harvard, 2024
10. "Compañerismo con chatbots: un estudio de métodos mixtos sobre los patrones de uso de chatbots de compañía y su relación con la soledad en usuarios activos".arXiv, 18 de diciembre de 2024
11. "Hipótesis de compensación parasocial: Predictores del uso de relaciones parasociales para compensar la interacción en la vida real", Imaginación, cognición y personalidad Volumen 35, agosto de 2015