Os funcionários cada vez mais trabalham não só com colegas humanos, mas também com assistentes de IA conversacional e agentes de IA. As implicações psicológicas dessa mudança podem ser ainda mais complexas do que as implicações tecnológicas e financeiras. Quando milhões de funcionários interagem com colegas de trabalho de IA todos os dias, a história mostra que alguns acabam desenvolvendo vínculos emocionais.
Os riscos envolvidos vão muito além da perda de produtividade causada pelas conversas informais com chatbots. Os verdadeiros riscos organizacionais do envolvimento emocional com a IA incluem exposição a riscos de RH (como o compartilhamento excessivo de informações pessoais sensíveis por parte dos funcionários) e riscos de cibersegurança (como a maior vulnerabilidade à engenharia social), crises de imagem ou até mesmo danos físicos.
Empresas e instituições estão investindo fortemente em soluções orientadas por IA generativa para alcançar seus enormes benefícios. Empresas que buscam garantir retorno sobre o investimento têm, naturalmente, o incentivo de assegurar que seus funcionários realmente utilizem essas ferramentas de IA. Mas, em uma era em que CEOs da mídia flertam com assistentes gerados por IA e adultos considerados racionais se apaixonam por modelos de IA, incentivar indiscriminadamente o engajamento dos funcionários com a IA pode trazer consequências.
Os riscos emocionais relacionados à IA vêm crescendo não apenas pela força e persuasão dos grandes modelos de linguagem (LLMs), mas também pela escala de interações que as pessoas terão com eles durante todo o dia de trabalho. Sim, é intuitivamente verdade que, à medida que os sistemas de IA se tornam mais sofisticados, as pessoas se tornam cada vez mais propensas a antropomorfizá-los, mas os humanos têm desenvolvido apegos a chatbots desde os primeiros dias do processamento de linguagem natural (NLP).
Em 1966, Joseph Weizenbaum criou um programa de chatbot chamado ELIZA, que usava regras simples para transformar a linguagem da entrada do usuário em uma resposta do próprio chatbot. Um dos roteiros do programa, apelidado de “DOUTOR”, tinha o objetivo de imitar um psicoterapeuta rogeriano, respondendo de forma genérica ou reformulando a fala do usuário em forma de pergunta:
Humano: bem, meu namorado me fez vir aqui. ELIZA: seu namorado fez você vir aqui? Humano: ele diz que eu fico deprimido na maior parte do tempo. ELIZA: lamento saber que você está deprimida. Humano: é verdade. Estou infeliz. ELIZA: você acha que vir aqui vai te ajudar a não ser infeliz?
Como Weizenbaum explicou uma década depois, ele se surpreendeu ao ver como as pessoas que conversavam com o DOUTOR se envolviam emocionalmente de forma rápida e intensa com o computador, além de humanizá-lo sem hesitação. Nem mesmo sua secretária, que o viu trabalhar no programa por meses e sabia que ele havia sido criado basicamente para repetir as palavras do usuário, resistiu ao impulso de se abrir pessoalmente com o chatbot. "Depois de apenas algumas trocas com ele", relatou Weizenbaum, "Ela me pediu para sair da sala."1
A predisposição perene da humanidade de se envolver emocionalmente com a IA passou a ser conhecida como o efeito ELIZA. Sua causa não está na arquitetura de LLMs avançados, mas em nossa própria programação emocional.
Ao longo de milênios, a evolução programou nosso cérebro para funcionar com uma premissa que, até pouco tempo atrás, raramente falhava: se algo parece humano e se comunica como um humano, é humano. Aja de acordo.
Com base nessa suposição plausível, desenvolvemos um sistema biológico complexo de interações sociais e expectativas, que rege desde encontros pessoais até estruturas tribais e ambientes de trabalho atuais. Mas os modelos de linguagem conversacional enfraquecem essa suposição, desestruturando nossa biologia social.
Em 1996, O’Connor e Rosenblood propuseram o “modelo de afiliação social” para descrever o processo regulador instintivo pelo qual as interações sociais, de forma automática e inconsciente, acionam uma busca por determinados sinais verbais e não verbais. Esses sinais fornecem informações sobre a qualidade dessas interações e suas implicações, como se a pessoa com quem estamos interagindo nos aceita e nos valoriza. A ausência desses sinais, por sua vez, ativa áreas do cérebro que induzem comportamentos voltados a resolver a situação.2
Em um artigo publicado em 2023 no Journal of Applied Psychology, Tang et al analisaram o modelo de afiliação social no contexto de interações entre pessoas e sistemas de IA no ambiente de trabalho. Eles intuíram que, como os sistemas de IA podem imitar de forma convincente as interações humanas, mas não conseguem replicar verdadeiramente os tipos de feedback social rico e complementar que evoluímos para detectar (como um sorriso, uma risada, um dar de ouvido, testa encadeada, uma aluno dilatado), os processos regulatórios do cérebro vão à procura. para sinais ausentes. Em outras palavras, a conversa de um funcionário com a IA gera necessidades emocionais instintivas que a IA não consegue satisfazer.
O artigo analisou dois tipos de reação a essa privação social orientada por IA: comportamentos passivos, desadaptativos (como maior isolamento e solidão), e comportamentos ativos, adaptativos (como o aumento do desejo de buscar conexões sociais positivas). Os autores identificaram, em diversos setores e países, que quanto mais os profissionais interagiam com “colegas de trabalho de IA”, maior era a sensação de solidão, além de haver correlação com insônia, consumo de álcool após o expediente ou ambos. De forma mais positiva, os autores também descobriram que, para alguns participantes, a maior frequência de interação com IA estava associada a um aumento no comportamento pró-social, como ajudar colegas de trabalho.
Mas, para funcionários com características específicas e poucas chances de interação humana, como quem trabalha remotamente, atua isoladamente ou convive com ansiedade social, essa necessidade crescente de conexão social pode acabar encontrando como única saída o “colega de IA” sempre disponível. E os LLMs são, em um sentido bastante literal, treinados para nos dizer o que queremos ouvir. A perspectiva tem um apelo óbvio.
Atribuir características humanas a um colega de IA pode ser apenas uma forma de evitar a dissonância cognitiva causada por recorrer a um programa de computador para interações humanas.
É importante esclarecer: os modelos de IA, inclusive os LLMs mais sofisticados, não sentem empatia nem emoções, embora consigam formular respostas que pareçam empáticas. Tecnicamente, é exagero dizer que um chatbot “responde” ao seu prompt. O mais correto (ainda que menos interessante) seria dizer que ele anexa texto de forma probabilística à entrada. Os LLMs autorregressivos são treinados para prever, de forma iterativa, a próxima palavra de uma sequência que começa com o seu input, aplicando padrões linguísticos aprendidos após processar milhões de textos, até considerar a sequência finalizada.
Seria razoável supor que apenas aumentar o conhecimento em IA dos funcionários bastaria para eliminar o risco de envolvimento emocional com a tecnologia. Também seria errado.
Como a pesquisa de Harvard mostrou, um placebo pode funcionar mesmo quando você sabe que é um placebo. Por exemplo, uma reportagem do New York Times publicada no fim do ano passado mostrou como especialistas do Vale do Silício, inclusive pesquisadores de ponta em IA, têm recorrido cada vez mais ao Claude, da Anthropic, para “tudo, desde orientação jurídica até aconselhamento de saúde e sessões improvisadas de terapia.” Blake Lemoine, o engenheiro do Google que, em 2022, afirmou que o modelo LaMDA da empresa era senciente, estudou ciências cognitivas e da computação e trabalhou com aprendizado de máquina por anos.
Como isso é possível? Uma explicação ampla é que as reações emocionais são processadas de forma intuitiva, não lógica, e, quando algo ocorre nesse nível, pode escapar completamente da análise racional. Mesmo quem tem domínio técnico não está imune a essa falha do nosso “código”, pois, ao agir de forma intuitiva, como descrevia o falecido Nobel Daniel Kahneman com o conceito de “Sistema 1” ou pensamento rápido, muitas vezes deixamos de aplicar qualquer conhecimento técnico. Por exemplo, como Kahneman relata em sua obra fundamental Rápido e Devagar: Duas Formas de Pensar, sua pesquisa mostrou repetidas vezes que “nem mesmo os estatísticos são bons estatísticos intuitivos”.
No caso dos chatbots, nossas atitudes em relação à IA geralmente são moldadas mais pelos “modelos mentais” que criamos sobre ela do que pelo seu desempenho real. Um estudo do MIT publicado em 2023 revelou que “fatores não racionais, como o pensamento supersticioso, influenciam significativamente a forma como as pessoas interagem com sistemas de IA.” Por exemplo, os autores encontraram uma forte correlação entre crenças paranormais (como astrologia) e a tendência de considerar respostas falsas de IA como “válidas, confiáveis, úteis e personalizadas”.3
Os autores do estudo também fazem referência ao tecno-otimismo do Vale do Silício, apontando-o tanto como causa quanto como consequência desse fenômeno. Da mesma forma, uma reportagem da Vox sobre Blake Lemoine observou que o Vale do Silício é um terreno fértil para crenças religiosas obscuras. A aceleração constante do desenvolvimento tecnológico moderno pode influenciar esse cenário. Como disse Arthur Clark, “qualquer tecnologia suficientemente avançada é indistinguível da magia”.
Para complicar ainda mais, o conhecimento em IA pode ter efeito contrário na sua adoção: uma pesquisa recente apontou que saber menos sobre IA torna as pessoas mais receptivas à presença dela no dia a dia. Os autores do estudo sugerem que pessoas com menor conhecimento em IA tendem a enxergar a tecnologia como algo mágico ou impressionante, e que “esforços para desmistificar a IA podem, sem querer, diminuir seu apelo”. As organizações podem enfrentar uma tensão entre maximizar o retorno sobre o investimento em ferramentas de IA generativa e minimizar os impactos emocionais causados pelo uso constante dessas ferramentas.
De forma reveladora, o estudo mostrou que a relação entre baixo conhecimento em IA e entusiasmo elevado foi mais forte quando se tratava de “usar ferramentas de IA em áreas associadas a características humanas, como oferecer apoio emocional ou orientação”. Já em tarefas sem conotação emocional, como a análise de resultados de testes, o padrão se inverteu.
Ao compreenderem como e por que o efeito ELIZA ocorre, as organizações conseguem mitigar esses riscos de forma proativa sem prejudicar o entusiasmo dos funcionários em utilizar ferramentas de IA generativa.
Como destacou Murray Shanahan, cientista principal do Google DeepMind, em um ensaio amplamente citado de 2022, a forma como falamos sobre LLMs faz diferença, não apenas em artigos científicos, mas também nas conversas com autoridades, mídia e colaboradores. “O uso descuidado de termos carregados filosoficamente, como 'acredita' e 'pensa', é especialmente problemático”, afirma ele, “pois esses termos obscurecem o funcionamento do sistema e incentivam o antropomorfismo.”
Como observa Shanahan, é algo normal e natural usar linguagem antropomórfica ao falar sobre tecnologia. O GPS acha que estamos no viaduto. O servidor de e-mail não está conversando com a rede. Meu celular quer que eu atualize o sistema operacional.Esses são exemplos do que o filósofo Daniel Dennett chama de postura intencional, e na maioria dos casos tratam-se apenas de figuras de linguagem úteis (e inofensivas). Mas, no caso dos LLMs, Shanahan alerta que “as coisas podem ficar um pouco confusas”. Diante de sistemas de IA que imitam com tanta precisão o comportamento mais distintivamente humano, a linguagem, a tentação de interpretar essas figuras de linguagem ao pé da letra é “quase irresistível”.
Por isso, tutoriais, materiais de integração e comunicações internas devem ser bastante criteriosos na linguagem usada para explicar aos funcionários as funcionalidades, o funcionamento e o propósito das ferramentas de IA. As empresas devem evitar ao máximo o uso desnecessário de linguagem que humanize a IA. Como mostram os estudos sobre o efeito placebo da IA, a percepção dos usuários costuma ser moldada mais pela forma como ela é descrita do que pelos seus reais recursos.4
Deixar os modelos de IA com aparência, voz e comportamento mais humanos pode aumentar a confiança5 e o engajamento6, mas também eleva os riscos. No cartão do sistema para GPT-4o, que pode gerar "fala" realista com traços humanos, a OpenAI observou que “a produção de conteúdo com uma voz humana de alta fidelidade pode agravar problemas de [antropomorfização], gerando uma confiança cada vez mais equivocada”. Durante os testes internos e as simulações de risco, a OpenAI “observou usuários utilizando linguagem que pode indicar a formação de vínculos com o modelo”.7
Mesmo sem o risco elevado de vinculação emocional, as empresas devem estar cientes de que a antropomorfização é uma espada de dois gumes. Um estudo de 2022 publicado no Journal of Marketing revelou que chatbots antropomórficos reduziram a satisfação dos clientes e a percepção sobre a empresa: em resumo, os clientes criaram expectativas mais altas para chatbots com aparência humana e se frustraram quando o atendimento não correspondeu ao padrão humano.8 Uma série de estudos conduzida em 2024 mostrou que os usuários consideraram menos útil o feedback de um “técnico de IA” antropomorfizado do que o mesmo feedback vindo de um técnico de IA não antropomorfizado que apenas destacava o papel de pesquisadores humanos na sua criação.
As pessoas podem se apaixonar por um avatar realista. Eles (geralmente) não se apaixonam por um clipe de papel falante.
O efeito ELIZA completo não acontece de forma imediata. Como acontece com questões emocionais em geral, esse fenômeno se desenvolve de forma gradual. Ao adotar mecanismos para identificar e agir diante de sinais de alerta, as empresas podem intervir antes que os problemas ganhem proporções maiores.
Os modelos de contenção são uma solução evidente para esse tipo de sistema de detecção: eles monitoram inputs e produções em busca de linguagem associada a riscos predefinidos e acionam o modelo para reagir de forma adequada. Um modelo de contenção treinado para identificar e evitar interações com carga emocional pode ajudar a impedir que a situação fuja do controle. No entanto, os modelos de contenção convencionais podem ser uma solução incompleta, já que nem toda interação problemática envolve emoção explícita ou romance.
Mesmo funcionários que compreendem perfeitamente o funcionamento da IA podem, em certos momentos, se envolver demais nas conversas com o sistema. Isso também representa um problema, já que muitas empresas armazenam e analisam as interações com sistemas de IA para entender e otimizar como os funcionários ou clientes estão utilizando essas ferramentas. Isso pode colocar as organizações em uma situação delicada, recebendo informações pessoais sensíveis que, por razões legais ou éticas, elas prefeririam não manipular, dados específicos demais e aparentemente inofensivos para serem detectados por um modelo de contenção.
Diante disso, a IBM está desenvolvendo um “sistema de preservação de privacidade para grandes modelos de linguagem” com o objetivo de evitar que os usuários compartilhem informações em excesso com modelos de IA. O sistema analisaria as entradas em busca de informações pessoais identificáveis, classificaria o prompt (para entender sua intenção) e substituiria os dados sensíveis por marcadores genéricos. Apenas uma versão anonimizada da entrada do usuário seria armazenada para treinamento futuro.
O estudo publicado em 2023 no Journal of Applied Psychology, citado acima, é um entre muitos que apontam a relação entre a frequência ou duração das interações com chatbots e sentimentos de solidão ou uso problemático. As implicações são relativamente claras: limitar o uso de forma estratégica pode reduzir os riscos emocionais. Quando implementada corretamente, essa abordagem pode atingir esse objetivo sem comprometer a produtividade e até reduzir os custos de inferência.
Um método mais indireto seria interromper periodicamente os padrões de uso, evitando que os usuários fiquem presos a um ritmo muito profundo. Por exemplo, pesquisas do MIT indicam que intervenções como um período obrigatório de “pausa” ajudam a “reduzir julgamentos apressados e incentivar uma interação mais consciente.”6 Ou seja, essas intervenções podem afastar os usuários do pensamento impulsivo do sistema 1 e guiá-los para um raciocínio mais deliberado do sistema 2.
Interromper periodicamente os padrões do próprio sistema de IA, como modificar sua persona, pode ajudar a desencorajar usos problemáticos. Uma reportagem do New York Times sobre uma mulher apaixonada pelo ChatGPT, que passa várias horas por dia na plataforma, relata que sempre que ela atinge o limite da janela de visualização do modelo, a “personalidade” e a memória do “namorado” de IA são parcialmente reiniciadas. Sempre que isso acontece, ela se entristece, mas depois “fica alguns dias sem usar o ChatGPT”.
Em um artigo de 2024 que analisa as consequências de uma grande atualização no aplicativo da Replika AI, um serviço de companhia por chatbot, os autores argumentaram que “a continuidade de identidade é essencial para desenvolver e manter uma relação com um companheiro de IA.”9 A implicação inversa dessa conclusão é que interromper a continuidade de identidade do chatbot pode ser essencial para evitar o apego emocional ao companheiro de IA.
Talvez a melhor forma de impedir que funcionários usem a IA para suprir um vazio emocional seja eliminar a possibilidade de esse vazio existir. A IA generativa pode substituir tarefas repetitivas do dia a dia, mas não substitui a convivência e o companheirismo entre colegas humanos.
Por exemplo, um estudo sobre os padrões de uso de chatbots de companhia e sua relação com a solidão encontrou uma correlação significativa entre a frequência de uso desses chatbots e o aumento da solidão ou do isolamento social, mas não entre usuários com redes sociais reais fortes. Usuários com redes sociais fortes não só interagiam menos com os chatbots, como também enfrentavam muito menos problemas do que os usuários mais leves que não contavam com o mesmo apoio social. Esses usuários normalmente utilizavam os chatbots para fins práticos ou recreativos, e não como substitutos de relacionamentos.10 Essas descobertas são consistentes com a hipótese da compensação parassocial, que afirma que indivíduos solitários, isolados e socialmente ansiosos têm maior probabilidade de se envolver em "relacionamentos" parasociais com celebridades ou influenciadores11
Felizmente, este é um caso em que a própria IA pode resolver os problemas que ela mesma causa. Se as soluções de IA generativa da sua empresa estiverem gerando os ganhos de produtividade que prometem, não vai faltar tempo nem dinheiro para umas rodadas de pizza.
Forneça um atendimento ao cliente consistente e inteligente com a IA conversacional. Explore como é possível acelerar as comunicações com os clientes, aumentar a produtividade e melhorar seus resultados com o IBM® watsonx Assistant.
Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.
Use a IA a serviço de sua empresa com a experiência e o portfólio de soluções líder do setor da IBM à sua disposição.
1. Computer Power and Human Reason, Weizenbaum, 1976
2. "Affiliation Motivation in Everyday Experience: A Theoretical Comparison," Journal of Personality and Social Psychology 70(3):513-522, 1996
3. "Super-intelligence or Superstition? Exploring Psychological Factors Influencing Belief in AI Predictions about Personal Behavior,"arXiv, 19 de dezembro de 2024
4. "The Placebo Effect of Artificial Intelligence in Human-Computer Interaction," ACM Transactions on Computer-Human Interaction Volume 29 (Issue 6), 11 de janeiro de 2023
5. "The mind in the machine: Anthromorphism increases trust in an autonomous vehicle," Journal of Experimental Social Psychology Volume 52, maio de 2014
6. "Anthropomorphism in artificial intelligence: a game-changer for brand marketing," Future Business Journal Volume 11, 2025
7. "GPT-4o System Card," OpenAI, 8 de agosto de 2024
8. "Blame the Bot: Anthropomorphism and Anger in Customer-Chatbot Interactions,"Journal of Marketing Volume 86, 2022
9. "Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships,"Harvard Business School Working Paper Series, 2024
10. "Chatbot Companionship: A Mixed-Methods Study of Companion Chatbot Usage Patterns and Their Relationship to Loneliness in Active Users,"arXiv, 18 de dezembro de 2024
11. "Parasocial Compensation Hypothesis: Predictors of Using Parasocial Relationships to Compensate for Real-Life Interaction," Imagination, Cognition and Personality Volume 35, agosto de 2015