Com a IA generativa, a engenharia social fica mais perigosa e mais difícil de detectar

Rosto de pessoa iluminado pelo brilho da tela de um notebook

Autores

Matthew Kosinski

Staff Editor

IBM Think

Stephanie Carruthers

Chief People Hacker for IBM X-Force Red

"Se há um emprego que a IA generativa não pode roubar, é o de vigarista."

É isso que Stephanie Carruthers, líder global de Cyber Range e principal hacker de pessoas da IBM, lembra de ter sentido em 2022. O ChatGPT havia recentemente trazido a inteligência artificial generativa para a atenção pública. Sua combinação de habilidades de linguagem estranhamente humanas e base de conhecimento profunda fez muitos se perguntarem como ela poderia mudar o mundo.

E como isso pode mudar seus empregos. 

"Quando foi apresentado pela primeira vez, as pessoas me perguntavam: "Você tem medo de que a IA vá tirar seu emprego?" diz Carruthers. "Achei que não fosse possível. Teríamos que chegar ao ponto em que a IA pudesse realmente entender uma pessoa e criar uma campanha personalizada contra ela para que isso acontecesse".

Como parte do IBM® X-Force, Carruthers executa esquemas simulados de engenharia social e ataques cibernéticos para ajudar as empresas a fortalecer suas defesas contra a realidade. Os primeiros modelos de IA generativa conseguiam criar alguns golpes de phishing bastante genéricos, mas não conseguiam realizar os ataques sofisticados que causam sérios danos. Esses esquemas exigem pesquisa profunda, planejamento cuidadoso e pretextos altamente direcionados.  

Mas muita coisa pode acontecer em dois anos e meio. Atualmente, muitos grandes modelos de linguagem (LLMs) podem pesquisar na web em tempo real. Agentes de IA capazes de projetar fluxos de trabalho e executar tarefas de forma autônoma podem dar um passo adiante com as informações que descobrem para informar suas ações.

Já não parece um exagero imaginar um bot baseado em IA capaz de adaptar perfeitamente ataques de engenharia social a pessoas específicas. Tudo o que ela precisa é de um agente da ameaça para pôr em movimento. 

"Chegamos a um ponto que está me preocupando", diz Carruthers. “Com pouquíssimos prompts, um modelo de IA pode escrever uma mensagem de phishing destinada exclusivamente a mim. Isso é assustador."

Homem olhando para computador

Fortaleça sua inteligência de segurança 


Fique à frente das ameaças com notícias e insights sobre segurança, IA e outros semanalmente no boletim informativo do Think. 


Aprendiz de golpista

De acordo com o IBM® X-Force Threat Intelligence Index de 2025, os agentes de ameaças de hoje estão, em média, buscando campanhas maiores e mais amplas do que no passado. Esse desenvolvimento é, em parte, uma questão de mudança de tática, pois muitos invasores mudaram seu foco para ataques à cadeia de suprimentos que afetam muitas vítimas ao mesmo tempo.

Mas também é uma questão de mudança de ferramenta. Muitos invasores adotaram a IA generativa como estagiários ou assistentes, utilizando-a para construir sites, gerar código malicioso e até mesmo escrever e-mails de phishing. Dessa forma, a IA ajuda os agentes da ameaça a realizar mais ataques em menos tempo. 

"Os modelos de IA estão realmente ajudando os invasores a limpar suas mensagens", diz Carruthers. "Tornando-as mais sucintas, mais urgentes, transformando-as em algo em que as pessoas acreditam".

Carruthers aponta que gramática ruim e frases estranhas estão há muito tempo entre os alertas vermelhos mais comuns nas tentativas de phishing. Os cibercriminosos tendem a não usarem muito a verificação ortográfica e geralmente escrevem em um segundo ou terceiro idiomas, levando a um volume maior de erros em geral.  

Mas as ferramentas de IA generativa podem gerar prosa tecnicamente perfeita em praticamente todos os principais idiomas do mundo, ocultando algumas das mais óbvias dicas de engenharia social e enganando mais vítimas. 

A IA também escreve essas mensagens muito mais rápido do que uma pessoa. Carruthers e a equipe do X-Force fizeram alguns experimentos e descobriram que a IA generativa pode escrever um e-mail de phishing eficaz em cinco minutos. Para uma equipe de humanos escrever uma mensagem comparável são necessárias 16 horas, com pesquisas profundas sobre alvos responsáveis por grande parte desse tempo. 

Considere também que a tecnologia deepfake permite que modelos de IA criem imagens, áudios e até chamadas de vídeo falsas, dando ainda mais credibilidade aos seus esquemas.    

Somente em 2024 os americanos perderam US$ 12,5 bilhões em ataques de phishing e outras fraudes. Esse número pode aumentar com mais golpistas utilizando IA generativa para criar mensagens de phishing mais convincentes, em mais idiomas e em menos tempo. 

E com a chegada dos agentes de IA, os fraudadores podem ampliar ainda mais suas operações.

Transformação da web em arma

A pesquisa geralmente faz a diferença entre ataques cibernéticos fracassados e bem-sucedidos. Ao pesquisarem seus alvos, sejam organizações ou pessoas, os agentes da ameaça podem elaborar planos perfeitamente adaptados, redigir histórias que habilmente tocam nos pontos certos do coração e desenvolver malware que ataca as vulnerabilidades certas.

Além disso, os invasores podem encontrar muitas das informações de que precisam online.

“Você pode aprender muito sobre uma pessoa apenas olhando suas redes sociais, o site da empresa ou qualquer lugar na web”, afirma Carruthers. “Há muita informação que as pessoas colocam em posts de blog, comunicados de imprensa, na mídia e até em anúncios de emprego”.

Anúncios de emprego são um bom exemplo de como invasores podem usar informações aparentemente inócuas contra suas vítimas.

"Lendo seu anúncio de emprego, posso aprender como é seu stack tecnológico e quem são seus fornecedores", explica Carruthers. “Assim posso personalizar meu malware para o seu ambiente. Sei de quais fornecedores posso fingir ser funcionária".

Especialistas como Carruthers temem que, com agentes de IA capazes de projetar fluxos de trabalho e usar ferramentas para atingir objetivos complexos, os invasores possam automatizar mais do que e-mails de phishing e sites falsos.

Os invasores podem, teoricamente, usar agentes de IA para coletar informações, analisá-las, formular um plano de ataque e gerar mensagens de golpes e deepfakes para uso no ataque. 

Esse processo é muito maior do que gerar variações da mesma mensagem de phishing com diferentes estilos de escrita para diferentes alvos. É uma forma ampliada de spear phishing superdirecionado, amplamente considerado a forma mais eficaz de engenharia social.

Os especialistas de cibersegurança ainda não detectaram agentes maliciosos de IA em números significativos, mas pode ser apenas uma questão de tempo. Uma matéria recente da MIT Technology Review cita Mark Stockley, da Malwarebytes, dizendo: "Acho que, no fim das contas, vamos viver em um mundo onde a maioria dos ataques cibernéticos será feita por agentes. É realmente apenas uma questão de quão rápido chegaremos lá”.

Os alertas vermelhos da engenharia social orientada por IA

Na era da IA generativa, muitas defesas tradicionalmente confiáveis contra ataques de engenharia social não funcionam mais. 

"A primeira coisa que estamos ensinando aos nossos funcionários é procurar gramática ruim, erros de digitação e esses tipos de coisas", diz Carruthers. "Isso não é mais uma coisa para invasores sofisticados que estão usando IA".

Se esses alertas vermelhos estilísticos não funcionarem mais, uma opção será mudar o foco do treinamento de consciência de segurança para discussões mais substanciais sobre táticas de engenharia social.

Engenheiros sociais dependem muito de representação, desinformação e manipulação emocional, como Carruthers já abordou antes. Golpes impulsionados por IA podem cometer menos erros de ortografia, mas ainda dependem dos mesmos tropos e padrões dos ataques clássicos de engenharia social. Se os funcionários aprenderem a identificar esses sinais reveladores, poderão impedir mais crimes cibernéticos. 

Alerta vermelho 1: emoções fortes

Os engenheiros sociais se aproveitam da psicologia humana, como curiosidade, o medo, o desejo de ajudar e o desejo de fazer parte de algo. Os golpistas calibram suas mensagens para despertar essas emoções: "Preciso que você envie esse dinheiro agora mesmo, ou algo extremamente ruim vai acontecer".

A maioria das interações legítimas no ambiente de trabalho tem uma carga muito menos emocional. Os empregos podem ser estressantes, os colegas de trabalho podem ser passivos ou agressivos e os chefes podem ser exigentes. Mas a maioria das pessoas tenta manter pelo menos um pouco de educação.

Os pedidos, mesmo os urgentes, tendem a adotar um tom mais equilibrado: "Oi, não deixe de pagar esta fatura hoje". Estamos atrasados devido a um erro administrativo e não quero irritar o fornecedor".

Uma solicitação significativa, feita com muita emoção, deve ser um sinal de alerta para parar e pensar.

Mixture of Experts | 12 de dezembro, episódio 85

Decodificando a IA: resumo semanal das notícias

Participe do nosso renomado painel de engenheiros, pesquisadores, líderes de produtos e outros enquanto filtram as informações sobre IA para trazerem a você as mais recentes notícias e insights sobre IA.

Alerta vermelho 2: histórias repetidas

Engenheiros sociais são contadores de histórias e tendem a se ater a alguns ganchos de narrativa testados e aprovados. Alguns dos mais comuns são:

  • Sou seu chefe e preciso da sua ajuda. Não me faça nenhuma pergunta.

  • Sou de TI/cibersegurança/fornecedor de tecnologia e seu sistema está comprometido. Temos que agir agora.

  • Sou um fornecedor e vou encerrar o serviço imediatamente se vocês não fizerem algo por mim. 

  • Sou oficial de justiça ou do governo e você vai para a cadeia hoje se não pagar esta multa.

  • Você não me conhece, mas tenho uma incrível oportunidade de investimento para você.

  • Estou trabalhando com os correios, e houve um problema com a entrega da sua encomenda. Clique neste link para resolver o problema. 

  • Trabalho com um serviço ou marca da sua confiança e sua conta foi hackeada. Aja agora mesmo para consertar isso. 

  • Trabalho em para um serviço ou marca da sua confiança e temos uma oferta incrível para você. Aja agora mesmo para aproveitar.

Dito isso, os invasores mais astutos personalizam o máximo possível suas histórias. Em vez de pararem em uma visão geral de alto nível, a Carruthers recomenda que as organizações alinhem o treinamento de segurança para abordar especificamente os tipos de ameaças cibernéticas que seus funcionários provavelmente enfrentarão.

"Reavalie a aparência do seu treinamento de consciência de segurança no contexto dos ataques que estão realmente acontecendo na sua organização atualmente", diz Carruthers. Você está recebendo tipos específicos de ligações fraudulentas? Incorpore essas chamadas no seu treinamento.

Além de reformular o conteúdo do treinamento, Carruthers recomenda ministrar treinamentos com mais frequência. Isso pode ajudar a fixar as lições e manter dicas valiosas frescas na mente das pessoas, tornando mais provável que elas realmente usem as medidas de segurança aprendidas.  

"Normalmente os funcionários são atacados antes para comprometer toda a organização", diz Carruthers. "Se dermos a eles uma hora de treinamento uma vez por ano, isso será mesmo suficiente?"

Pense antes de postar

As pessoas podem detectar mais ataques que estiverem acontecendo procurando os alertas vermelhos. Mas podem impedir completamente que alguns ataques aconteçam, limitando o que publicam. 

"É muito importante que as pessoas e as organizações estejam cientes sobre o que você coloca online", afirma Carruthers.

Em termos de engenharia social, o poder da Tecnologia de IA e dos LLMs vem da capacidade de extrair e analisar grandes quantidades de informações sobre alvos. Se não houver tais informações, as ferramentas de IA não conseguem criar ataques personalizados, o que torna mais difícil enganar as vítimas, não importa quão limpo seja seu texto.

Carruthers ressalta que "evitar o excesso de compartilhamento" é um conselho comum, mas essa dica é frequentemente interpretada como "não publique informações confidenciais online". No entanto, os golpistas podem até mesmo usar algumas informações não sigilosas para tornar seus ataques mais convincentes.  

“Muitos anúncios de emprego apresentam um pequeno organograma: "Essa função é subordinada a essa função e tem essas funções subordinadas a ela'”, explica Carruthers. “Essa é uma informação valiosa. Tenho uma noção de como é sua organização. Sei quais títulos usar e qual função devo fingir que tenho.”

Embora as pessoas possam manter configurações de privacidade rígidas em suas contas de rede social, essa abordagem não é muito prática para as organizações. Mas as empresas podem ser mais cautelosas sobre o que publicam, como desfocar os crachás dos funcionários nas fotos.

"A maioria das pessoas não acha grande coisa encontrar a foto do crachá de um funcionário", diz Carruthers. "Do ponto de vista da engenharia social, agora posso replicar a aparência dessa credencial, o que facilita muito a entrada em um prédio a que não pertenço".

Soluções relacionadas
IBM X-Force

A equipe centrada em ameaças do IBM® X-Force, composta por hackers, profissionais de resposta a incidentes, pesquisadores e analistas, ajuda a proteger sua organização contra ameaças globais.

    Explore o IBM X-Force
    Soluções de detecção e resposta a ameaças

    As soluções de detecção e resposta a ameaças da IBM fortalecem sua segurança e aceleram a detecção de ameaças.

      Explore as soluções de detecção de ameaças
      Serviços de testes de penetração do X-Force Red

      O IBM X-Force Red oferece serviços de teste de penetração para aplicações, redes, hardwares e pessoal para descobrir e corrigir vulnerabilidades.

      Explore os serviços de testes de penetração
      Dê o próximo passo

      Conheça o IBM® X-Force Red: a solução fornece serviços de teste de penetração para aplicações, redes, hardwares e pessoal para descobrir e corrigir vulnerabilidades.

      Explore os serviços de testes de penetração Agende uma sessão de descoberta com o X-Force