A realidade como uma arma: a evolução da tecnologia deepfake

Homem sorrindo enquanto passa por uma varredura biométrica do rosto, varredura digital do rosto à direita

Autora

Alexis Obeng

Security Consultant Intern, IBM X-Force Cyber Range

Durante décadas, os ataques de phishing têm explorado as emoções humanas para extorquir credenciais de contas e dinheiro, e continuam fazendo isso. Mas, como a tecnologia avançou a passos largos desde os primeiros casos de phishing na década de 1990, o phishing não se resume mais a identificar mensagens fraudulentas óbvias com erros de digitação e gramaticais. Agora significa questionar se aquela ligação do seu amigo ou chefe é real, mesmo que pareça exatamente com eles. Com o avanço da inteligência artificial, os agentes maliciosos estão se tornando cada vez mais ocultos e sofisticados, e todos precisam repensar o que é real, acostumar-se a procurar sinais falsos e aprender a proteger melhor suas identidades online e offline.

Engenharia social é o termo genérico para uma infinidade de maneiras pelas quais invasores e fraudadores conseguem enganar as pessoas para que revelem informações que comprometerão sua identidade e contas. Essa ameaça continua sendo um dos principais vetores de ataque que levam a violações de dados. Isso foi mitigado até certo ponto pelo treinamento de funcionários e filtros avançados de spam, mas não parece se aplicar à crescente ameaça de deepfake. Em 2024, mais de 80% das empresas relataram não possuir protocolos para combater ataques baseados em IA, incluindo deepfakes.

Além disso, o Relatório de Inteligência de Voz 2025 da Pindrop mostrou um aumento acentuado na fraude deepfake em comparação com anos anteriores, reportando um aumento de 1300%. Os ataques deepfake representam uma nova fronteira assustadora, na qual você não pode mais confiar no que vê ou ouve.

Qual é a origem dos deepfakes?

A tecnologia por trás dos deepfakes é chamada Generative Adversarial Network (GAN). Foi desenvolvida em 2014 e publicada em um artigo de pesquisa pelo pesquisador Ian Goodfellow e seus colegas. Um GAN é um tipo de modelo de aprendizado de máquina que gera novos dados aprendendo padrões a partir de conjuntos de dados de treinamento. Mas o que isso realmente significa? Um GAN consiste em duas redes neurais que competem constantemente entre si para criar dados realistas e falsos. Uma rede é o Gerador, a outra é o Discriminador.

O Gerador cria conteúdo sintético, e o Discriminador determina se o conteúdo é real. Essa troca de informações acaba fazendo com que o conteúdo falso pareça o mais real possível. Pense nisso como afiar uma espada contra um bloco de aço. Cada vez que a espada (o Gerador) é friccionada contra o bloco de aço (o Discriminador), a espada fica mais afiada.

Um fluxograma mostrando a origem do conteúdo deepfake

Alguns anos depois, em 2017, o termo "deepfake" foi cunhado por um usuário do Reddit que operava sob o nome "deepfakes". Essa pessoa usou de forma maliciosa o conceito do GAN. Usando uma conta dedicada a conteúdo adulto, ele lançou alguns dos primeiros vídeos deepfake distribuídos publicamente, usando imagens de pessoas não relacionadas para criar conteúdo falso e distribuí-lo online.

Embora os primeiros deepfakes fossem geralmente de baixa qualidade e mais fáceis de detectar, hoje, isso já não acontece. As pessoas estão postando deepfakes de voz e imagem, que são muito difíceis de identificar como falsos, desafiando o próprio conceito de identidade e confiança no mundo virtual.

Linha do tempo deepfake – profundamente perturbadora

Os deepfakes se tornaram populares em 2018, com o lançamento de ferramentas de deepfake de código aberto acessíveis como o DeepFaceLab. Desde então, as barreiras técnicas para a criação de deepfakes realistas têm diminuído constantemente. Em 2023, o mercado de ferramentas deepfake disparou, com um aumento de 44% no desenvolvimento dessas ferramentas. Infelizmente, a criação de conteúdo explícito não consensual envolvendo mulheres tem servido como fator motivador para a popularização de ferramentas de deepfake. O problema é crescente, com o Security Hero relatando que, em 2023, aproximadamente 98% dos vídeos deepfake online são de natureza explícita, e apenas 1% dos alvos nessa categoria são homens.

Nos últimos anos, deepfakes também têm sido usados para manipular políticas e fraudes contra consumidores. A maioria dos alvos dos deepfakes são figuras públicas, em grande parte porque possuem uma grande quantidade de amostras de mídias disponíveis na internet.

No início de 2024, eleitores de New Hampshire receberam uma ligação que se fazia passar pelo presidente Biden, com o objetivo de desencorajá-los a votar nas eleições primárias democratas. O agente malicioso chegou ao ponto de falsificar o identificador de chamadas para se passar pelo presidente do partido Democrata. Este incidente é um exemplo claro de phishing por voz, também conhecido como "vishing", que utiliza áudio deepfake. Desde então, a FCC proibiu o uso de vozes geradas por IA em chamadas automáticas para supressão de eleitores.

Também surgiram diversos vídeos deepfake com figuras públicas proeminentes, como Elon Musk, o primeiro-ministro da Nova Zelândia, Christopher Luxon e o primeiro-ministro canadense Justin Trudeau. Esses vídeos deepfake promoviam diversos esquemas de criptomoedas para enganar potenciais investidores.

Existem também usos mais legítimos da tecnologia deepfake, como no caso dos pesquisadores do Center for Advanced Virtuality do MIT, que criaram um deepfake do presidente Richard Nixon proferindo um discurso sobre uma missão fracassada à Lua. Este projeto foi criado por alunos para alertar sobre a importância da alfabetização midiática na era dos deepfakes. A Disney e outros grandes estúdios de Hollywood também investiram no uso da tecnologia para rejuvenescer atores e incluir efeitos visuais avançados em filmes.

Sua equipe apanharia o próximo dia zero a tempo?

Junte-se aos líderes de segurança que confiam no boletim informativo Think para receber notícias selecionadas sobre IA, cibersegurança, dados e automação. Aprenda rápido com tutoriais e explicações de especialistas, entregues diretamente em sua caixa de entrada. Consulte a Declaração de privacidade da IBM.

Sua assinatura será entregue em inglês. Você pode encontrar um link para cancelar a assinatura em todos os boletins informativos. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

https://www.ibm.com/br-pt/privacy

Incidentes notáveis usando deepfakes

Veja abaixo quatro casos notáveis em que a tecnologia deepfake foi usada em fraude, engano e falsificação de identidade.

Arup

No início de 2024, a empresa multinacional de engenharia Arup confirmou que perdeu USD 25 milhões em um golpe de deepfake.

Um funcionário de Hong Kong recebeu um e-mail de phishing do escritório da Arup no Reino Unido solicitando uma transação "secreta". Naturalmente, o funcionário ficou desconfiado a princípio. Sua suspeita acabou quando ele participou de uma videochamada com o diretor financeiro e vários outros funcionários. Ele reconheceu esses rostos e suas vozes, então enviou 200 milhões de dólares de Hong Kong (USD 25,6 milhões). O dinheiro foi enviado em 15 transferências para cinco bancos diferentes antes que a fraude fosse descoberta.

O diretor de informações digitais da Arup, Rob Greig, discutiu o incidente na época com o Fórum Econômico Mundial. Greig descreveu o incidente mais como "engenharia social aprimorada pela tecnologia" do que como um ciberataque. Não houve comprometimento do sistema ou acesso não autorizado aos dados. As pessoas foram enganadas e fizeram o que achavam ser transações genuínas. Greig até tentou criar um vídeo deepfake de si mesmo, e levou menos de uma hora. Ele também acredita que isso acontece com mais frequência do que as pessoas imaginam.

Este caso destaca os danos financeiros devastadores que o phishing deepfake pode causar a uma empresa. Casos semelhantes também foram direcionados a pessoas físicas, com idosos recebendo chamadas de socorro de supostos entes queridos.

Incidente com diretor de ensino médio

O perigo dos deepfakes não se estende apenas a figuras públicas e executivos de empresas. Em 2024, surgiu o caso de um diretor de escola em Baltimore cuja vida foi virada de cabeça para baixo por causa de um clipe de áudio gerado pela IA, no qual ele aparentemente fazia declarações racistas e antissemitas.

Um clipe de áudio falso do diretor da Pikesville High School, Eric Eiswert, viralizou na internet, no qual ele supostamente faz declarações prejudiciais e depreciativas. O clipe recebeu mais de dois milhões de visualizações. Houve uma enorme reação negativa, tanto online quanto na vida real. A comunidade local ficou especialmente indignada, pois Pikesville tem uma grande população negra e judaica.

Devido à reação negativa, Eiswert entrou em licença e policiais foram designados para proteger sua casa em meio às ameaças e ao assédio violento que ele vinha sofrendo. A segurança também foi reforçada na escola.

A defesa inicial de Eiswert, de que o vídeo era falso, foi mal recebida e descartada como uma tentativa de Eiswert de se esquivar da responsabilidade. O clipe foi postado em janeiro de 2024. Foi preciso esperar até abril para que a polícia local confirmasse que a gravação era falsa. A polícia prendeu o diretor esportivo da escola, Dazhon Darien, sob acusações relacionadas ao clipe falso. Eiswert estava investigando Darien por roubo de dinheiro da escola e problemas de desempenho no trabalho. Em abril de 2025, Dazhon Darien se declarou culpado, após ter comprado ferramentas de clonagem por IA.

O incidente teve efeitos prejudiciais na reputação de Eiswert, levando-o a mudar de emprego e a trabalhar em outra escola.

Fraude de voz do CEO do Reino Unido

Um dos primeiros grandes ataques de deepfake ocorreu em 2019, quando um áudio deepfake foi usado para roubar USD 243.000 de uma empresa do Reino Unido.

O CEO de uma empresa de energia britânica, cujo nome não foi divulgado, recebeu um telefonema do CEO da matriz alemã. O CEO do Reino Unido observou que a chamada chegou a reproduzir até a “melodia” da voz do CEO alemão. Os golpistas ligaram um total de três vezes. Na primeira ligação, o golpista solicitou ao CEO do Reino Unido que transferisse USD 243.000 para a conta bancária de um fornecedor húngaro. O CEO concordou. Na segunda chamada, eles alegaram que a transferência foi reembolsada. Na terceira e última ligação, a pessoa que ligou estava solicitando um pagamento adicional. Após o CEO do Reino Unido perceber que a transferência, na verdade, não havia sido reembolsada, ele se recusou a enviar quaisquer pagamentos subsequentes. O primeiro montante foi transferido para uma conta bancária húngara, depois para o México e outros locais, dificultando a atribuição.

Esse caso inicial de fraude deepfake mostra o quão ambiciosos e sofisticados esses esquemas se tornariam mais tarde.

Esquema de cripto do grupo de agentes de ameaças BlueNoroff

Em um dos ataques mais recentes, ocorrido em junho de 2025, o grupo de agentes da ameaça BlueNoroff, com sede na Coreia do Norte, utilizou a tecnologia deepfake para atacar empresas de criptomoedas.

Um funcionário de uma empresa de criptomoedas recebeu um link do Calendly para uma reunião no Google Meet. Duas semanas depois, o funcionário participou de uma chamada no Zoom controlada pelo agente da ameaça. A chamada foi repleta de versões deepfake da alta liderança. Quando o funcionário teve um problema de áudio, os invasores enviaram uma extensão maliciosa do Zoom. A extensão do Zoom era, na verdade, um script que implementava malware para sequestrar qualquer carteira de criptomoedas encontrada no sistema.

Esse ataque destaca como os agentes da ameaça agora estão combinando engenharia social tradicional com a representação de deepfake em tempo real, tornando a verificação muito mais difícil para os usuários finais.

Uma ameaça a ser enfrentada

Deepfakes não são mais uma ameaça em potencial; a ameaça e suas consequências estão muito reais e presentes. Os deepfakes atualmente ameaçam a confiança no processo de verificação de identidade online, no qual muitas organizações, especialmente no setor financeiro, passaram a confiar. Com um número recorde de pessoas fazendo autenticação por meio de biometria em todos os seus dispositivos, o aumento do uso malicioso de deepfakes pode levar a uma necessidade urgente de repensar a segurança da autenticação nos próximos cinco anos, ou até mesmo antes.

Conforme mostrado em ataques recentes, a barreira de entrada para a criação de deepfakes realistas diminuiu muito. Desde vozes clonadas até imitações completas de vídeos, os deepfakes capacitam golpistas e fraudadores de maneiras que são mais difíceis de detectar e se defender.

Outro aspecto que deve ser levado a sério é o uso de deepfakes por alunos que praticam bullying, provocam e assediam seus colegas, têm como alvo educadores ou tentam se retratar em situações que visam ameaçar e intimidar os outros. Essa tendência de cyberbullying só piora com o tempo e exige que os pais eduquem as crianças e sejam muito vigilantes sobre possíveis ameaças.

Entender a ameaça é o primeiro passo para se defender dela. Com mais treinamento de segurança do usuário final e o emprego de ferramentas emergentes de detecção de deepfake, organizações e indivíduos podem começar a combater essa nova ameaça.

Quer saber mais? Contate um especialista X-Force para uma reunião individual e converse sobre deepfakes, ameaças de deepfakes e como sua equipe pode ser treinada para identificar e neutralizar agentes maliciosos antes que causem danos.

Nossa equipe de ambiente cibernético convida você a treinar como se estivesse em combate, em uma de nossas unidades globais, em seu escritório ou de forma virtual. Fale conosco hoje mesmo.

Soluções relacionadas
Serviços de gerenciamento de ameaças

Preveja, previna e responda às ameaças modernas aumentando a resiliência dos negócios.

 

Saiba mais sobre os serviços de gerenciamento de ameaças
Soluções de detecção e resposta a ameaças

Use as soluções de detecção e resposta a ameaças da IBM para fortalecer sua segurança e acelerar a detecção de ameaças.

Explore as soluções de detecção de ameaças
Soluções para defesa contra ameaças móveis (MTD)

Proteja seu ambiente móvel com as soluções abrangentes de defesa contra ameaças móveis do IBM MaaS360.

Conheça as soluções de defesa contra ameaças móveis
Dê o próximo passo

Tenha soluções abrangentes de gerenciamento de ameaças, protegendo habilmente a sua empresa contra os ataques cibernéticos.

Saiba mais sobre os serviços de gerenciamento de ameaças Agende um briefing centrado em ameaças