Esqueça o alarmismo. Para combater o malware gerado por IA, concentre-se nos fundamentos da segurança cibernética. 

Pessoa sentada em frente ao computador lendo o código

Autor

Matthew Kosinski

Staff Editor

IBM Think

No verão passado, pesquisadores de segurança cibernética da HYAS lançaram a prova de conceito do EyeSpy, uma variedade de malware totalmente autônoma e impulsionada por IA que, segundo eles, pode raciocinar, criar estratégias e executar ataques cibernéticos por conta própria.1 Esse experimento, alertaram, foi um vislumbre da nova era de ameaças cibernéticas devastadoras e indetectáveis que a inteligência artificial logo desencadearia.

Ou talvez não.

"Há muito exagero em torno da IA, na cibersegurança e em outros lugares", diz Ruben Boonen, líder de desenvolvimento de recursos da CNE com a IBM X-Force Adversary Services. “Mas minha opinião é de que, atualmente, não devemos nos preocupar muito com malwares impulsionados por IA. Não vi nenhuma demonstração em que o uso da IA esteja possibilitando algo que não fosse possível sem ela."

O cenário de ameaças está sempre evoluindo e pode chegar um momento em que o malware baseado em IA represente um sério perigo. Mas, por enquanto, pelo menos, muitos especialistas em segurança acham que as discussões sobre malware de IA são uma mistura de pura especulação e mais do que um pouco de marketing. 

Os agentes de ameaças que utilizam IA hoje em dia, em grande parte, para refinar os mesmos scripts básicos e ataques de engenharia social com os quais as equipes de segurança cibernética já estão familiarizadas. Isso significa que as organizações podem se proteger continuando a concentrar nos fundamentos, como corrigir ativos, treinar funcionários e investir nas soluções certas de detecção de ameaças.

O malware gerado por IA chama a atenção, mas muitos especialistas em segurança não se importam

Tanto os grandes modelos de linguagem (LLMs) de uso geral, como o Llama da Meta, quanto as aplicações direcionadas, como o watsonx Code Assistant da IBM, podem ajudar os programadores a acelerar o desenvolvimento escrevendo, depurando e traduzindo códigos.

A preocupação é que esses benefícios não se limitem a programadores benevolentes. Ao fazer o jailbreak de sistemas de IA legítimos ou criar seus próprios, os agentes de ameaças podem hipoteticamente utilizar essas ferramentas de IA para simplificar os processos de desenvolvimento de malware.

Alguns temem que a IA possa reduzir a barreira de entrada no mercado de malware, permitindo que mais cibercriminosos escrevam programas mal-intencionados, independentemente do nível de habilidade. Ou, pior ainda, as tecnologias de IA podem ajudar os agentes de ameaças a desenvolver um novo malware capaz de contornar defesas comuns e causar estragos incalculáveis.

Alguns pesquisadores tentaram ilustrar os perigos que as ameaças cibernéticas geradas por IA podem representar, experimentando diferentes maneiras de incorporar a IA ao malware: 

  • O BlackManda, desenvolvido pela empresa de segurança HYAS, é um keylogger polimórfico que utiliza o ChatGPT para sintetizar códigos maliciosos em tempo de execução. 2

  • O EyeSpy, também da HYAS, utiliza IA para avaliar seu sistema de destino, identificar os aplicativos com maior probabilidade de conter dados confidenciais e selecionar um método de ataque.1

  • Morris II é um worm que utiliza prompts maliciosos para enganar aplicativos de IA para divulgarem informações confidenciais e espalhar o worm para outras pessoas.

Esses experimentos parecem alarmantes à primeira vista, mas muitos especialistas em segurança os veem como pouco mais do que curiosidades.

“Coisas como [BlackMamba e EyeSpy] não são nem um pouco assustadoras para mim”, diz Boonen, que conduz exercícios de formação de equipes vermelhas para ajudar as organizações a fortalecer suas defesas contra ataques cibernéticos reais. 

"Quando olho para os detalhes técnicos sobre como esses programas são implementados, não acho que eles teriam sucesso se os usássemos em nossos compromissos com os clientes", explica.

Há algumas razões pelas quais Boonen e outros estão céticos em relação ao discurso de malware gerado por IA hoje. 

Primeiro, essas "novas ameaças" não estão realmente fazendo nada que as equipes de segurança não tenham visto antes, o que significa que as estratégias de defesa existentes ainda são eficazes contra elas.

"Os conceitos apresentados com o BlackMamba e o EyeSpy não são novos", diz Kevin Henson, Engenheiro Reverso Líder de Malware da IBM X-Force Threat Intelligence. "Os defensores já encontraram malware com esses recursos: ocultação na memória, código polimórfico, antes disso." 

Henson aponta para autores de malware que utilizam técnicas como metaprogramação para ocultar dados importantes e gerar determinados elementos de forma exclusiva, como padrões de código, a cada compilação.  

Em segundo lugar, embora os LLMs tenham habilidades de programação impressionantes, é improvável que consigam gerar variantes de malware sem precedentes em breve. 

"Acho que o uso do ChatGPT [e outras ferramentas de IA] para gerar malware tem limitações porque o código é gerado por modelos treinados em um conjunto de dados", diz Henson. “Consequentemente, o código gerado não será tão complexo quanto o código desenvolvido por um humano.”

Embora muito se tenha dito sobre como algoritmos de IA e aprendizado de máquina podem levar a um renascimento do crime cibernético reduzindo a qualificação da produção de malware, os modelos atuais ainda não chegaram a esse ponto. Os usuários ainda precisam saber uma ou duas coisas sobre código para garantir que qualquer coisa que um LLM gere faça o que eles desejam. 

“A IA é um facilitador da produtividade e, até certo ponto, há uma redução no nível de conhecimento necessário para escrever código ao utilizá-los”, diz Boonen. “Mas não é uma redução enorme”.

Na verdade, se os agentes de ameaças começassem a implementar amplamente o malware baseado em IA hoje, é provável que ele produzisse um excesso de código de baixa qualidade que os defensores detectariam e neutralizariam facilmente. 

"Não estou dizendo que não haja uma possibilidade técnica no futuro de que um malware realmente bom seja criado para aproveitar a IA", diz Boonen. "Se os modelos continuarem melhorando no ritmo em que estão, acho que chegará um ponto em que poderão fazer coisas substanciais. Então precisaremos levar isso mais a sério. Mas acho que ainda não estamos nesse estágio.”

"Esse problema reflete de perto o que acontece no desenvolvimento de software, porque o malware é apenas um software malicioso", diz Golo Mühr, Engenheiro Reverso de Malware da IBM X-Force Threat Intelligence. 

"No momento, não vemos muitos aplicativos com IA perfeitamente integrada no código", explica Mühr. "Quando vemos a IA se tornando predominante no software em geral, podemos esperar que ela se torne comum no malware também."

Esse padrão já ocorreu no passado, conforme relata o X-Force Threat Intelligence Index. Ransomware e criptojacking não se tornaram ameaças difundidas até que as tecnologias legítimas que permitem esses ataques (Microsoft Active Directory para ransomware, criptomoeda e infraestrutura como serviço para criptojacking) também fossem totalmente adotadas.  

Mühr observa que qualquer nova tecnologia deve apresentar um retorno adequado sobre o investimento antes que os desenvolvedores a adotem, o mesmo vale para os desenvolvedores de malware.

Como são os ataques cibernéticos orientados por IA hoje

Os pesquisadores de cibersegurança, incluindo a X-Force da IBM, ainda não encontraram evidências de que agentes de ameaças utilizem inteligência artificial para gerarem e distribuírem novos malware. Mas os cibercriminosos estão usando ferramentas de IA para atividades maliciosas mais comuns, como escrever scripts simples e e-mails de phishing.

"No desenvolvimento de software legítimo, vemos a IA generativa sendo utilizada para complementar o processo de desenvolvimento, apresentando orientação e criando trechos de código básicos", diz Mühr. "Esse tipo de tecnologia de IA já é utilizado por agentes de ameaças para fins maliciosos hoje, mas isso não é algo que poderíamos considerar como uma ameaça extremamente sofisticada". 

Por exemplo, a Microsoft e a OpenAI capturaram e impediram vários agentes de estados-nação que tentam utilizar seus LLMs como assistentes de programação. O grupo "Forest Blizzard", ligado à Rússia, utilizou LLMs para pesquisar vulnerabilidades em sistemas-alvo, enquanto o grupo iraniano "Crimson Sandstorm" os utilizou para escrever scripts de web-scraping.3

No entanto, os ataques de phishing assistidos por LLM são os usos maliciosos mais preocupantes da IA para muitos especialistas em segurança. 

"Acredito neste momento que a maior ameaça seja o uso de IA generativa para falsificação de identidade e phishing", diz Mühr. "Esse é um caso de uso em que a IA já pode ter um enorme impacto na criação de texto, vídeo e áudio semelhantes aos humanos. E já vimos indicadores de que isso está sendo utilizado como arma para phishing."   

Por exemplo, os hackers podem utilizar LLMs para escrever e-mails de phishing que imitam de perto as vozes de marcas confiáveis. Esses e-mails gerados por LLM também não têm sinalizadores vermelhos comuns, como erros gramaticais e frases estranhas, que as vítimas em potencial costumam utilizar para identificar os golpes. 

Agentes maliciosos também podem aproveitar a IA para gerar deepfakes, que tornam seus golpes ainda mais convincentes. Por exemplo, golpistas na RAE de Hong Kong usaram uma conferência gerada por IA para enganar uma vítima na transferência de USD 25 milhões para contas bancárias fraudulentas.4

Esses golpes impulsionados por IA podem enganar tanto os alvos humanos quanto os sistemas de segurança empresarial destinados a detê-los. Por exemplo, o grupo cibercriminoso que a X-Force chama de "Hive0137" provavelmente utiliza IA para gerar variações em e-mails de phishing, para passarem por filtros que procuram mensagens maliciosas conhecidas. 

Detecção e prevenção de ataques impulsionado por IA

A IA não mudou fundamentalmente o campo de batalha da cibersegurança. Em vez disso, ajudou os invasores a simplificar as coisas que já estavam fazendo. Isso significa que a melhor linha de defesa contra ataques impulsionados por IA é que a organização se limite aos fundamentos.

“Se estamos falando sobre o uso da IA para conduzir ataques, o risco e a resposta não mudam para os defensores”, diz Ben Shipley, analista de ameaças estratégicas da IBM X-Force Threat Intelligence. "O malware escrito pela IA ou por um humano ainda vai se comportar como malware. O ransomware escrito por IA não tem um impacto mais significativo sobre a vítima do que o ransomware escrito por um humano."

Medidas de segurança padrão podem ajudar a fechar as vulnerabilidades que o malware, assistido por AI ou não, deve explorar para invadir um sistema. Por exemplo, programas formais de gerenciamento de correções podem corrigir bugs de software antes que agentes mal-intencionados os encontrem. Controles fortes de identidade e acesso, como autenticação multifator, podem combater o sequestro de contas, um dos vetores mais comuns de ataques cibernéticos atualmente.

Outras medidas também podem ajudar a combater os ataques de IA: 

  • Programas e plataformas de inteligência de ameaças ajudam as equipes de segurança a se manterem atualizadas sobre as ameaças emergentes, como o malware gerado por IA.
     
  • Uma combinação de ferramentas de detecção de ameaças, incluindo ferramentas baseadas em assinatura (como firewalls) e ferramentas baseadas em anomalias, que utilizam algoritmos de IA para identificar atividades suspeitas no tráfego de rede. O malware Standard codificado à mão já é bom para evitar alguns tipos de soluções de segurança, portanto utilizar vários métodos de detecção faz sentido, independentemente de os hackers estarem usando IA.

  • O treinamento de segurança pode ajudar os funcionários a identificar e responder corretamente a campanhas de desinformação e engenharia social impulsionada por IA.

Uso da IA para combater IA

Embora os agentes mal-intencionados possam se valer de ferramentas de IA para agilizar seus processos, os defensores podem e devem fazer o mesmo. 

De acordo com o relatório do custo das violações de dados, da IBM, as organizações que utilizam IA e automação para segurança cibernética podem reduzir significativamente os custos das violações. 

A IA pode tornar as ações de prevenção mais eficazes e acelerar os prazos de detecção e remediação, economizando US$ 1,88 milhão do custo de uma violação de dados. (Para organizações que investem amplamente em IA de segurança e automação, a média de custo de cada violação é de US$ 3,84 milhões. Para organizações sem AI e automação de segurança, o custo médio de violação é de US$ 5,72 milhões.

A IA tradicional, baseada em regras, já está presente em muitas ferramentas comuns de segurança cibernética, como as ferramentas de detecção e resposta de endpoint (EDR) e as ferramentas de análise de dados de usuários e entidades (UEBA). Mas novos modelos de IA generativa também estão prontos para ajudar os defensores. 

"Acho que os modelos de IA generativa terão grande impacto em aspectos como a resposta a incidentes", afirma Boonen. "Por exemplo, podem entender ou resumir incidentes mais rápido porque os modelos podem analisar muito mais dados em um período mais curto do que um humano." 

Isso acelera o processo para os analistas, que podem utilizar esses insights para impedir as ameaças de forma mais rápida e eficaz.

E embora as IAs possam produzir os deepfakes que os agentes mal-intencionados utilizam para enganar as pessoas, também podem desempenhar um papel vital no combate a esses mesmos esquemas.

"Algumas imagens já parecem quase indistinguíveis das imagens reais e, à medida que avançamos, suspeito que a maioria das pessoas não será capaz de diferenciar", explica Boonen. “Então acho que teremos que treinar modelos de IA para dizer: "Este vídeo é falso" ou "Esta imagem é falsa" onde os humanos não conseguem fazer isso.”  

Com o futuro das ameaças impulsionadas por IA, o impacto da IA sobre os profissionais de cibersegurança provavelmente será mais uma mudança gradual do que uma reviravolta explosiva. Em vez de se deixar levar pelo hype ou se deixar levar pelos pessimistas, será melhor que as equipes de segurança continuem fazendo o que sempre fizeram: ficarem atentas ao futuro com os pés firmemente plantados no presente.

Notas de rodapé

Todos os links são externos a ibm.com.

1. EyeSpy poof-of-concept, HYAS, 1 de agosto de 2023.

2. BlackMamba: using AI to generate polymorphic malware, HYAS, 31 de julho de 2023.

3. Staying ahead of threat actors in the age of AI, Microsoft, 14 de fevereiro de 2024.

4. Finance worker pays out USD 25 million after video call with deepfake 'chief financial officer,' CNN, 4 de fevereiro de 2024.

Parceiros de negócios iniciantes

Boletim informativo do Think

 

Os mais recentes insights sobre IA e tecnologia do Think

Inscreva-se hoje mesmo

Recursos

Custo de uma violação de dados
Relatório
Cibersegurança na era da IA generativa
Guia
O que é segurança de IA?
Explainer
IBM AI Academy
Educação em IA

Dê o próximo passo

Os serviços de cibersegurança da IBM oferecem consultoria, integração e serviços de segurança gerenciados, além de recursos ofensivos e defensivos. Combinamos uma equipe global de especialistas com tecnologia proprietária e de parceiros para cocriar programas de segurança personalizados que gerenciam riscos.

Conheça os serviços de segurança cibernética