Publicado em: 5 de junho de 2024
Colaboradores: Annie Badman, Matthew Kosinski
Abreviação de segurança de inteligência artificial (IA), a IA de segurança é o processo de usar IA para aprimorar a postura de segurança de uma organização. Com sistemas de IA, as organizações podem automatizar a detecção, prevenção e remediação de ameaças para combater melhor ciberataques e violação de dados.
As organizações podem incorporar IA às práticas de cibersegurança de várias maneiras. As ferramentas de segurança com IA mais comuns usam aprendizado de máquina e deep learning para analisar grandes volumes de dados, incluindo tendências de tráfego, uso de aplicativos, hábitos de navegação e outros dados de atividade de rede.
Essa análise possibilita que a IA identifique padrões e defina uma base de segurança. Qualquer atividade que esteja fora dessa base é imediatamente identificada como uma anomalia e possível ameaça cibernética, permitindo uma remediação rápida.
As ferramentas de segurança com IA também empregam frequentemente IA generativa (gen AI), popularizada por grandes modelos de linguagem (LLMs), para transformar dados de segurança em recomendações de texto simples, otimizando a tomada de decisões para as equipes de segurança.
Pesquisas mostram que ferramentas de segurança de IA melhoram significativamente a detecção de ameaças e a resposta a incidentes. Segundo o Relatório do custo das violações de dados da IBM, organizações que fazem uso extensivo de IA de segurança e automação detectaram e controlaram violações de dados, em média, 108 dias mais rápido do que as organizações sem ferramentas de IA.
Além disso, o relatório constatou que organizações que utilizam extensivamente a segurança com IA economizam, em média, USD 1,76 milhão nos custos de resposta a violações de dados. Essa é uma diferença de quase 40% em relação ao custo médio de uma violação para empresas que não utilizam IA.
Por essas razões, o investimento em segurança com IA está crescendo. Um estudo recente projetou que o mercado de segurança com IA, avaliado em USD 20,19 bilhões em 2023, alcançará USD 141,64 bilhões até 2032, crescendo a 24,2% ao ano.1
Outra definição de segurança de IA envolve proteger a IA contra ameaças cibernéticas. Nesse contexto, especialistas em cibersegurança focam em como agentes maliciosos podem utilizar IA para melhorar ciberataques existentes ou explorar novas superfícies de ataque.
Por exemplo, LLMs podem ajudar invasores a criar ataques de phishing mais personalizados e sofisticados. Sendo uma tecnologia relativamente nova, modelos de IA também oferecem aos atores ameaçadores novas oportunidades para ciberataques, como ataques à cadeia de suprimentos e ataques adversários (veja “Vulnerabilidades potenciais e riscos de segurança da IA”).
Esta visão geral foca na definição de segurança de IA, que envolve o uso de IA para aprimorar a cibersegurança. No entanto, também inclui informações sobre as vulnerabilidades potenciais da IA e as melhores práticas para proteger os sistemas de IA.
O cenário atual de ameaças cibernéticas é complexo. A mudança para ambientes de nuvem e nuvem híbrida levou à dispersão de dados e ampliação das superfícies de ataque, enquanto agentes maliciosos continuam a encontrar novas maneiras de explorar vulnerabilidades. Ao mesmo tempo, profissionais de cibersegurança continuam em escassez, com mais de 700.000 vagas de emprego somente nos EUA.2
O resultado é que os ciberataques agora são mais frequentes e mais custosos. Segundo o relatório do custo das violações de dados, o custo médio global para remediar uma violação de dados em 2023 foi de USD 4,45 milhões, representando um aumento de 15% em três anos.
A segurança com IA pode oferecer uma solução. Ao automatizar a detecção e resposta a ameaças, a IA facilita a prevenção de ataques e a captura de atores ameaçadores em tempo real. As ferramentas de IA podem ajudar em tudo, desde prevenir ataques de malware identificando e isolando softwares maliciosos até detectar ataques de força bruta reconhecendo e bloqueando tentativas de login repetidas.
Com a segurança com IA, as organizações podem monitorar continuamente suas operações de segurança e utilizar algoritmos de aprendizado de máquina para se adaptar a ameaças cibernéticas em evolução.
Não investir em segurança com IA é caro. Organizações sem segurança com IA enfrentam um custo médio de violação de dados de USD 5,36 milhões, o que é 18,6% mais alto do que o custo médio para todas as organizações. Mesmo aquelas com segurança limitada de IA relataram um custo médio de violação de dados de USD 4,04 milhões. Isso é USD 400.000 a menos que a média geral e 28,1% a menos do que aquelas que não utilizam segurança com IA.
Apesar de seus benefícios, a IA apresenta desafios de segurança, particularmente com segurança de dados. Os modelos de IA são tão confiáveis quanto seus dados de treinamento. Dados manipulados ou enviesados podem resultar em falsos positivos ou respostas incorretas. Por exemplo, dados de treinamento enviesados utilizados em decisões de contratação podem reforçar vieses de gênero ou raciais, com modelos de IA favorecendo determinados grupos demográficos e discriminando outros.3
As ferramentas de IA também podem ajudar agentes maliciosos a explorar vulnerabilidades de segurança com mais sucesso. Por exemplo, invasores podem usar IA para automatizar a descoberta de vulnerabilidades de sistemas ou gerar ataques de phishing sofisticados.
Segundo a Reuters, o Federal Bureau of Investigation (FBI) observou um aumento nas intrusões cibernéticas devido à IA.4 Um relatório recente também constatou que 75% dos profissionais sêniores de cibersegurança estão percebendo mais ciberataques, com 85% atribuindo o aumento a atores mal-intencionados que usam IA generativa.5
Apesar dessas preocupações, pesquisas mostram que apenas 24% dos projetos de IA generativa atual estão seguros.
No futuro, muitas organizações buscarão formas de investir tempo e recursos em IA segura para aproveitar os benefícios da inteligência artificial sem comprometer a ética da IA ou a segurança (consulte "Melhores práticas de segurança de IA").
Os recursos e IA podem oferecer vantagens significativas no aprimoramento das defesas de cibersegurança.
Alguns dos benefícios mais significativos da segurança com IA incluem:
Apesar dos muitos benefícios, a adoção de novas ferramentas de IA pode ampliar a superfície de ataque de uma organização e apresentar várias ameaças à segurança.
Alguns dos riscos de segurança mais comuns apresentados pela IA incluem:
Os sistemas de IA dependem de conjuntos de dados que podem ser vulneráveis a adulterações, violações e outros ataques. As organizações podem mitigar esses riscos protegendo a integridade, confidencialidade e disponibilidade dos dados ao longo de todo o ciclo de vida da IA, desde o desenvolvimento até o treinamento e a implantação.
Os agentes maliciosos podem atacar modelos de IA para roubo, engenharia reversa ou manipulação não autorizada. Os invasores podem comprometer a integridade de um modelo adulterando sua arquitetura, pesos ou parâmetros, que são os componentes centrais responsáveis por determinar o comportamento e o desempenho de um modelo de IA.
Ataques adversários envolvem a manipulação de dados de input para enganar sistemas de IA, levando a previsões ou classificações incorretas. Por exemplo, invasores podem gerar exemplos adversários que exploram vulnerabilidades nos algoritmos de IA para interferir na tomada de decisões dos modelos de IA ou provocar viés.
Da mesma forma, injeções de prompt utilizam comandos maliciosos para enganar ferramentas de IA e induzi-las a realizar ações prejudiciais, como vazar dados ou excluir documentos importantes.
Caso as equipes de segurança não coloquem a segurança e a ética como prioridade ao implementar sistemas de IA, elas podem acabar cometendo violações de privacidade e intensificando vieses e falsos positivos. Somente com uma implementação ética as organizações podem garantir justiça, transparência e responsabilidade na tomada de decisões da IA.
Atender aos requisitos legais e regulatórios é fundamental para assegurar o uso lícito e ético dos sistemas de IA. As organizações devem cumprir regulamentações como o Regulamento Geral de Proteção de Dados (GDPR), a California Consumer Privacy Act (CCPA) e a lei de IA da EU, sob o risco de expor dados sensíveis e enfrentar pesadas penalidades legais.
Os ataques de manipulação de input envolvem a alteração dos dados de entrada para influenciar o comportamento ou os resultados dos sistemas de IA. Os invasores podem manipular os dados de input para evitar a detecção, contornar medidas de segurança ou influenciar processos de tomada de decisão, o que pode resultar em resultados tendenciosos ou imprecisos.
Por exemplo, agentes maliciosos podem comprometer as saídas de um sistema de IA em ataques de envenenamento de dados ao fornecer dados de treinamento maliciosos.
Os ataques à cadeia de suprimentos ocorrem quando os agentes de ameaças visam sistemas de IA no nível da cadeia de suprimentos, inclusive em seus estágios de desenvolvimento, implementação ou manutenção. Por exemplo, invasores podem explorar vulnerabilidades em componentes de terceiros, bibliotecas de software ou módulos utilizados no desenvolvimento de IA, resultando em violações de dados ou acessos não autorizados.
Com o tempo, os modelos de IA podem experimentar deriva ou deterioração, afetando seu desempenho ou eficácia. Os adversários podem explorar as vulnerabilidades de um modelo de IA em deterioração para manipular seus resultados. As organizações podem monitorar modelos de IA para detectar mudanças no desempenho, comportamento ou precisão, garantindo sua confiabilidade e relevância.
As aplicações de IA em cibersegurança são diversas e estão em constante evolução à medida que as ferramentas de IA se tornam mais avançadas e acessíveis.
Alguns dos casos de uso mais comuns de segurança com IA hoje incluem:
A proteção de dados envolve a salvaguarda de informações sensíveis contra perda e corrupção de dados, garantindo sua disponibilidade e conformidade com requisitos regulatórios.
As ferramentas de IA podem ajudar as organizações a melhorar a proteção de dados ao classificar dados sensíveis, monitorar o tráfego de informações e evitar acessos não autorizados ou exfiltração. A IA também pode otimizar os processos de criptografia e tokenização para proteger dados em repouso e em trânsito.
Além disso, a IA pode se adaptar automaticamente ao cenário de ameaças e monitorar continuamente para detectar ameaças, permitindo que as organizações fiquem à frente dos novos ciberataques.
A segurança de endpoints envolve proteger dispositivos, como computadores, servidores e dispositivos móveis, contra ameaças cibernéticas.
A IA pode melhorar as soluções de detecção e resposta de endpoints (EDR) ao monitorar continuamente os terminais em busca de comportamentos suspeitos e anomalias, detectando ameaças em tempo real.
Os algoritmos de aprendizado de máquina podem ajudar a identificar e neutralizar ameaças avançadas em endpoints, como malware sem arquivo e ataques de dia zero, antes que ocorram danos.
A IA pode ajudar a proteger dados sensíveis em ambientes de nuvem híbrida, identificando automaticamente dados ocultos, monitorando anormalidades no acesso aos dados e alertando os profissionais de cibersegurança sobre ameaças em tempo real.
Plataformas de caça a ameaças buscam de forma proativa sinais de atividades maliciosas dentro da rede de uma organização.
Com a integração da IA, essas ferramentas podem se tornar mais avançadas e eficientes, analisando grandes conjuntos de dados, identificando sinais de intrusão e permitindo uma detecção e resposta mais rápida a ameaças avançadas.
Com o aumento de ciberataques e roubo de identidade, as instituições financeiras precisam de maneiras de proteger seus clientes e ativos.
A IA auxilia essas instituições analisando automaticamente os dados transacionais em busca de padrões que indicam fraude. Além disso, os algoritmos de aprendizado de máquina podem se adaptar a novas ameaças em tempo real, permitindo que os bancos melhorem continuamente seus recursos de detecção de fraudes e se mantenham à frente dos atacantes.
As ferramentas de segurança baseadas em IA são mais eficazes quando integradas à infraestrutura de segurança existente de uma organização.
Por exemplo, orquestração, automação e resposta de segurança (SOAR) é uma solução de software que muitas organizações utilizam para otimizar as operações de segurança. A IA pode ser integrada às plataformas SOAR para automatizar tarefas rotineiras e fluxos de trabalho. Essa integração pode permitir respostas mais rápidas a incidentes e liberar os analistas de segurança para focar em questões mais complexas.
As ferramentas de gerenciamento de acesso e identidade (IAM) gerenciam como os usuários acessam os recursos digitais e o que podem fazer com eles. O propósito é impedir hackers e assegurar que cada usuário tenha exatamente as permissões que precisa, sem excessos.
As soluções IAM orientadas por IA podem aprimorar esse processo, fornecendo controles de acesso detalhados com base em funções, responsabilidades e comportamentos, garantindo que apenas usuários autorizados acessem dados sensíveis.
A IA pode também melhorar os processos de autenticação ao usar aprendizado de máquina para analisar padrões de comportamento dos usuários e aplicar medidas de autenticação adaptáveis de acordo com o nível de risco de cada usuário.
Modelos de linguagem como o ChatGPT tornaram os ataques de phishing mais fáceis de realizar e mais difíceis de detectar. No entanto, a IA também se tornou uma ferramenta essencial no combate ao phishing.
Modelos de aprendizado de máquina permitem que as empresas analisem e-mails e outras mensagens em busca de indícios de phishing, aumentando a precisão da detecção e reduzindo ataques bem-sucedidos. As soluções de segurança de e-mail impulsionados por IA podem também oferecer inteligência de ameaças em tempo real e respostas automáticas para conter ataques de phishing conforme eles ocorrem.
O gerenciamento de vulnerabilidades consiste na descoberta contínua, priorização, mitigação e resolução de vulnerabilidades de segurança na infraestrutura de TI e software de uma organização.
A IA pode melhorar os scanners de vulnerabilidade tradicionais ao priorizar automaticamente as vulnerabilidades com base no impacto potencial e na probabilidade de exploração. Dessa forma, as empresas podem tratar as ameaças de segurança mais graves prioritariamente.
A IA pode também automatizar o gerenciamento de patches para reduzir rapidamente a exposição a ameaças cibernéticas.
Para equilibrar os riscos e benefícios da IA em segurança, muitas organizações elaboram estratégias de segurança de IA detalhadas, que definem como os stakeholders devem desenvolver, implementar e gerenciar os sistemas de IA.
Embora essas estratégias variem de uma empresa para outra, algumas das melhores práticas mais comuns incluem:
As práticas de governança de dados e gerenciamento de riscos podem ajudar a proteger informações sensíveis utilizadas em processos de IA, ao mesmo tempo que mantêm a eficácia da IA.
Ao utilizar conjuntos de dados relevantes e precisos para treinamento e atualizar regularmente os modelos de IA com novos dados, as organizações podem garantir que seus modelos se adaptem a ameaças em evolução ao longo do tempo.
A integração de ferramentas de IA com a infraestrutura de cibersegurança existente, como feeds de inteligência de ameaças e sistemas SIEM, pode ajudar a maximizar a eficácia, minimizando as interrupções e o tempo de inatividade associados à implementação de novas medidas de segurança.
A transparência nos processos de IA, através da documentação de algoritmos e fontes de dados, bem como da comunicação aberta com os stakeholders, auxilia na identificação e mitigação de possíveis vieses e injustiças.
Embora as ferramentas de IA possam melhorar a postura de segurança, elas também podem se beneficiar de medidas de segurança específicas.
Criptografia, controles de acesso e ferramentas de monitoramento de ameaças podem ajudar as organizações a proteger seus sistemas de IA e os dados sensíveis que utilizam.
Monitorar continuamente os sistemas de IA em relação ao desempenho, conformidade e precisão pode ajudar as organizações a atenderem aos requisitos regulatórios e a refinarem os modelos de IA ao longo do tempo.
Proteja os dados em vários ambientes, cumpra os regulamentos de privacidade e simplifique a complexidade operacional.
Garanta visibilidade abrangente, conformidade e proteção em todo o ciclo de vida da segurança de dados com o IBM Guardium.
A família IBM Verify oferece recursos automatizados, baseados em nuvem e locais, para administração da governança de identidade, gerenciamento de identidade e acesso da força de trabalho e consumidores e controle de contas privilegiadas.
Todos os links levam para fora do site ibm.com
1. Mercado de IA em cibersegurança deve alcançar USD 141,64 bilhões até 2032, com CAGR de 24,2%: Polaris Market Research.Yahoo. 12 de março de 2024.
2. Por que superar a escassez de mão de obra em cibersegurança é crucial para o sucesso das empresas.Forbes. 1 de março de 2023.
3. Ferramentas de recrutamento por IA podem estar excluindo os melhores candidatos.BBC. 16 de fevereiro de 2024.
4. Avanços em IA aumentam o risco de facilitar crimes cibernéticos, afirmam principais autoridades dos EUA.Reuters. 9 de janeiro de 2024.
5. Estudo da Deep Instinct revela aumento significativo nos ataques cibernéticos impulsionados por IA generativa. Business Wire. 23 de agosto de 2023.