O que é gerenciamento de riscos de IA?

20 de junho de 2024

8 minutos de leitura

Gerenciamento de riscos de IA é o processo de identificar, mitigar e lidar sistematicamente com os possíveis riscos associados às tecnologias de IA. Envolve uma combinação de ferramentas, práticas e princípios, com ênfase particular na implementação de frameworks formais de gerenciamento de riscos de IA.

De modo geral, o objetivo do gerenciamento de riscos de IA é minimizar os possíveis impactos negativos da IA e, ao mesmo tempo, maximizar seus benefícios.

Gerenciamento de riscos de IA e governança de IA

O gerenciamento de riscos de IA faz parte do campo mais amplo da governança de IA. A governança de IA se refere às barreiras que garantem que as ferramentas e os sistemas de IA sejam seguros e éticos e permaneçam assim.

A governança de IA é uma disciplina abrangente, enquanto o gerenciamento de riscos de IA é um processo dentro dessa disciplina. O gerenciamento de riscos de IA concentra-se especificamente na identificação e no tratamento de vulnerabilidades e ameaças para manter os sistemas de IA protegidos contra danos. A governança de IA estabelece frameworks, regras e normas que direcionam a pesquisa, o desenvolvimento e a aplicação da IA para garantir a segurança, a justiça e o respeito pelos direitos humanos.

Por que o gerenciamento de riscos em sistemas de IA é importante

Nos últimos anos, o uso de sistemas de IA aumentou em todos os setores. A McKinsey relata que 72% das organizações agora usam alguma forma de inteligência artificial (IA), um aumento de 17% em relação a 2023.

Embora as organizações busquem os benefícios da IA, como inovação, eficiência e maior produtividade, nem sempre elas atacam seus possíveis riscos, como dúvidas com a privacidade, ameaças à segurança e questões éticas e legais.

Os líderes estão bem cientes desse desafio. Um estudo recente do IBM Institute for Business Value (IBM IBV) revelou que 96% dos líderes acreditam que a adoção da IA generativa aumenta a probabilidade de uma violação de segurança. Ao mesmo tempo, o IBM IBV também descobriu que apenas 24% dos projetos atuais de IA generativa estão protegidos.

O gerenciamento de riscos de IA pode ajudar a preencher essa lacuna e capacitar as organizações a aproveitar todo o potencial dos sistemas de IA sem comprometer a ética ou a segurança da IA.

Como conhecer os riscos associados aos sistemas de IA

Assim como outros tipos de riscos de segurança, o risco de IA pode ser entendido como uma medida da probabilidade de uma possível ameaça relacionada à IA de afetar uma organização e o grau de danos que essa ameaça causaria.

Embora cada modelo e caso de uso de IA seja diferente, os riscos da IA geralmente se enquadram em quatro grupos:

  • Riscos de dados
  • Riscos de modelos
  • Riscos operacionais
  • Riscos éticos e legais

Se não forem gerenciados corretamente, esses riscos podem expor os sistemas de IA e as organizações a danos significativos, inclusive perdas financeiras, danos à reputação, penalidades regulatórias, erosão da confiança pública e violação de dados.

Riscos dos dados

Os sistemas de IA dependem de conjuntos de dados que podem ser vulneráveis a adulterações, violações, vieses ou ataques cibernéticos. As organizações podem mitigar esses riscos ao proteger a integridade, a segurança e a disponibilidade dos dados durante todo o ciclo de vida da IA, desde o desenvolvimento até o treinamento e a implementação.

 Os riscos comuns de dados incluem:

  • Segurança de dados: a segurança de dados é um dos maiores e mais críticos desafios enfrentados pelos sistemas de IA. Os agentes de ameaças podem causar sérios problemas para as organizações ao violar os conjuntos de dados que alimentam as tecnologias de IA, incluindo acesso não autorizado, perda de dados e comprometimento da confidencialidade.
  • Privacidade de dados: os sistemas de IA frequentemente lidam com dados pessoais confidenciais, que podem ser vulneráveis a violações de privacidade, levando a problemas regulatórios e legais para as organizações.
  • Integridade dos dados: os modelos de IA são tão confiáveis quanto seus dados de treinamento. Dados distorcidos ou com viés podem levar a falsos positivos, resultados imprecisos ou má tomada de decisões.

Riscos do modelo

Os agentes maliciosos podem atacar modelos de IA para roubo, engenharia reversa ou manipulação não autorizada. Os invasores podem comprometer a integridade de um modelo alterando-o em sua arquitetura, pesos ou parâmetros, que são os componentes centrais que determinam o comportamento e o desempenho de um modelo de IA.

Alguns dos riscos de modelos mais comuns incluem:

  • Ataques adversários: esses ataques manipulam dados de entrada para enganar os sistemas de IA e fazê-los fazer previsões ou classificações incorretas. Por exemplo, os invasores podem gerar exemplos adversários que eles alimentam em algoritmos de IA para interferir propositalmente na tomada de decisões ou produzir viés.
  • Injeções de prompts: esses ataques têm como alvo grandes modelos de linguagem (LLMs). Hackers disfarçam entradas maliciosas como prompts legítimos, manipulando sistemas de IA generativa para vazar dados confidenciais, espalhar informações erradas ou pior. Até mesmo injeções de prompts básicas podem fazer com que chatbots IA, como o ChatGPT, ignorem as proteções do sistema e digam coisas que não deveriam.
  • Interpretabilidade do modelo: os modelos complexos de IA costumam ser difíceis de interpretar, o que torna difícil para os usuários entenderem como tomam suas decisões. Essa falta de transparência pode, em última análise, impedir a detecção de vieses e a responsabilização, além de minar a confiança nos sistemas de IA e em seus fornecedores.
  • Ataques à cadeia de suprimentos: os ataques à cadeia de suprimentos ocorrem quando agentes de ameaças visam sistemas de IA no nível da cadeia de suprimentos, inclusive em seus estágios de desenvolvimento, implementação ou manutenção. Por exemplo, invasores podem explorar vulnerabilidades em componentes de terceiros utilizados no desenvolvimento da IA, resultando em violações de dados ou acesso não autorizado.

Riscos operacionais

Embora os modelos de IA possam parecer magia, são fundamentalmente produtos de código sofisticado e algoritmos de aprendizado de máquina. Como todas as tecnologias, são suscetíveis a riscos operacionais. Se não forem resolvidos, esses riscos podem levar a falhas no sistema e vulnerabilidades de segurança que podem ser exploradas por agentes de ameaças.

Alguns dos riscos operacionais mais comuns incluem:

  • Desvio ou decadência: os modelos de IA podem sofrer o desvio do modelo, um processo em que alterações nos dados ou nas relações entre pontos de dados podem levar à degradação do desempenho. Por exemplo, um modelo de detecção de fraude pode ficar menos preciso com o tempo e deixar de lado transações fraudulentas.
  • Problemas de sustentabilidade: os sistemas de IA são tecnologias novas e complexas que exigem dimensionamento e suporte adequados. Negligenciar a sustentabilidade pode levar a desafios na manutenção e atualização desses sistemas, causando desempenho inconsistente e aumento dos custos operacionais e do consumo de energia.
  • Desafios de integração: integrar sistemas de IA à infraestrutura de TI existente pode ser complexo e exigir muitos recursos. As organizações frequentemente encontram problemas com compatibilidade, silos de dados e interoperabilidade dos sistemas. A introdução de sistemas de IA também pode criar novas vulnerabilidades ao expandir a superfície de ataque para ameaças cibernéticas
  • Falta de responsabilidade: como os sistemas de IA são tecnologias relativamente novas, muitas organizações não têm as estruturas adequadas de governança corporativa. O resultado é que os sistemas de IA muitas vezes não têm supervisão. A McKinsey descobriu que apenas 18% das organizações têm um conselho ou diretoria com autoridade para tomar decisões sobre a governança de IA responsável.

Riscos éticos e legais

Se as organizações não priorizarem a segurança e a ética no desenvolvimento e na implementação de sistemas de IA, elas correm o risco de cometerem violações de privacidade e gerarem resultados com viés. Por exemplo, dados de treinamento com viés usados para decisões de contratação podem reforçar os estereótipos raciais ou de gênero e criar modelos de IA que favorecem determinados grupos demográficos em detrimento de outros.

 Riscos éticos e legais comuns incluem:

  • Falta de transparência: as organizações que não são transparentes e responsáveis em relação a seus sistemas de IA correm o risco de perder a confiança do público.
  • Falha no cumprimento dos requisitos regulatórios: a não conformidade com as regulamentações governamentais, como o GDPR, ou com as diretrizes específicas do setor, pode levar a multas e penalidades legais pesadas.
  • Vieses algorítmicos: os algoritmos de IA podem herdar vieses dos dados de treinamento, levando a resultados potencialmente discriminatórios, como decisões de contratação com viés e acesso desigual a serviços financeiros.
  • Dilemas éticos: as decisões de IA podem levantar questões éticas relacionadas à privacidade, autonomia e direitos humanos. Lidar mal com esses dilemas pode prejudicar a reputação de uma organização e corroer a confiança do público.
  • Falta de explicabilidade: a explicabilidade em IA refere-se à capacidade de entender e justificar as decisões tomadas pelos sistemas de IA. A falta de explicabilidade pode prejudicar a confiança e levar ao escrutínio legal e danos à reputação. Por exemplo, o fato de o CEO de uma organização não saber de onde o LLM obtém seus dados de treinamento pode resultar em críticas negativas ou investigações regulatórias.

Estruturas de gerenciamento de riscos de IA

Muitas organizações lidam com os riscos da IA adotando frameworks de gerenciamento de riscos de IA, que são conjuntos de diretrizes e práticas para gerenciar riscos em todo o ciclo de vida da IA.

Pode-se pensar também nessas diretrizes como playbooks que descrevem políticas, procedimentos, funções e responsabilidades referentes ao uso da IA por uma organização. Os frameworks de gerenciamento de riscos de IA ajudam as organizações a desenvolver, implementar e manter sistemas de IA de uma forma que minimize riscos, mantenha padrões éticos e alcance conformidade regulatória contínua.

Alguns dos frameworks de gerenciamento de riscos de IA mais usados incluem:

  • Framework de Gerenciamento de Riscos de IA do NIST
  • A Lei da UE sobre IA
  • Normas ISO/IEC
  • A ordem executiva dos EUA sobre IA

Framework de gerenciamento de risco de IA (AI RMF) do NIST

Em janeiro de 2023, o Instituto Nacional de Padrões e Tecnologia dos EUA (NIST) publicou o Framework de Gerenciamento de Riscos de IA (AI Risk Management Framework - AI RMF) para fornecer uma abordagem estruturada para gerenciar riscos de IA. O AI RMF do NIST se tornou um benchmark para gerenciamento de riscos de IA.

O objetivo principal do AI RMF é ajudar as organizações a projetar, desenvolver, implementar e utilizar sistemas de IA para gerenciar riscos de forma eficaz e promover práticas de IA confiáveis e responsáveis.

Desenvolvido em colaboração com os setores público e privado, o AI RMF é totalmente voluntário e aplicável a qualquer empresa, setor ou localização geográfica.

O framework é dividido em duas partes. A Parte 1 oferece uma visão geral dos riscos e das características dos sistemas de IA confiáveis. A Parte 2, o AI RMF Core, descreve quatro funções para ajudar as organizações a lidar com os riscos do sistema de IA:

  • Governar: criar uma cultura organizacional de gerenciamento de riscos de IA
  • Mapear: enquadrar os riscos da IA em contextos específicos de negócios
  • Medir: analisar e avaliar os riscos da IA
  • Gerenciar: lidar com os riscos mapeados e medidos

eu ai act

A Lei de Inteligência Artificial da UE (Lei de IA da UE) é uma lei que rege o desenvolvimento e o uso da inteligência artificial na União Europeia (UE). A lei adota uma abordagem de regulamentação baseada em riscos, aplicando regras diferentes aos sistemas de IA de acordo com as ameaças que eles representam à integridade, segurança e direitos humanos. A lei também cria regras para projetar, treinar e implementar modelos de inteligência artificial de uso geral, como os modelos de base que impulsionam o ChatGPT e o Google Gemini.

Padrões ISO/IEC

A International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC) desenvolveram normas (link externo a ibm.com) que lidam com vários aspectos do gerenciamento de riscos de IA.

As normas ISO/IEC enfatizam a importância da transparência, da responsabilidade e das considerações éticas no gerenciamento de riscos de IA. Eles também apresentam diretrizes práticas para gerenciar os riscos de IA em todo o ciclo de vida da IA, desde o projeto e o desenvolvimento até a implementação e a operação.

Como o gerenciamento de riscos de IA ajuda as organizações

Embora o processo de gerenciamento de riscos de IA necessariamente varie de uma organização para outra, as práticas de gerenciamento de riscos de IA podem proporcionar alguns benefícios principais comuns quando implementadas com sucesso.

Maior segurança

O gerenciamento de riscos de IA pode melhorar a postura de cibersegurança e o uso da segurança de IA de uma organização.

Ao realizar avaliações e auditorias de risco regulares, as organizações podem identificar riscos em potencial e vulnerabilidades durante todo o ciclo de vida da IA.

Após essas avaliações, podem implementar estratégias de mitigação para reduzir ou eliminar os riscos identificados. Esse processo pode envolver medidas técnicas, como aprimoramento da segurança de dados e melhoria da robustez do modelo. O processo também pode envolver ajustes organizacionais, como o desenvolvimento de diretrizes éticas e o fortalecimento dos controles de acesso.

Adotar essa abordagem mais proativa para detecção e resposta a ameaças pode ajudar as organizações a mitigar os riscos antes que eles aumentem, reduzindo a probabilidade de violações de dados e o possível impacto dos ataques cibernéticos.

Tomada de decisões aprimorada

O gerenciamento de riscos de IA também pode ajudar a melhorar a tomada de decisões gerais de uma organização.

Ao utilizar uma combinação de análises qualitativas e quantitativas, incluindo métodos estatísticos e opiniões de especialistas, as organizações podem obter uma compreensão clara de seus possíveis riscos. Essa visão abrangente ajuda as organizações a priorizar ameaças de alto risco e a tomar decisões mais embasadas sobre a implementação da IA, equilibrando o desejo de inovação com a necessidade de mitigação de riscos.

Conformidade regulamentar

Um foco global cada vez maior na proteção de dados confidenciais estimulou a criação de importantes requisitos regulatórios e normas setoriais, incluindo o Regulamento Geral de Proteção de Dados (GDPR), a California Consumer Privacy Act (CCPA) e a Lei de IA da UE.

A não conformidade com essas leis pode resultar em multas pesadas e penalidades legais consideráveis. O gerenciamento de riscos de IA pode ajudar as organizações a obter conformidade e permanecer em situação regular, especialmente porque as regulamentações relacionadas à IA evoluem quase tão rapidamente quanto a própria tecnologia.

Resiliência operacional

O gerenciamento de riscos de IA ajuda as organizações a minimizar interrupções e garantir a continuidade dos negócios, ao possibilitar que lidem com possíveis riscos com sistemas de IA em tempo real. O gerenciamento de riscos da IA também pode incentivar uma maior responsabilidade e sustentabilidade de longo prazo, permitindo que as organizações estabeleçam práticas de gerenciamento e metodologias claras para uso da IA. 

Aumento de confiança e transparência

O gerenciamento de riscos de IA incentiva uma abordagem mais ética aos sistemas de IA, ao priorizar a confiança e a transparência.

A maioria dos processos de gerenciamento de riscos de IA envolve uma ampla gama de stakeholders, incluindo executivos, desenvolvedores de IA, cientistas de dados, usuários, legisladores e até mesmo especialistas em ética. Essa abordagem inclusiva ajuda a garantir que os sistemas de IA sejam desenvolvidos e utilizados de forma responsável, levando em consideração todos os stakeholders. 

Testes, validação e monitoramento constantes

Ao realizar testes regulares e processos de monitoramento, as organizações podem acompanhar melhor o desempenho de um sistema de IA e detectar ameaças emergentes mais cedo. Esse monitoramento ajuda as organizações a manter a conformidade regulatória contínua e a remediar riscos de IA mais cedo, reduzindo o possível impacto das ameaças. 

Tornar o gerenciamento de riscos de IA uma prioridade para a empresa

Apesar de todo o seu potencial de simplificar e otimizar a forma como o trabalho é realizado, as tecnologias de IA não estão isentas de riscos. Quase todas as áreas de TI das empresas podem se tornar uma arma nas mãos erradas.

As organizações não precisam evitar a IA generativa. Eles simplesmente precisam tratá-la como qualquer outra ferramenta tecnológica. Isso significa entender os riscos e adotar medidas proativas para minimizar a chance de um ataque bem-sucedido.

Com o IBM watsonx.governance, as organizações podem facilmente direcionar, gerenciar e monitorar atividades de IA. O IBM watsonx.governance pode governar modelos de IA generativa de qualquer fornecedor, avaliar a integridade e a precisão do modelo e automatizar fluxos de trabalho de conformidade essenciais.

 

Autor