Minha IBM Efetue login Inscreva-se

Preparação para a Lei da IA da UE: acertando na governança

8 de fevereiro de 2024

4 min. de leitura

A Lei Europeia da Inteligência Artificial está gerando novos níveis de supervisão humana e conformidade regulatória para a inteligência artificial (IA) na União Europeia. Semelhante ao GDPR para privacidade, a Lei da IA da UE tem o potencial de definir o tom para as próximas regulamentações da IA em todo o mundo.

No início de 2024, o Parlamento Europeu, composto por 27 estados membros, endossou por unanimidade a Lei da IA da UE. A lei está agora passando pelas fases finais do processo legislativo, e espera-se que seja implementada em etapas no segundo semestre de 2024. Compreender as disposições da Lei da IA da UE e se preparar para a conformidade é essencial para qualquer organização que desenvolva, implemente ou use a IA ou esteja planejando fazê-lo.

A Lei da IA visa “fortalecer a posição da Europa como um centro global de excelência em IA, do laboratório ao mercado, garantir que a IA na Europa respeite os valores e regras estabelecidos e aproveite o potencial da IA para uso industrial”.

Notícias do Parlamento Europeu

Resumo da Lei da IA da UE

O foco principal da Lei da IA da UE é fortalecer a conformidade regulatória nas áreas de gerenciamento de riscos, proteção de dados, sistemas de gerenciamento de qualidade, transparência, supervisão humana, precisão, robustez e cibersegurança. O objetivo é promover a transparência e a responsabilidade sobre a forma como os sistemas de IA são desenvolvidos e implementados, ajudando a garantir que os produtos de IA colocados no mercado sejam seguros para os indivíduos utilizarem.

A Lei da IA da UE tem como objetivo enfrentar o desafio de desenvolver e implementar a IA de forma responsável em setores, incluindo aqueles altamente regulamentados, como saúde, finanças e energia. Para setores que prestam serviços essenciais aos clientes, como seguros, bancos e varejo, a lei exige uma avaliação de impacto nos direitos fundamentais que detalhe como o uso da IA afetará os direitos dos clientes.

A pedra angular da Lei da IA da UE: salvaguardas para evitar riscos inaceitáveis

A Lei da IA da UE exige que os modelos de IA de uso geral, incluindo sistemas de IA generativa, como grandes linguagens (LLMs) e modelos de base, sigam um sistema de classificação baseado em níveis de risco sistemáticos. Os níveis de risco mais altos têm mais requisitos de transparência, incluindo avaliação de modelos, documentação e relatórios. Eles também envolvem avaliação e mitigação de riscos do sistema, relatórios de incidentes graves e fornecimento de proteções contra a cibersegurança. Além disso, esses requisitos de transparência incluem a manutenção de documentação técnica atualizada, fornecimento de um resumo do conteúdo usado para treinamento de modelos e conformidade com as leis europeias de direitos autorais.

A Lei da IA da UE segue uma abordagem baseada em risco, usando camadas para classificar o nível de risco que os sistemas de IA representam para a saúde, a segurança ou os direitos fundamentais de um indivíduo. Os três níveis são:

  • Sistemas de baixo risco, como filtros de spam ou videogames, têm poucos requisitos sob a lei além das obrigações de transparência. 
  • Sistemas de IA de alto risco, como veículos autônomos, dispositivos médicos e infraestrutura crítica (água, gás, eletricidade etc.), exigem que desenvolvedores e usuários cumpram outros requisitos regulamentares:
    • Implementar o gerenciamento de riscos, fornecer precisão, robustez e um framework de prestação de contas que inclua supervisão humana
    • Atender aos requisitos de transparência fornecidos para usuários, manutenção de registros e documentação técnica
  • Os sistemas proibidos, com poucas exceções, são sistemas que representam um risco inaceitável, como pontuação social, reconhecimento facial, reconhecimento de emoções e sistemas de identificação biométrica remota em espaços públicos.

A Lei da IA da UE também impõe regras sobre como os clientes são notificados ao usar um chatbot ou quando um sistema de reconhecimento de emoções é usado. Existem requisitos adicionais para rotular deep fakes e identificar quando conteúdo de IA generativa é usado na mídia.

Não cumprir a Lei da IA da UE pode ser caro:

7,5 milhões de euros ou 1,5% do faturamento anual total mundial de uma empresa (o que for maior) pelo fornecimento de informações incorretas. 15 milhões de euros ou 3% do faturamento anual total mundial de uma empresa (o que for maior) por violações das obrigações da Lei da IA da UE.

— VentureBeat

A Lei da IA Europeia é atualmente o framework legal mais abrangente para regulamentações da IA. Governos de todo o mundo estão observando e discutindo ativamente como regulamentar a tecnologia da IA para garantir que seus cidadãos, empresas e órgãos governamentais estejam protegidos contra possíveis riscos. Além disso, stakeholders, desde conselhos corporativos até consumidores, estão começando a priorizar a confiança, a transparência, a justiça e a responsabilização quando se trata da IA.

Preparando-se para as próximas regulamentações com a IBM

O IBM watsonx.governance ajuda você a acelerar fluxos de trabalho de IA responsáveis, transparentes e explicáveis

O IBM watsonx.governance permite que você acelere sua governança de IA, direcionando, gerenciando e monitorando as atividades de IA da sua organização. Emprega automação de software para fortalecer sua capacidade de mitigar riscos, gerenciar requisitos de políticas e governar o ciclo de vida de modelos de IA generativa e de aprendizado de máquina (ML) preditivo.

O watsonx.governance ajuda a gerar transparência, explicabilidade e documentação de modelos em três áreas principais:

  • Conformidade ajuda a gerenciar a transparência da IA e a lidar com a conformidade com políticas e padrões. Conecte dados aos principais controles de riscos e use fichas informativas para automatizar a captura e a geração de relatórios de metadados de modelos em apoio a consultas e auditorias.
  • Gerenciamento de riscos limites de riscos predefinidos, ajudando a detectar e mitigar proativamente os riscos dos modelos de IA. Monitore a imparcialidade, o desvio, o viés e o desempenho em relação às métricas de avaliação, os casos de linguagem tóxica e a proteção de informações pessoais identificáveis (PII). Obtenha insights sobre riscos organizacionais com dashboards e relatórios baseados no usuário.
  • Governança do ciclo de vida — ajude a governar modelos de IA generativa e de aprendizado de máquina preditivo em todo o ciclo de vida usando fluxos de trabalho integrados e aprovações. Monitore o status de casos de uso, solicitações de mudança em processo, desafios, problemas e tarefas atribuídas.

O cliente é responsável por garantir a conformidade com as leis e regulamentações a ele aplicáveis. A IBM não presta orientação jurídica nem representa ou garante que seus serviços ou produtos assegurarão que o cliente esteja em conformidade com qualquer lei ou regulamentação.

 

Autor

Heather Gentile

Director of watsonx.governance Product Management

IBM Data and AI Software

Soluções relacionadas

Soluções relacionadas

IBM watsonx.governance™

Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.

Descubra o watsonx.governance
Serviços de consultoria de governança de IA

Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.

Explore os serviços de governança de IA
IBM OpenPages

Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.

Explore o OpenPages
Dê o próximo passo

Direcione, gerencie e monitore sua IA com um único portfólio para acelerar a IA responsável, transparente e explicável.

Explore o watsonx.governance Agende uma demonstração em tempo real