Preparação para a Lei da IA da UE: acertando na governança

8 de fevereiro de 2024

4 min. de leitura

A Lei Europeia da Inteligência Artificial está gerando novos níveis de supervisão humana e conformidade regulatória para a inteligência artificial (IA) na União Europeia. Semelhante ao GDPR para privacidade, a Lei da IA da UE tem o potencial de definir o tom para as próximas regulamentações da IA em todo o mundo.

No início de 2024, o Parlamento Europeu, composto por 27 estados membros, endossou por unanimidade a Lei da IA da UE. A lei está agora passando pelas fases finais do processo legislativo, e espera-se que seja implementada em etapas no segundo semestre de 2024. Compreender as disposições da Lei da IA da UE e se preparar para a conformidade é essencial para qualquer organização que desenvolva, implemente ou use a IA ou esteja planejando fazê-lo.

A Lei da IA visa “fortalecer a posição da Europa como um centro global de excelência em IA, do laboratório ao mercado, garantir que a IA na Europa respeite os valores e regras estabelecidos e aproveite o potencial da IA para uso industrial”.

Notícias do Parlamento Europeu

Resumo da Lei da IA da UE

O foco principal da Lei da IA da UE é fortalecer a conformidade regulatória nas áreas de gerenciamento de riscos, proteção de dados, sistemas de gerenciamento de qualidade, transparência, supervisão humana, precisão, robustez e cibersegurança. O objetivo é promover a transparência e a responsabilidade sobre a forma como os sistemas de IA são desenvolvidos e implementados, ajudando a garantir que os produtos de IA colocados no mercado sejam seguros para os indivíduos utilizarem.

A Lei da IA da UE tem como objetivo enfrentar o desafio de desenvolver e implementar a IA de forma responsável em setores, incluindo aqueles altamente regulamentados, como saúde, finanças e energia. Para setores que prestam serviços essenciais aos clientes, como seguros, bancos e varejo, a lei exige uma avaliação de impacto nos direitos fundamentais que detalhe como o uso da IA afetará os direitos dos clientes.

A pedra angular da Lei da IA da UE: salvaguardas para evitar riscos inaceitáveis

A Lei da IA da UE exige que os modelos de IA de uso geral, incluindo sistemas de IA generativa, como grandes linguagens (LLMs) e modelos de base, sigam um sistema de classificação baseado em níveis de risco sistemáticos. Os níveis de risco mais altos têm mais requisitos de transparência, incluindo avaliação de modelos, documentação e relatórios. Eles também envolvem avaliação e mitigação de riscos do sistema, relatórios de incidentes graves e fornecimento de proteções contra a cibersegurança. Além disso, esses requisitos de transparência incluem a manutenção de documentação técnica atualizada, fornecimento de um resumo do conteúdo usado para treinamento de modelos e conformidade com as leis europeias de direitos autorais.

A Lei da IA da UE segue uma abordagem baseada em risco, usando camadas para classificar o nível de risco que os sistemas de IA representam para a saúde, a segurança ou os direitos fundamentais de um indivíduo. Os três níveis são:

  • Sistemas de baixo risco, como filtros de spam ou videogames, têm poucos requisitos sob a lei além das obrigações de transparência. 
  • Sistemas de IA de alto risco, como veículos autônomos, dispositivos médicos e infraestrutura crítica (água, gás, eletricidade etc.), exigem que desenvolvedores e usuários cumpram outros requisitos regulamentares:
    • Implementar o gerenciamento de riscos, fornecer precisão, robustez e um framework de prestação de contas que inclua supervisão humana
    • Atender aos requisitos de transparência fornecidos para usuários, manutenção de registros e documentação técnica
  • Os sistemas proibidos, com poucas exceções, são sistemas que representam um risco inaceitável, como pontuação social, reconhecimento facial, reconhecimento de emoções e sistemas de identificação biométrica remota em espaços públicos.

A Lei da IA da UE também impõe regras sobre como os clientes são notificados ao usar um chatbot ou quando um sistema de reconhecimento de emoções é usado. Existem requisitos adicionais para rotular deep fakes e identificar quando conteúdo de IA generativa é usado na mídia.

Não cumprir a Lei da IA da UE pode ser caro:

7,5 milhões de euros ou 1,5% do faturamento anual total mundial de uma empresa (o que for maior) pelo fornecimento de informações incorretas. 15 milhões de euros ou 3% do faturamento anual total mundial de uma empresa (o que for maior) por violações das obrigações da Lei da IA da UE.

— VentureBeat

A Lei da IA Europeia é atualmente o framework legal mais abrangente para regulamentações da IA. Governos de todo o mundo estão observando e discutindo ativamente como regulamentar a tecnologia da IA para garantir que seus cidadãos, empresas e órgãos governamentais estejam protegidos contra possíveis riscos. Além disso, stakeholders, desde conselhos corporativos até consumidores, estão começando a priorizar a confiança, a transparência, a justiça e a responsabilização quando se trata da IA.

Preparando-se para as próximas regulamentações com a IBM

O IBM watsonx.governance ajuda você a acelerar fluxos de trabalho de IA responsáveis, transparentes e explicáveis

O IBM watsonx.governance permite que você acelere sua governança de IA, direcionando, gerenciando e monitorando as atividades de IA da sua organização. Emprega automação de software para fortalecer sua capacidade de mitigar riscos, gerenciar requisitos de políticas e governar o ciclo de vida de modelos de IA generativa e de aprendizado de máquina (ML) preditivo.

O watsonx.governance ajuda a gerar transparência, explicabilidade e documentação de modelos em três áreas principais:

  • Conformidade ajuda a gerenciar a transparência da IA e a lidar com a conformidade com políticas e padrões. Conecte dados aos principais controles de riscos e use fichas informativas para automatizar a captura e a geração de relatórios de metadados de modelos em apoio a consultas e auditorias.
  • Gerenciamento de riscos limites de riscos predefinidos, ajudando a detectar e mitigar proativamente os riscos dos modelos de IA. Monitore a imparcialidade, o desvio, o viés e o desempenho em relação às métricas de avaliação, os casos de linguagem tóxica e a proteção de informações pessoais identificáveis (PII). Obtenha insights sobre riscos organizacionais com dashboards e relatórios baseados no usuário.
  • Governança do ciclo de vida — ajude a governar modelos de IA generativa e de aprendizado de máquina preditivo em todo o ciclo de vida usando fluxos de trabalho integrados e aprovações. Monitore o status de casos de uso, solicitações de mudança em processo, desafios, problemas e tarefas atribuídas.

O cliente é responsável por garantir a conformidade com as leis e regulamentações a ele aplicáveis. A IBM não presta orientação jurídica nem representa ou garante que seus serviços ou produtos assegurarão que o cliente esteja em conformidade com qualquer lei ou regulamentação.

 

Autor

Heather Gentile

Director of Product, watsonx.governance Risk and Compliance

IBM

Soluções relacionadas
IBM watsonx.governance

Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.

Descubra o watsonx.governance
Soluções de governança de IA

Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.

Descubra soluções de governança de IA
Serviços de consultoria de governança de IA

Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.

Conheça os serviços de governança de IA
Dê o próximo passo

Direcione, gerencie e monitore sua IA com um único portfólio para acelerar a IA responsável, transparente e explicável.

Explore o watsonx.governance Agende uma demonstração em tempo real