A Lei Europeia da Inteligência Artificial está gerando novos níveis de supervisão humana e conformidade regulatória para a inteligência artificial (IA) na União Europeia. Semelhante ao GDPR para privacidade, a Lei da IA da UE tem o potencial de definir o tom para as próximas regulamentações da IA em todo o mundo.
No início de 2024, o Parlamento Europeu, composto por 27 estados membros, endossou por unanimidade a Lei da IA da UE. A lei está agora passando pelas fases finais do processo legislativo, e espera-se que seja implementada em etapas no segundo semestre de 2024. Compreender as disposições da Lei da IA da UE e se preparar para a conformidade é essencial para qualquer organização que desenvolva, implemente ou use a IA ou esteja planejando fazê-lo.
A Lei da IA visa “fortalecer a posição da Europa como um centro global de excelência em IA, do laboratório ao mercado, garantir que a IA na Europa respeite os valores e regras estabelecidos e aproveite o potencial da IA para uso industrial”.
O foco principal da Lei da IA da UE é fortalecer a conformidade regulatória nas áreas de gerenciamento de riscos, proteção de dados, sistemas de gerenciamento de qualidade, transparência, supervisão humana, precisão, robustez e cibersegurança. O objetivo é promover a transparência e a responsabilidade sobre a forma como os sistemas de IA são desenvolvidos e implementados, ajudando a garantir que os produtos de IA colocados no mercado sejam seguros para os indivíduos utilizarem.
A Lei da IA da UE tem como objetivo enfrentar o desafio de desenvolver e implementar a IA de forma responsável em setores, incluindo aqueles altamente regulamentados, como saúde, finanças e energia. Para setores que prestam serviços essenciais aos clientes, como seguros, bancos e varejo, a lei exige uma avaliação de impacto nos direitos fundamentais que detalhe como o uso da IA afetará os direitos dos clientes.
A Lei da IA da UE exige que os modelos de IA de uso geral, incluindo sistemas de IA generativa, como grandes linguagens (LLMs) e modelos de base, sigam um sistema de classificação baseado em níveis de risco sistemáticos. Os níveis de risco mais altos têm mais requisitos de transparência, incluindo avaliação de modelos, documentação e relatórios. Eles também envolvem avaliação e mitigação de riscos do sistema, relatórios de incidentes graves e fornecimento de proteções contra a cibersegurança. Além disso, esses requisitos de transparência incluem a manutenção de documentação técnica atualizada, fornecimento de um resumo do conteúdo usado para treinamento de modelos e conformidade com as leis europeias de direitos autorais.
A Lei da IA da UE segue uma abordagem baseada em risco, usando camadas para classificar o nível de risco que os sistemas de IA representam para a saúde, a segurança ou os direitos fundamentais de um indivíduo. Os três níveis são:
A Lei da IA da UE também impõe regras sobre como os clientes são notificados ao usar um chatbot ou quando um sistema de reconhecimento de emoções é usado. Existem requisitos adicionais para rotular deep fakes e identificar quando conteúdo de IA generativa é usado na mídia.
Não cumprir a Lei da IA da UE pode ser caro:
7,5 milhões de euros ou 1,5% do faturamento anual total mundial de uma empresa (o que for maior) pelo fornecimento de informações incorretas. 15 milhões de euros ou 3% do faturamento anual total mundial de uma empresa (o que for maior) por violações das obrigações da Lei da IA da UE.
— VentureBeat
A Lei da IA Europeia é atualmente o framework legal mais abrangente para regulamentações da IA. Governos de todo o mundo estão observando e discutindo ativamente como regulamentar a tecnologia da IA para garantir que seus cidadãos, empresas e órgãos governamentais estejam protegidos contra possíveis riscos. Além disso, stakeholders, desde conselhos corporativos até consumidores, estão começando a priorizar a confiança, a transparência, a justiça e a responsabilização quando se trata da IA.
O IBM watsonx.governance ajuda você a acelerar fluxos de trabalho de IA responsáveis, transparentes e explicáveis
O IBM watsonx.governance permite que você acelere sua governança de IA, direcionando, gerenciando e monitorando as atividades de IA da sua organização. Emprega automação de software para fortalecer sua capacidade de mitigar riscos, gerenciar requisitos de políticas e governar o ciclo de vida de modelos de IA generativa e de aprendizado de máquina (ML) preditivo.
O watsonx.governance ajuda a gerar transparência, explicabilidade e documentação de modelos em três áreas principais:
O cliente é responsável por garantir a conformidade com as leis e regulamentações a ele aplicáveis. A IBM não presta orientação jurídica nem representa ou garante que seus serviços ou produtos assegurarão que o cliente esteja em conformidade com qualquer lei ou regulamentação.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.