A Lei de Inteligência Artificial da União Europeia, também conhecida como Lei de IA da UE ou Lei de IA, é uma lei que rege o desenvolvimento e/ou uso da inteligência artificial (IA) na União Europeia (UE). A lei adota uma abordagem de regulamentação baseada em riscos, aplicando diferentes regras à IA de acordo com o risco que representam.
Considerada o primeiro framework regulatório abrangente do mundo para IA, a Lei de IA da UE proíbe completamente alguns usos de IA e implementa requisitos rigorosos de governança, gestão de riscos e transparência para outros.
A lei também cria regras para modelos de inteligência artificial de uso geral, como o modelo de base de código aberto Granite da IBM e o Llama 3 da Meta.
As penalidades podem variar de EUR 7,5 milhões ou 1,5% do faturamento anual global até EUR 35 milhões ou 7% do faturamento anual global, dependendo do tipo de não conformidade.
Da mesma forma que o Regulamento Geral de Proteção de Dados (GDPR) da UE pode inspirar outras nações a adotar leis de privacidade de dados, os especialistas antecipam que a Lei de IA da UE estimulará o desenvolvimento de padrões de governança e ética de IA em todo o mundo.
A Lei de IA da UE se aplica a vários operadores na cadeia de valor de IA, como fornecedores, implementadores, importadores, distribuidores, fabricantes de produtos e representantes autorizados. Dignas de menção são as definições de provedores, implantadores e importadores sob a Lei de IA da UE.
Os provedores são pessoas ou organizações que desenvolvem um sistema de IA ou um modelo de IA de uso geral (GPAI), ou que mandam desenvolvê-lo em seu nome, e que o colocam no mercado ou o colocam em operação sob seu nome ou marca.
A lei define amplamente um sistema de IA como um sistema que pode, com algum nível de autonomia, processar inputs para inferir como gerar saídas (por exemplo, previsões, recomendações, decisões, conteúdo) que podem influenciar ambientes físicos ou virtuais. Ela define GPAI como modelos de IA que exibem grande generalidade, são capazes de executar com competência uma ampla gama de tarefas distintas e que podem ser integrados em vários sistemas ou aplicações de IA a jusante. Por exemplo, um modelo de fundação é um GPAI; um chatbot ou uma ferramenta de IA generativa construída sobre esse modelo seria um sistema de IA.
Implementadores são pessoas ou organizações que utilizam sistemas de IA. Por exemplo, uma organização que usa um chatbot de terceiros para lidar com consultas de atendimento ao cliente seria um implementador.
Importadores são pessoas ou organizações localizadas ou estabelecidas na UE que trazem sistemas de IA de uma pessoa ou empresa estabelecida fora da UE para o mercado da UE.
A Lei de IA da UE também se aplica a provedores e implementadores fora da UE se sua IA, ou os resultados da IA, forem utilizados na UE.
Por exemplo, suponha que uma empresa na UE envie dados para um provedor de IA fora da UE, que utiliza IA para processar os dados, e depois envie a saída de volta para a empresa na UE para uso. Como a saída do sistema de IA do provedor é usada na UE, o provedor está sujeito à Lei de IA da UE.
Provedores fora da UE que oferecem serviços de IA na UE devem designar representantes autorizados na UE para coordenar os esforços de conformidade em seu nome.
Embora a lei tenha um alcance amplo, alguns usos de IA são isentos. Usos puramente pessoais de IA e modelos e sistemas de IA usados apenas para pesquisa e desenvolvimento científico são exemplos de usos isentos.
A Lei de IA da UE regula sistemas de IA com base no nível de risco. Risco aqui se refere à probabilidade e à gravidade do dano potencial. Algumas das disposições mais importantes incluem:
Sistemas de IA que não se enquadram em uma das categorias de risco da Lei de IA da UE não estão sujeitos a requisitos sob a lei (esses são frequentemente chamados de categoria de "risco mínimo"), embora alguns possam precisar atender a obrigações de transparência e devam cumprir outras leis existentes. Exemplos podem incluir filtros de spam de e-mail e videogames. Muitos usos comuns de IA hoje se enquadram nessa categoria.
Vale ressaltar que muitos dos detalhes mais específicos sobre a implementação da Lei de IA da UE ainda estão sendo definidos. Por exemplo, a lei menciona que a Comissão Europeia publicará orientações adicionais sobre requisitos como planos de monitoramento pós-mercado e resumos de dados de treinamento.
A Lei de IA da UE lista explicitamente certas práticas de IA proibidas, consideradas como apresentando um nível inaceitável de risco. Por exemplo, desenvolver ou usar um sistema de IA que manipule intencionalmente pessoas para que tomem decisões prejudiciais que, de outra forma, não tomariam, é considerado pela lei como apresentando risco inaceitável para os usuários e constitui uma prática de IA proibida.
A Comissão Europeia pode alterar a lista de práticas proibidas da lei, portanto, é possível que mais práticas de IA sejam proibidas no futuro.
Uma lista parcial de práticas de IA proibidas no momento da publicação deste artigo inclui:
Os sistemas de IA são considerados de alto risco segundo a Lei de IA da UE se forem um produto ou um componente de segurança de um produto regulamentado por leis específicas da UE referenciadas pela lei, como leis de segurança de brinquedos e de dispositivos médicos de diagnóstico in vitro.
A lei também lista usos específicos que são geralmente considerados de alto risco, incluindo sistemas de IA utilizados:
Para os sistemas incluídos nesta lista, pode haver uma exceção disponível se o sistema de IA não representar uma ameaça significativa à saúde, segurança ou aos direitos dos indivíduos. A lei especifica critérios, um ou mais dos quais devem ser cumpridos, para que uma exceção possa ser aplicada (por exemplo, quando o sistema de IA se destina a realizar uma tarefa processual limitada). Se confiar nessa exceção, o provedor deve documentar sua avaliação de que o sistema não é de alto risco, e os reguladores podem solicitar essa avaliação. A exceção não está disponível para sistemas de IA que processam automaticamente dados pessoais para avaliar ou prever algum aspecto da vida de uma pessoa, como suas preferências de produtos (perfilamento), que são sempre considerados de alto risco.
Assim como ocorre com a lista de práticas de IA proibidas, a Comissão Europeia pode atualizar a lista de sistemas de IA de alto risco no futuro.
Sistemas de IA de alto risco devem cumprir requisitos específicos. Alguns exemplos incluem:
Existem obrigações adicionais de transparência para tipos específicos de IA. Por exemplo:
Destacamos abaixo algumas obrigações para operadores-chave de sistemas de IA de alto risco na cadeia de valor da IA — provedores e implementadores:
Os fornecedores de sistemas de IA de alto risco devem cumprir os requisitos, incluindo:
Implementadores de sistemas de IA de alto risco terão obrigações, incluindo:
A Lei de IA da UE cria regras separadas para modelos de IA de uso geral (GPAI). Os fornecedores de modelos GPAI terão obrigações que incluem as seguintes:
.
Se um modelo de GPAI for classificado como apresentando um risco sistêmico, os provedores terão obrigações adicionais. Risco sistêmico é um risco específico dos recursos de alto impacto dos modelos de GPAI que têm um impacto significativo no mercado da UE devido ao seu alcance ou aos efeitos negativos reais ou razoavelmente previsíveis sobre a saúde pública, segurança pública, direitos fundamentais ou a sociedade como um todo, que podem ser propagados em escala ao longo da cadeia de valor.
A lei utiliza os recursos de treinamento como um dos critérios para identificar o risco sistêmico — se a quantidade cumulativa de poder computacional usada para treinar um modelo for superior a 10^25 operações de ponto flutuante (FLOPs), presume-se que ele tenha capacidades de alto impacto e represente um risco sistêmico. A Comissão Europeia também pode classificar um modelo como representando um risco sistêmico.
Provedores de modelos de GPAI que apresentem risco sistêmico, incluindo modelos gratuitos e de código aberto, devem cumprir algumas obrigações adicionais, por exemplo:
Para não conformidade com as práticas proibidas de IA, as organizações podem ser multadas em até EUR 35.000.000 ou 7% do faturamento anual mundial, o que for maior.
Para a maioria das outras violações, incluindo o descumprimento dos requisitos para sistemas de IA de alto risco, as organizações podem ser multadas em até EUR 15.000.000 ou 3% do faturamento anual mundial, o que for maior.
A apresentação de informações incorretas, incompletas ou enganosas às autoridades pode resultar em multas de até EUR 7,5 milhões ou 1% do faturamento mundial anual, o que for maior, para as organizações.
Notavelmente, a Lei de IA da UE possui regras diferentes para multar startups e outras organizações de pequeno e médio porte. Para essas empresas, a multa é o menor dos dois valores possíveis especificados acima.
A lei entrou em vigor em 1º de agosto de 2024, com diferentes disposições entrando em vigor em fases. Algumas das datas mais importantes incluem:
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.
O cliente é responsável por garantir a conformidade com todas as leis e regulamentações aplicáveis. A IBM não fornece aconselhamento jurídico nem representa ou garante que seus serviços ou produtos garantirão que o cliente esteja em conformidade com qualquer lei ou regulamentação.