A Lei de Inteligência Artificial da União Europeia, também conhecida como Lei de IA da UE ou Lei de IA, é uma lei que rege o desenvolvimento e/ou uso da inteligência artificial (IA) na União Europeia (UE). A legislação adota uma abordagem baseada em risco, aplicando regras diferentes para sistemas de IA conforme o risco que representam.
Considerada o primeiro framework regulatório abrangente do mundo para IA, a Lei de IA da UE proíbe completamente alguns usos de IA e implementa requisitos rigorosos de governança, gestão de riscos e transparência para outros.
A lei também cria regras para modelos de inteligência artificial de uso geral, como o modelo de base de código aberto Granite da IBM e Llama 3 da Meta.
As penalidades podem variar de EUR 7,5 milhões ou 1,5% do faturamento anual mundial a 35 milhões de euros ou 7% do faturamento anual mundial, dependendo do tipo de não conformidade.
Da mesma forma que o Regulamento Geral sobre a Proteção de Dados (GDPR) da UE pode inspirar outras nações a adotarem leis de privacidade de dados, especialistas preveem que a Lei de IA da UE impulsionará o desenvolvimento de padrões globais para governança de IA e ética.
A Lei de IA da UE se aplica a vários operadores na cadeia de valor de IA, como fornecedores, implementadores, importadores, distribuidores, fabricantes de produtos e representantes autorizados. Dignas de menção são as definições de provedores, implantadores e importadores sob a Lei de IA da UE.
Os provedores são pessoas ou organizações que desenvolvem um sistema de IA ou um modelo de IA de uso geral (GPAI), ou o desenvolvem em seu nome, e que o colocam no mercado ou colocam o sistema de IA em serviço sob seu nome ou marca registrada.
A lei define amplamente um sistema de IA como um sistema que pode, com certo nível de autonomia, processar inputs para inferir como gerar saídas (por exemplo, previsões, recomendações, decisões, conteúdo) que possam influenciar ambientes físicos ou virtuais. Ela define a GPAI como modelos de IA que apresentam generalidade significativa, são capazes de executar de forma competente uma ampla variedade de tarefas distintas e podem ser integrados a diversos sistemas ou aplicações de IA subsequentes. Por exemplo, um modelo de base é uma GPAI; um chatbot ou ferramenta de IA generativa construída sobre esse modelo seria um sistema de IA.
Implementadores são pessoas ou organizações que utilizam sistemas de IA. Por exemplo, uma organização que utiliza um chatbot IA de terceiros para lidar com consultas de atendimento ao cliente seria uma implementadora.
Importadores são pessoas e organizações localizadas ou estabelecidas na UE que trazem sistemas de IA de uma pessoa ou empresa estabelecida fora da UE para o mercado da UE.
A Lei de IA da UE também se aplica a fornecedores e implementadores fora da UE se sua IA, ou os resultados dessa IA, forem utilizados dentro da UE.
Por exemplo, suponha que uma empresa na UE envie dados para um provedor de IA fora da UE, que utiliza IA para processar os dados e, em seguida, envie a saída de volta para a empresa na UE para uso. Como a saída do sistema de IA do provedor é utilizada na UE, o provedor está vinculado à Lei de IA da UE.
Os fornecedores de fora da UE que oferecem serviços de IA na UE devem designar representantes autorizados na UE para coordenar os esforços de conformidade em seu nome.
Embora a lei tenha amplo alcance, alguns usos da IA estão isentos. As utilizações puramente pessoais de IA e os modelos de IA utilizados somente para pesquisa e desenvolvimento científico são exemplos de usos isentos de IA.
A Lei de IA da UE regula os sistemas de IA com base no nível de risco. Risco aqui refere-se à probabilidade e gravidade do dano em potencial. Algumas das disposições mais importantes são:
Os sistemas de IA que não se enquadram em uma das categorias de risco da Lei de IA da UE não estão sujeitos a requisitos estabelecidos pela lei (estes são frequentemente classificados como de "risco mínimo"), embora alguns possam precisar atender a obrigações de transparência e cumprir outras leis existentes. Exemplos podem incluir filtros de spam de e-mail e videogames. Muitas aplicações comuns de IA atualmente se encaixam nessa categoria.
Vale ressaltar que muitos dos detalhes da implementação da Lei de IA da UE ainda estão sendo definidos. Por exemplo, a lei menciona que a Comissão Europeia divulgará diretrizes adicionais sobre requisitos como planos de monitoramento pós-mercado e resumos de dados de treinamento.
A Lei de IA da UE menciona explicitamente certas práticas proibidas de IA consideradas como nível de risco inaceitável. Por exemplo, o desenvolvimento ou a utilização de sistemas de IA que manipulem intencionalmente as pessoas para fazerem escolhas prejudiciais que de outra forma não fariam é considerado pela lei como um risco inaceitável para os usuários e é uma prática proibida de IA.
A Comissão Europeia pode alterar a lista de práticas proibidas na lei, portanto é possível que outras práticas de IA sejam proibidas no futuro.
A lista parcial de práticas de IA proibidas na época da publicação deste artigo contém:
Os sistemas de IA são considerados de alto risco de acordo com a Lei de IA da UE se forem um produto ou componente de segurança de um produto, regulamentado pela legislação específica da UE referenciada pela lei, como leis sobre segurança de brinquedos e dispositivos médicos para diagnóstico in vitro.
A lei também lista usos específicos geralmente considerados de alto risco, incluindo sistemas de IA usados:
Para os sistemas incluídos nesta lista, pode haver uma exceção disponível se o sistema de IA não representar uma ameaça considerável à integridade, à segurança ou aos direitos dos indivíduos. A lei especifica critérios, dos quais um ou mais devem ser atendidos, antes que uma exceção possa ser acionada (por exemplo, quando o sistema de IA tem como objetivo executar uma tarefa processual restrita). Se basear-se nessa exceção, o provedor deverá documentar sua avaliação de que o sistema não é de alto risco e os reguladores podem solicitar para ver essa avaliação. A exceção não está disponível para sistemas de IA que processam automaticamente dados pessoais para avaliar ou prever algum aspecto da vida de uma pessoa, como suas preferências de produto (criação de perfis) que sempre são considerados de alto risco.
Assim como na lista de práticas proibidas de IA, a Comissão da UE poderá atualizar a lista de sistemas de IA de alto risco no futuro.
Sistemas de IA de alto risco devem atender a requisitos específicos. Alguns exemplos são:
Existem obrigações adicionais de transparência para tipos específicos de IA. Por exemplo:
Destacamos abaixo algumas das obrigações dos principais operadores de sistemas de IA de alto risco na cadeia de valor de IA (fornecedores e implementadores).
Os fornecedores de sistemas de IA de alto risco devem cumprir os requisitos, incluindo:
Os implantadores de sistemas de IA de alto risco terão obrigações:
A Lei de IA da UE cria regras separadas para modelos de IA de uso geral (GPAI). Os fornecedores de modelos GPAI terão obrigações que incluem as seguintes:
Se um modelo de GPAI for classificado como apresentando risco sistêmico, os fornecedores terão obrigações adicionais. O risco sistêmico refere-se ao risco específico das capacidades de alto impacto dos modelos de GPAI, que podem ter um impacto significativo no mercado da UE devido à sua abrangência ou aos efeitos negativos atuais ou razoavelmente previsíveis sobre a saúde pública, segurança, segurança pública, direitos fundamentais ou a sociedade como um todo, podendo ser propagados em larga escala ao longo da cadeia de valor. A lei usa recursos de treinamento como um dos critérios para identificar risco sistêmico, se a quantidade cumulativa de poder computacional usada para treinar um modelo for superior a 10^25 operações de ponto flutuante (FLOPs), presume-se que ele tenha capacidades de alto impacto e represente um risco sistêmico. A Comissão Europeia também pode classificar um modelo como apresentando risco sistêmico.
Fornecedores de modelos GPAI que representam risco sistêmico, incluindo os modelos gratuitos e de código aberto, devem atender a algumas obrigações adicionais, por exemplo:
Para não conformidade com as práticas proibidas de IA, as organizações podem ser multadas em até EUR 35.000.000 ou 7% do faturamento anual mundial, o que for maior.
Para a maioria das outras violações, incluindo não conformidade com os requisitos para sistemas de IA de alto risco, as organizações podem ser multadas em até EUR 15.000.000 ou 3% do faturamento anual mundial, o que for maior.
A apresentação de informações incorretas, incompletas ou enganosas às autoridades pode resultar em multas de até 7,5 milhões de euros ou 1% do faturamento mundial anual, o que for maior, para as organizações.
É importante destacar que a Lei de IA da UE prevê regras diferentes para startups e outras pequenas e médias empresas. Para esses negócios, a multa será o menor dos dois valores possíveis especificados acima.
A lei entrou em vigor em 1 de agosto de 2024 com diversas disposições da lei entrando em vigor em etapas. Algumas das datas mais marcantes são:
Saiba como a Lei de IA da União Europeia afetará as empresas, como se preparar, como você pode mitigar os riscos e como equilibrar regulamentação e inovação.
Conheça os novos desafios da IA generativa, a necessidade de governar modelos de IA e ML e as etapas para criar um framework de IA confiável, transparente e explicável.
Leia sobre a condução de práticas éticas e de conformidade com um portfólio de produtos de IA para modelos de IA generativa.
Adquira uma compreensão mais profunda de como garantir a imparcialidade, gerenciar desvios, manter a qualidade e aprimorar a explicabilidade com o watsonx.governance.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.
Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.
O cliente é responsável por garantir o cumprimento de todas as leis e regulamentações aplicáveis. A IBM não fornece conselho jurídico tampouco representa ou garante que seus serviços ou produtos garantirão que o cliente esteja em conformidade com qualquer lei ou regulamentação.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com