Tanto para empresas de pequeno porte quanto para grandes empresas, a inteligência artificial (IA) está associada a várias palavras interessantes, como inovação, oportunidade e vantagem competitiva. Mas há outra palavra que precisa estar nessa lista: conformidade.
Cerca de 73% das empresas já usam a IA analítica e generativa, e 72% dos CEOs de alto desempenho afirmam que a vantagem competitiva depende de quem usa a IA mais avançada.1
Mas esse boom no uso de IA e seu potencial empolgante vêm com preocupações crescentes sobre a ética e a segurança das tecnologias impulsionadas por IA. Se um desenvolvimento imperfeito levar a algoritmos tendenciosos que perpetuam a discriminação (em recrutamento, segurança pública ou decisões financeiras, por exemplo), as consequências podem ser terríveis e duradouras.
Como resultado, empresas, países e legisladores estão avaliando a governança de IA e estabelecendo novas regras sobre como a IA pode ser usada e desenvolvida. Dê uma olhada no que é conformidade da IA, por que ela é importante para as empresas e quais medidas as empresas podem adotar para manter a conformidade em um cenário regulatório em rápida evolução.
Conformidade da IA refere-se às decisões e práticas que permitem às empresas permanecerem alinhadas com as leis e regulamentações que regem o uso de sistemas de IA. Essas normas incluem leis, regulamentos e políticas internas criados para ajudar a garantir que as organizações desenvolvam modelos de IA e seus algoritmos de forma responsável.
Mas os processos de conformidade da IA vão além do cumprimento dos requisitos legais. Eles também visam construir a confiança dos stakeholders e promover transparência e justiça na tomada de decisões. Eles também são essenciais para a segurança. Como a IA pode ser explorada por agentes maliciosos, medidas robustas de cibersegurança e estratégias de gerenciamento de riscos estão no centro da conformidade da IA.
Os processos de conformidade da IA ajudam as empresas a evitar os riscos financeiros, legais e de reputação associados ao uso de ferramentas de IA.
Quanto mais as empresas usam a IA, mais podem se deparar com situações em que a tecnologia toma rumos inesperados ou errôneos. Por exemplo, uma empresa abandonou sua ferramenta de recrutamento de IA depois de descobrir que ela perpetuou discriminação de gênero devido aos materiais usados para treiná-la.2 E as investigações descobriram que alguns pedidos de empréstimo orientados por algoritmos podem levar à discriminação contra candidatos de cor.3
As preocupações com essas questões estão estimulando uma onda de esforços para padronizar a forma como a IA é desenvolvida e usada pelas empresas. Em 2024, a União Europeia se tornou o primeiro grande mercado a impor regras sobre a IA com o lançamento da Lei de IA da UE. Outras jurisdições, incluindo Estados Unidos e China, também estão desenvolvendo suas próprias regulamentações de IA.
A falta de conformidade pode custar caro. De acordo com o General Data Protection Regulation (GDPR) da UE, as empresas podem enfrentar multas de até EUR 20 milhões ou 4% de seu faturamento anual global, o que for maior. Nos Estados Unidos, a Federal Trade Commission (FTC) pode adotar ações de imposição contra empresas por violações relacionadas à IA, como o uso de algoritmos de aprendizado de máquina tendenciosos.4
A conformidade também é essencial para proteger a reputação da marca. Uma pesquisa de 2024 da KPMG descobriu que 78% dos consumidores acreditam que as organizações que usam a IA têm a responsabilidade de ajudar a garantir que ela esteja sendo desenvolvida de forma ética.5 Se isso não ocorrer, pode acarretar perda de confiança das empresas e dos consumidores.
Ao garantir que os sistemas de IA sejam confiáveis, transparentes e responsáveis, as empresas podem gerar inovação, melhorar a eficiência e obter uma vantagem competitiva no mercado.
Se a conformidade regulatória se resumisse ao cumprimento de um conjunto claro de requisitos, o caminho a seguir seria simples. No entanto, tão rapidamente quanto as tecnologias de IA evoluem, o mesmo acontece com as diversas diretrizes destinadas a governá-las.
A tecnologia em si complica as atividades de conformidade. Compreender e interpretar modelos e algoritmos de IA pode ser tecnicamente desafiador, especialmente porque muitos sistemas de IA operam em tempo real. Acompanhar a evolução das regulamentações nessa velocidade pode ser difícil, e a rápida taxa de avanço da IA exige que as empresas adaptem constantemente seus programas de conformidade.
Os países estão promulgando normas de IA que podem reformular a forma como a tecnologia é governada globalmente. Além dessas leis e regulamentações específicas da IA, as empresas e os provedores de IA também precisam cumprir uma crescente teia de regras sobre privacidade de dados, discriminação e cibersegurança. Para complicar ainda mais as coisas, esses requisitos às vezes se aplicam não apenas a empresas e provedores de IA que operam em sua região específica, mas também a qualquer pessoa que faça negócios na região.
Algumas questões e regulamentações importantes incluem:
O GDPR da Europa define normas específicas para privacidade de dados, análise de dados e uso de dados pessoais. A Lei de IA da UE, considerada o primeiro framework abrangente do mundo para IA, proíbe certos usos de IA e impõe requisitos de gerenciamento de riscos e transparência a outros. Ela segue uma abordagem baseada em riscos para a regulamentação da IA, com mandatos mais rígidos para sistemas de alto risco.
Os Estados Unidos ainda não têm uma regulamentação abrangente, mas existem vários requisitos de conformidade nos níveis federal e estadual. Por exemplo, a ordem executiva sobre Manutenção da Liderança Americana em Inteligência Artificial estabelece diretrizes para o desenvolvimento e uso da IA. Leis específicas dos setores, como a Lei de portabilidade e responsabilidade de planos de saúde (HIPAA) ou a Lei de Relatórios de Crédito Justo (FCRA), também podem se aplicar à IA.
Em agosto de 2023, a China introduziu regulamentações específicas para a IA generativa, chamadas de Medidas Provisórias para o Gerenciamento de Serviços de Inteligência Artificial Generativa. Essas medidas incluem normas de conteúdo e regras para privacidade de dados, rotulagem e licenciamento da IA generativa. A China também tem regulamentações específicas voltadas para algoritmos de recomendação orientados por IA e tecnologias de síntese profunda, como deepfakes.
Embora a conformidade da IA seja crucial em todos os setores, ela é especialmente importante em setores como:
Casos de uso de IA na área da saúde incluem diagnóstico de doenças, descoberta de medicamentos e medicina personalizada. O não cumprimento de regulamentações como a HIPAA (Health Insurance Portability and Accountability Act) dos Estados Unidos, que protege a privacidade dos pacientes, pode resultar em multas ou repercussões legais. E algoritmos tendenciosos ou mal treinados podem levar a diagnósticos incorretos ou planos de tratamento inadequados para os pacientes.
A IA tem muitas aplicações financeiras, desde detecção de fraudes e avaliação de riscos até atividades de combate à lavagem de dinheiro. No entanto, essas aplicações da IA devem cumprir regulamentações como a Fair Credit Reporting Act (FCRA) dos EUA e a Markets in Financial Instruments Directive (MiFID II) da UE. Os esforços de conformidade da IA visam evitar que algoritmos discriminem em pedidos de empréstimo e outras tomadas de decisões importantes.
Os profissionais de RH usam cada vez mais ferramentas impulsionadas por IA para a automação de tarefas de rotina e para simplificar a triagem de currículos, a avaliação de candidatos e o monitoramento de funcionários. Mas, se os algoritmos forem treinados em dados distorcidos ou inadequados, eles podem resultar em vieses injustos e potencialmente ilegais. A conformidade com as leis antidiscriminação e as regulamentações de proteção de dados ajuda a garantir transparência, justiça e privacidade.
As empresas estão cada vez mais conscientes da necessidade de cumprir os requisitos regulatórios da IA existentes e se preparar para regras futuras. Uma pesquisa com especialistas internacionais em conformidade e risco descobriu que mais da metade dos entrevistados tinha preocupações sobre privacidade de dados, transparência algorítmica e uso indevido ou incompreensão em relação à inteligência artificial.6
Outro estudo com executivos de nível de diretoria descobriu que 80% planejam aumentar o investimento em uma abordagem responsável para a inteligência artificial para gerar confiança e segurança em seus modelos.7 Como resultado, muitas empresas estão adotando medidas proativas para ajudar a garantir a conformidade da IA.
Algumas empresas estão estabelecendo frameworks que descrevem políticas, procedimentos e responsabilidades internos para o desenvolvimento e uso éticos da IA. Por exemplo, a Microsoft lançou sua Responsible AI Standard, que inclui a realização de avaliações de risco regulares, a implementação de medidas de proteção de dados e a priorização da transparência e da responsabilidade na tomada de decisões.8 E os Princípios de IA do Google, atualizados em 2023, enfatizam a importância da justiça, transparência e privacidade no desenvolvimento da IA.9
As empresas também estão se envolvendo ativamente com reguladores e stakeholders do setor para se manterem informadas sobre mudanças regulatórias e questões de conformidade. Uma survey da IBM com líderes empresariais descobriu que 74% estão planejando participar de discussões com colegas ou colaborar com legisladores sobre inteligência artificial. Esses esforços ajudam as empresas a se prepararem para novas regulamentações e a participar do desenvolvimento de diretrizes futuras.
Para simplificar os esforços de conformidade, as empresas estão investindo em várias ferramentas e tecnologias de conformidade da IA. Por exemplo, as ferramentas de IA explicável (XAI) podem ajudar as empresas a entender e interpretar as decisões tomadas pelos modelos de IA, enquanto os portfólios de governança de IA podem oferecer recursos de monitoramento e auditoria em tempo real. Produtos de governança, como o IBM watsonx.governance, oferecem toolkits para se manter alinhado com as regulamentações, avaliar riscos e gerenciar a evolução dos modelos.
À medida que os avanços na tecnologia de IA continuam surgindo, o mesmo acontece com os riscos e desafios associados ao seu uso. A chave é adotar uma abordagem proativa, o que significa investir nos recursos, conhecimento especializado e tecnologias necessários para desenvolver e implementar frameworks de governança de IA robustas. Também exige promover uma cultura de transparência, responsabilidade e confiança no desenvolvimento e uso de sistemas de IA. Priorizar a conformidade da IA ajuda as empresas a mitigar esses riscos e permite que elas aproveitem todo o potencial da IA.
1 PwC’s 2024 US Responsible AI Survey, PricewaterhouseCoopers, abril de 2024
2 Amazon scraps secret AI recruiting tool that showed bias against women, Reuters, outubro de 2018
3 The secret bias hidden in mortgage-approval algorithms, Associated Press, agosto de 2021
4 California company settles FTC allegations it deceived consumers about use of facial recognition in photo storage app, Federal Trade Commission, janeiro de 2021
5 KPMG Generative AI Consumer Trust Survey, KPMG, janeiro de 2024
6 How can Artificial Intelligence transform risk and compliance?, Moody’s, fevereiro de 2024
7 From AI compliance to competitive advantage: Becoming responsible by design, Accenture, junho de 2022
8 Microsoft’s Responsible AI Standard, Microsoft, junho de 2022
9 Google AI: Our Principles, Google, março de 2023
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.