A governança de inteligência artificial (IA) refere-se aos processos, padrões e proteções que ajudam a garantir que os sistemas e ferramentas de IA sejam seguros e éticos. As frameworks de governança de IA direcionam a pesquisa, o desenvolvimento e a aplicação da IA para ajudar a garantir a segurança, a imparcialidade e o respeito aos direitos humanos.
A governança de IA eficaz inclui mecanismos de supervisão que lidam com riscos como viés, violação de privacidade e uso indevido, ao mesmo tempo em que promovem inovação e criam confiança. Uma abordagem ética centrada na IA para a governança da IA exige o envolvimento de uma ampla gama de stakeholders, incluindo desenvolvedores de IA, usuários, legisladores e especialistas em ética, garantindo que os sistemas relacionados à IA sejam desenvolvidos e usados para se alinharem aos valores da sociedade.
A governança de IA lida com as falhas inerentes decorrentes do elemento humano na criação e manutenção da IA. Como a IA é um produto de código altamente projetado e aprendizado de máquina (ML) criado por pessoas, é suscetível a vieses e erros humanos, que podem resultar em discriminação e outros danos aos indivíduos.
A governança fornece uma abordagem estruturada para mitigar esses riscos potenciais. Tal abordagem pode incluir políticas sólidas de IA, regulamentação e governança de dados. Elas ajudam a garantir que os algoritmos de aprendizado de máquina sejam monitorados, avaliados e atualizados para evitar decisões falhas ou prejudiciais, e que os conjuntos de dados sejam bem treinados e mantidos.
A governança também visa estabelecer a supervisão necessária para alinhar os comportamentos da IA com os padrões éticos e as expectativas da sociedade, a fim de se proteger contra possíveis impactos adversos.
A governança de IA é essencial para alcançar um estado de conformidade, confiança e eficiência no desenvolvimento e aplicação de tecnologias de IA. Com a crescente integração da IA às operações organizacionais e governamentais, seu potencial de impacto negativo tornou-se mais visível.
Erros de alta visibilidade, como o incidente do chatbot Tay, em que um chatbot IA aprendeu comportamento tóxico a partir de interações públicas nas redes sociais, e as decisões de sentenças com viés do software COMPAS , destacaram a necessidade de uma governança sólida para evitar danos e manter a confiança do público.
Esses casos mostram que, sem a supervisão adequada, a IA pode causar danos sociais e éticos significativos, enfatizando a importância da governança no gerenciamento dos riscos associados à IA avançada. Ao fornecer diretrizes e frameworks, a governança de IA visa equilibrar a inovação com a segurança, ajudando a garantir que os sistemas de IA não violem a dignidade ou os direitos humanos.
Tomada de decisões transparente e explicabilidade também são críticas para garantir que os sistemas de IA sejam usados com responsabilidade e para construir confiança. Os sistemas de IA tomam decisões o tempo todo, desde decidir quais anúncios mostrar até determinar se um empréstimo deve ser aprovado. É essencial entender como os sistemas de IA tomam decisões para responsabilizá-los por suas decisões e ajudar a garantir que as tomem de forma justa e imparcial.
Além disso, a governança de IA não se trata apenas de ajudar a garantir a conformidade única; trata-se também da manutenção de padrões éticos ao longo do tempo. Os modelos de IA podem variar, levando a mudanças na qualidade e na confiabilidade das saídas. As tendências atuais em governança estão indo além da simples conformidade legal para garantir a responsabilidade social da IA, protegendo, assim, contra danos financeiros, legais e de reputação, ao mesmo tempo em que promovem o crescimento responsável da tecnologia.
Exemplos de governança de IA incluem uma série de políticas, frameworks e práticas que organizações e governos implementam para ajudar a garantir o uso responsável das tecnologias de IA. Esses exemplos demonstram como a governança de IA acontece em diferentes contextos:
Regulamento Geral de Proteção de Dados (GDPR): o GDPR é um exemplo de governança de IA, particularmente no contexto de proteção e privacidade de dados pessoais. Embora o GDPR não se concentre exclusivamente na IA, muitas de suas disposições são altamente relevantes para os sistemas de IA, especialmente aqueles que processam os dados pessoais de indivíduos na União Europeia.
A Organização para a Cooperação e Desenvolvimento Econômico (OCDE): os Princípios de IA da OCDE, adotados por mais de 40 países, enfatizam a administração responsável de IA confiável, incluindo transparência, imparcialidade e responsabilidade em sistemas de IA.
Conselhos de ética em IA das empresas: muitas empresas estabeleceram conselhos ou comitês de ética para supervisionar iniciativas de IA, garantindo que se alinhem aos padrões éticos e aos valores sociais. Por exemplo, desde 2019, o Conselho de Ética em IA da IBM avaliou novos produtos e serviços de IA para garantir que eles estejam alinhados aos princípios de IA da IBM. Esses conselhos geralmente incluem equipes multifuncionais com formação jurídica, técnica e política.
Em uma organização de nível empresarial, o CEO e a liderança sênior são os principais responsáveis por garantir que a organização aplique uma boa governança de IA ao longo do ciclo de vida da IA. O departamento jurídico e o conselho geral são fundamentais na avaliação e mitigação dos riscos legais, garantindo que as aplicações de IA estejam em conformidade com as leis e regulamentações relevantes.
As equipes de auditoria são fundamentais para validar a integridade dos dados dos sistemas de IA e confirmar que os sistemas estão operando como pretendido, sem introduzir erros ou vieses. O CFO supervisiona as implicações financeiras, gerenciando os custos associados às iniciativas de IA e mitigando quaisquer riscos financeiros.
No entanto, a responsabilidade pela governança de IA não cabe a uma única pessoa ou departamento; é uma responsabilidade coletiva, em que cada líder deve priorizar a responsabilidade e ajudar a garantir que os sistemas de IA sejam usados de forma responsável e ética em toda a organização.
O CEO e a liderança sênior são responsáveis por definir o tom geral e a cultura da organização. Ao priorizar a governança de IA responsável, a organização envia a todos os funcionários uma mensagem clara de que todos devem usar a IA de forma responsável e ética. O CEO e a liderança sênior também podem investir no treinamento de governança de IA dos funcionários, desenvolver ativamente políticas e procedimentos internos e criar uma cultura de comunicação aberta e colaboração.
A governança de IA é essencial para gerenciar os rápidos avanços na tecnologia de IA, especialmente com o surgimento da IA generativa. A IA generativa, que inclui tecnologias capazes de criar novos conteúdos e soluções, como texto, imagens e código, tem um grande potencial em muitos casos de uso.
Desde o aprimoramento dos processos criativos em design e mídia até a automatização de tarefas no desenvolvimento de software, a IA generativa está transformando a forma como os setores operam. No entanto, com sua ampla aplicabilidade, surge a necessidade de uma governança robusta de IA.
Os princípios da governança de IA responsável são essenciais para que as organizações protejam a si mesmas e a seus clientes. Estes princípios podem orientar as organizações no desenvolvimento ético e na aplicação de tecnologias de IA, que incluem:
No final de 2023, a Casa Branca emitiu uma ordem executiva para ajudar a garantir a segurança e proteção da IA. Essa estratégia abrangente oferece um framework para estabelecer novas normas para gerenciar os riscos inerentes à tecnologia de IA. As novas normas de segurança e proteção da IA do governo dos EUA exemplificam como os governos lidam com essa questão extremamente delicada.
Embora as regulamentações e as forças do mercado padronizem muitas métricas de governança, as organizações ainda precisam determinar como equilibrar melhor as medidas de seus negócios. A medição da eficácia da governança de IA pode variar de acordo com a organização; cada organização deve decidir quais áreas de foco devem ser priorizadas. Com áreas de foco como qualidade de dados, segurança de modelos, análise de custo-valor, monitoramento de vieses, responsabilidade individual, auditoria contínua e adaptabilidade para ajustar dependendo do domínio da organização, não é uma decisão única para todos.
A governança de IA não tem "níveis" universalmente padronizados da mesma forma que, por exemplo, a cibersegurança pode ter definido níveis de resposta a ameaças. Em vez disso, a governança de IA oferece abordagens e frameworks estruturados desenvolvidos por diversas entidades, que as organizações podem adotar ou adaptar conforme suas necessidades específicas.
As organizações podem usar vários frameworks e diretrizes para desenvolver suas práticas de governança. Alguns dos frameworks mais amplamente usados incluem o Framework de Gerenciamento de Risco de IA do NIST, os Princípios da OCDE sobre Inteligência Artificial e as Diretrizes de Ética da Comissão Europeia para IA Confiável. Esses frameworks fornecem orientações para uma variedade de tópicos, incluindo transparência, responsabilidade, equidade, privacidade, segurança e proteção.
Os níveis de governança podem variar de acordo com o tamanho da organização, a complexidade dos sistemas de IA em uso e o ambiente regulatório no qual a organização opera.
Uma visão geral dessas abordagens:
Essa é a abordagem menos intensiva de lidar com a governança baseada nos valores e princípios da organização. Pode haver alguns processos informais, como comitês de revisão ética ou comitês internos, mas não existe uma estrutura ou framework formal para a governança de IA.
Esse é um passo à frente da governança informal e envolve o desenvolvimento de políticas e procedimentos específicos para o desenvolvimento e uso da IA. Esse tipo de governança geralmente é desenvolvido em resposta a desafios ou riscos específicos e pode não ser abrangente ou sistemático.
Este é o nível mais alto de governança e envolve o desenvolvimento de um framework abrangente de governança de IA. Este framework reflete os valores e princípios da organização e está alinhado com as leis e regulamentações relevantes. Frameworks de governança formais normalmente incluem avaliação de riscos, revisão ética e processos de supervisão.
O conceito de governança de IA se torna cada vez mais vital à medida que a automação, impulsionada pela IA, se torna predominante em setores que vão desde saúde e finanças até transporte e serviços públicos. Os recursos de automação da IA podem melhorar significativamente a eficiência, a tomada de decisões e a inovação, mas também introduzem desafios relacionados à responsabilidade, transparência e considerações éticas.
A governança da IA envolve estabelecer estruturas de controle robustas contendo políticas, diretrizes e frameworks para lidar com esses desafios. Isso envolve a criação de mecanismos para monitorar e avaliar continuamente os sistemas de IA, garantindo que estejam em conformidade com as normas éticas e as regulamentações legais estabelecidas.
Estruturas eficazes de governança em IA são multidisciplinares e envolvem stakeholders de várias áreas, como tecnologia, direito, ética e negócios. À medida que os sistemas de IA se tornam mais sofisticados e integrados aos aspectos críticos da sociedade, o papel da governança de IA em orientar e moldar a trajetória do desenvolvimento da IA e seu impacto social se torna cada vez mais crucial.
As melhores práticas de governança de IA envolvem uma abordagem além da simples conformidade, abrangendo um sistema mais robusto para monitoramento e gerenciamento de aplicações de IA. Para empresas de nível empresarial, a solução de governança de IA deve possibilitar uma supervisão ampla e controle sobre os sistemas de IA. Este é um exemplo de roteiro a ser considerado:
Dashboard visual: use um dashboard que forneça atualizações em tempo real sobre a integridade e o status dos sistemas de IA, oferecendo uma visão geral clara para avaliações rápidas.
Métricas de pontuação de integridade: implemente uma pontuação de integridade geral para modelos de IA usando métricas intuitivas e fáceis de entender para simplificar o monitoramento.
Monitoramento automatizado: empregue sistemas de detecção automática de viés, desvio, desempenho e anomalias, para ajudar a garantir que os modelos funcionem de forma correta e ética.
Alertas de desempenho: configure alertas para quando um modelo se desviar de seus parâmetros de desempenho predefinidos, permitindo intervenções oportunas.
Métricas personalizadas: defina métricas personalizadas que se alinhem aos indicadores-chave de desempenho (KPIs) e aos limites da organização, para ajudar a garantir que os resultados da IA contribuam para os objetivos de negócios.
Trilhas de auditoria: mantenha registros e trilhas de auditoria facilmente acessíveis para fins de responsabilização e para facilitar avaliações das decisões e comportamentos dos sistemas de IA.
Compatibilidade com ferramentas de código aberto: escolha ferramentas de código aberto compatíveis com várias plataformas de desenvolvimento de aprendizado de máquina para se beneficiar da flexibilidade e do suporte da comunidade.
Integração sem dificuldades: ajuda a garantir que a plataforma de governança de IA se integre perfeitamente à infraestrutura existente, incluindo bancos de dados e ecossistemas de software, para evitar silos e permitir fluxos de trabalho eficientes.
Ao seguir essas práticas, as organizações podem estabelecer um framework robusto de governança de IA que apoie o desenvolvimento, a implementação e o gerenciamento responsáveis da IA, ajudando a garantir que os sistemas de IA estejam em conformidade e alinhados com as normas éticas e as metas organizacionais.
As práticas de governança de IA e as regulamentações de IA foram adotados por alguns países para evitar vieses e discriminação. É importante lembrar que a regulamentação está sempre fluindo, e as organizações que gerenciam sistemas complexos de IA precisam ficar atentas à evolução dos frameworks jurídicos regionais.
A Lei de Inteligência Artificial da União Europeia, também conhecida como Lei de IA da UE ou Lei de IA, é uma lei que rege o desenvolvimento ou o uso da inteligência artificial (IA) na União Europeia (UE). A lei adota uma abordagem de regulamentação baseada em riscos, aplicando regras diferentes à IA de acordo com o risco que representa.
Considerada o primeiro framework regulatório abrangente do mundo para IA, a Lei de IA da UE proíbe completamente alguns usos de IA e implementa requisitos rigorosos de governança, gestão de riscos e transparência para outros.
A lei também cria regras para modelos de inteligência artificial de uso geral, como o modelo de base de código aberto IBM Granite e o Llama 3 da Meta. As penalidades podem variar de EUR 7,5 milhões ou 1,5% do faturamento anual mundial a EUR 35 milhões ou 7% do faturamento anual mundial, dependendo do tipo de não conformidade.
A SR-11-7 é a norma regulatória de governança de modelos dos EUA para uma governança de modelos forte e eficaz no setor bancário.1 A regulamentação exige que funcionários de bancos apliquem iniciativas de gerenciamento de risco de modelos em escala empresarial e mantenham um inventário de modelos implementados para uso, em desenvolvimento para implementação ou recém-removidos.
Os líderes das instituições também devem demonstrar que seus modelos estão atingindo o objetivo de negócios para o qual foram projetados para resolver, e que estão atualizados e não se desviam. O desenvolvimento e a validação dos modelos devem permitir que qualquer pessoa não familiarizada com um modelo entenda as operações, limitações e premissas-chave do modelo.
A Directive on Automated Decision-Making do Canadá descreve como o governo do país usa a IA para orientar decisões em vários departamentos.2 A diretiva usa um sistema de pontuação para avaliar a intervenção humana, a avaliação por pares, o monitoramento e o planejamento de contingência necessários para uma ferramenta de IA criada para atender aos cidadãos.
As organizações que criam soluções de IA com uma alta pontuação devem realizar duas avaliações por pares independentes, divulgar publicamente em linguagem simples, desenvolver uma intervenção humana à prova de falhas e oferecer cursos de treinamento recorrentes para o sistema. A Directive on Automated Decision-Making do Canadá é um guia para o próprio desenvolvimento da IA no país e, portanto, a regulamentação não afeta diretamente as empresas da mesma forma que a SR-11-7 nos EUA.
Em abril de 2021, a Comissão Europeia apresentou seu pacote de IA, incluindo declarações sobre o fomento de uma abordagem europeia para excelência e confiança e uma proposta para um framework legal sobre IA.3
As declarações afirmam que, enquanto a maioria dos sistemas de IA se encaixa na categoria de "risco mínimo", os sistemas de IA identificados como "risco alto" deverão se submeter a requisitos mais rigorosos, e os sistemas avaliados como "risco inaceitável" serão proibidos. As organizações devem prestar muita atenção a essas regras ou arriscar sofrer multas.
Em 2023, a China emitiu suas Medidas Provisórias para a Administração de Serviços de Inteligência Artificial Generativa. De acordo com a lei, o fornecimento e o uso de serviços de IA generativa devem "respeitar os direitos e interesses legítimos de terceiros" e são obrigados a "não colocar em risco a integridade física e mental de outras pessoas e não infringir os direitos de retrato, direitos de reputação, direitos de honra, direitos de privacidade e direitos de informações pessoais de terceiros".
Outros países na região da Ásia-Pacífico divulgaram vários princípios e diretrizes para governar a IA. Em 2019, o Governo de Singapura lançou um framework com diretrizes para lidar com questões de ética de IA no setor privado e, mais recentemente, em maio de 2024, lançou um framework de governança para a IA generativa. Índia, Japão, Coreia do Sul e Tailândia também estão explorando diretrizes e legislação para governança de IA.3
Saiba como a Lei de IA da União Europeia afetará as empresas, como se preparar, como você pode mitigar os riscos e como equilibrar regulamentação e inovação.
Conheça os novos desafios da IA generativa, a necessidade de governar modelos de IA e ML e as etapas para criar um framework de IA confiável, transparente e explicável.
Leia sobre a condução de práticas éticas e de conformidade com um portfólio de produtos de IA para modelos de IA generativa.
Adquira uma compreensão mais profunda de como garantir a imparcialidade, gerenciar desvios, manter a qualidade e aprimorar a explicabilidade com o watsonx.governance.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.
Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.
1 “SR 11-7: Guidance on model risk management.”, Board of Governors of the Federal Reserve System Washington, D.C., Division of Banking Supervision and Regulation, 4 de abril de 2011.
2 “Canada's new federal directive makes ethical AI a national issue.” Digital, 8 de março de 2019.
3 "Asia-Pacific regulations keep pace with rapid evolution of artificial intelligence technology", Sidley, 16 de agosto de 2024.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com