A transparência da IA ajuda as pessoas a acessarem informações para compreender melhor como um sistema de inteligência artificial (IA) foi criado e como toma decisões.
Às vezes, os pesquisadores descrevem a inteligência artificial como uma "caixa-preta", pois ainda pode ser difícil explicar, gerenciar e regular os resultados de IA devido à crescente complexidade da tecnologia. A transparência de IA ajuda a abrir essa caixa-preta para entender melhor os resultados da IA e como os modelos tomam decisões.
Um número crescente de setores de alto risco (incluindo finanças, saúde, recursos humanos (RH) e aplicação da lei) depende de modelos de IA para a tomada de decisões. Melhorar a compreensão das pessoas sobre como esses modelos são treinados e como eles determinam os resultados cria confiança nas decisões de IA e nas organizações que os utilizam.
Os criadores de IA podem alcançar uma IA transparente e confiável por meio da divulgação. Eles podem documentar e compartilhar a lógica e o raciocínio do algoritmo subjacente de IA, os dados de input usados para treinar o modelo, os métodos utilizados para avaliação e validação do modelo e mais. Isso permite que os stakeholders avaliem a precisão preditiva do modelo em relação à imparcialidade, desvio e vieses.
Um alto nível de transparência é essencial para uma IA responsável. A IA responsável é um conjunto de princípios que ajuda a orientar o projeto, o desenvolvimento, a implementação e o uso da IA. Ela considera o impacto social mais amplo dos sistemas de IA e as medidas necessárias para alinhar essas tecnologias aos valores das partes interessadas, aos padrões legais e às considerações éticas.
Aplicações de IA, como IA generativa chatbots, agentes virtuais e mecanismos de recomendação agora são usados por dezenas de milhões de pessoas em todo o mundo todos os dias. A transparência sobre como essas ferramentas de IA funcionam provavelmente não é uma preocupação para esse nível de tomada de decisão de baixo risco: se o modelo se mostrar impreciso ou tendencioso, os usuários podem perder algum tempo ou renda disponível.
No entanto, mais setores estão adotando aplicações de IA para informar a tomada de decisões de alto risco. Por exemplo, a IA agora ajuda empresas e usuários a fazer escolhas de investimento, diagnósticos médicos, decisões de contratação, sentenças criminais e muito mais. Nesses casos, as possíveis consequências de resultados de IA tendenciosos ou imprecisos são muito mais perigosas. As pessoas podem perder economias, oportunidades de carreira ou anos de suas vidas.
Para que os stakeholders confiem que a IA está tomando decisões eficazes e justas em seu nome, eles precisam de visibilidade sobre como os modelos operam, a lógica dos algoritmos e como o modelo é avaliado quanto à precisão e à imparcialidade. Eles também precisam saber mais sobre os dados usados para treinar e ajustar o modelo, incluindo fontes de dados e como os dados são processados, ponderados e rotulados.
Além de criar confiança, a transparência na IA promove o compartilhamento de conhecimento e a colaboração em todo o ecossistema de IA, contribuindo para avanços no desenvolvimento da IA. E ao ser transparente por padrão, as organizações podem se concentrar mais no uso de tecnologias de IA para atingir as metas de negócios e se preocupar menos com a confiabilidade da IA.
A teia de requisitos regulatórios em torno do uso de IA está em constante evolução. Processos de modelo transparentes são críticos para conformidade com esses regulamentos e para lidar com solicitações de validadores de modelos, auditores e reguladores. A Lei de IA da UE é considerada o primeiro framework regulatório abrangente do mundo para IA.
A Lei de Inteligência Artificial da União Europeia (UE) adota uma abordagem baseada em risco para a regulamentação, aplicando regras diferentes à IA conforme o risco que apresenta. Ele proíbe alguns usos da IA de forma absoluta e implementa requisitos rigorosos de governança, gestão de risco e transparência para outros. Existem obrigações adicionais de transparência para tipos específicos de IA. Por exemplo:
A implementação do Regulamento Geral de Proteção de Dados (GDPR) da UE levou outros países a adotar regulamentações de privacidade de dados pessoais. Da mesma forma, os especialistas preveem que a Lei de IA da UE estimulará o desenvolvimento de padrões éticos e de governança de IA em todo o mundo.
A maioria dos países e regiões ainda não promulgou legislação ou regulamentos abrangentes sobre o uso da IA; no entanto, existem vários frameworks extensivos disponíveis. Embora nem sempre sejam aplicáveis, eles servem para orientar futuras regulamentações e o desenvolvimento responsável da IA. Exemplos notáveis incluem:
A transparência da IA está intimamente relacionada aos conceitos de explicabilidade e interpretabilidade da IA. Esses conceitos fornecem insights que ajudam a resolver o problema de longa data da "caixa preta" – a questão prática e ética de que os sistemas de IA são tão sofisticados que são impossíveis de serem interpretados pelos humanos. No entanto, eles têm definições e casos de uso distintos:
A explicabilidade da IA, ou IA explicável (XAI), é um conjunto de processos e métodos que permitem que os usuários humanos compreendam e confiem nos resultados e nas saídas geradas por modelos de aprendizado de máquina. A explicabilidade do modelo examina como um sistema de IA chega a um resultado específico e ajuda a caracterizar a transparência do modelo.
A interpretabilidade da IA refere-se a tornar todo o processo de IA compreensível para um ser humano. A interpretabilidade da IA fornece informações significativas sobre a lógica subjacente, a importância e as consequências esperadas do sistema de IA. Ela mede a taxa de sucesso com a qual humanos podem prever o resultado de uma saída de IA, enquanto a explicabilidade vai além e analisa como o modelo de IA chegou a esse resultado.
A transparência da IA vai além de simplesmente explicar os processos de tomada de decisão da IA. Ela abrange fatores relacionados ao desenvolvimento e à implementação dos sistemas de IA, como os dados de treinamento da IA e quem tem acesso a eles.
Embora o fornecimento de transparência de IA varie de acordo com o caso de uso, a organização e o setor, há algumas estratégias que as empresas podem ter em mente ao criar sistemas de IA. Em um nível mais alto, essas estratégias incluem ter princípios claros de confiança e transparência, colocar esses princípios em prática e incorporá-los em todo o ciclo de vida da IA.
Uma estratégia mais específica para a transparência da IA é a divulgação completa em todos os estágios do ciclo de vida da IA. Para oferecer divulgação, as organizações precisam determinar quais informações compartilhar e como compartilhá-las.
O caso de uso do modelo, o setor, o público e outros fatores determinarão quais informações devem ser divulgadas. Por exemplo, usos de IA de alto risco (como avaliações de hipotecas) provavelmente exigirão divulgações mais abrangentes do que aplicações de baixo risco (como classificação de áudio para assistentes virtuais).
A divulgação pode incluir todas ou algumas das seguintes informações sobre o modelo:
Cada função no ciclo de vida da IA pode contribuir com informações, distribuindo a responsabilidade em todo o ecossistema, em vez de atribuí-la a um único indivíduo. Existem plataformas de software e ferramentas disponíveis que podem ajudar a automatizar a coleta de informações e outras atividades de governança da IA.
As organizações podem apresentar informações para garantir a transparência da IA em vários formatos, como documentos impressos ou vídeos. O formato depende tanto do público-alvo quanto do caso de uso. A informação se destina a um consumidor e, portanto, precisa ser facilmente compreensível? Ou é voltada para um cientista de dados ou regulador, exigindo um alto nível de detalhamento técnico?
Os formatos podem incluir:
Práticas transparentes de IA têm muitos benefícios, mas também levantam questões de segurança e privacidade. Por exemplo, quanto mais informações são fornecidas sobre o funcionamento interno de um projeto de IA, mais fácil pode ser para os hackers encontrarem e explorarem as vulnerabilidades. A OpenAI abordou esse exato desafio em seu relatório técnico GPT-4, afirmando:
“Dado o cenário competitivo e as implicações de segurança de modelos de grande escala como o GPT-4, este relatório não contém mais detalhes sobre a arquitetura (incluindo tamanho do modelo), hardware, computação de treinamento, construção do conjunto de dados, método de treinamento ou similar.”4
A cotação também revela outro desafio de transparência da IA: o equilíbrio entre transparência e proteção da propriedade intelectual. Outros obstáculos podem incluir a explicação clara de programas intrincados e complexos e algoritmos de aprendizado de máquina (como neural networks) para não especialistas e a falta de padrões de transparência globalmente para IA.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.
Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.
1. “Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” The White House, 30 de outubro de 2023.
2. “Notice and Explanation,” The White House.
3. “Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System,” Ministério das Relações Exteriores do Japão, 2023.
4. “GPT-4 Technical Report,” arXiv, 15 de março de 2023.
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com, openliberty.io