Início

Think

Tópicos

Viés algorítmico

O que é viés algorítmico?
Explore a solução de viés de IA da IBM Inscreva-se para receber o boletim informativo Think
Ilustração com colagem de pictogramas de nuvens, gráfico de pizza, pictogramas de gráficos

Publicado em: 20 de setembro de 2024
Colaboradores: Alexandra Jonker e Julie Rogers

O que é viés algorítmico?

O viés algorítmico ocorre quando erros sistemáticos em algoritmos de aprendizado de máquina produzem resultados injustos ou discriminatórios. Muitas vezes reflete ou reforça vieses socioeconômicos, raciais e de gênero existentes.

Os sistemas de inteligência artificial (IA) usam algoritmos para descobrir padrões e insights nos dados ou para prever valores de saída de um determinado conjunto de variáveis de entrada. Algoritmos tendenciosos podem impactar esses insights e resultados de maneiras que levam a decisões ou ações prejudiciais, promovem ou perpetuam a discriminação e a desigualdade e corroem a confiança na IA e nas instituições que usam a IA. Esses impactos podem criar riscos legais e financeiros para as empresas. Por exemplo, de acordo com a Lei de IA da UE, a não conformidade com suas práticas proibidas de IA pode significar multas de até 35 milhões de euros ou 7% do faturamento anual mundial, o que for maior.

O viés algorítmico é especialmente preocupante quando encontrado em sistemas de IA que apoiam decisões que alteram a vida em áreas como saúde, aplicação da lei e recursos humanos. O viés pode entrar em algoritmos de várias maneiras, como dados de entrada de treinamento distorcidos ou limitados, decisões subjetivas de programação ou interpretação de resultados.

A mitigação do viés algorítmico começa com a aplicação de princípios de governança de IA, incluindo transparência e explicabilidade, em todo o ciclo de vida da IA.

Governança da IA para a empresa
O que causa o viés algorítmico?

O viés algorítmico não é causado pelo algoritmo em si, mas pela forma como a equipe de ciência de dados coleta e codifica os dados de treinamento. As causas específicos incluem:

  • Vieses nos dados de treinamento
  • Vieses no design do algoritmo
  • Vieses em dados proxy
  • Vieses na avaliação

Vieses nos dados

 

Dados falhos são caracterizados como não representativos, com falta de informação, dados historicamente tendenciosos ou dados "ruins".1 Isso leva a algoritmos que produzem resultados injustos e amplificam quaisquer vieses nos dados. Sistemas de IA que usam resultados tendenciosos como dados de entrada para a tomada de decisões criam um ciclo de feedback que também pode reforçar vieses ao longo do tempo. Esse ciclo, em que o algoritmo aprende e perpetua continuamente os mesmos padrões tendenciosos, leva a resultados cada vez mais distorcidos. 

O viés também pode surgir durante a fase de treinamento se os dados forem categorizados ou avaliados incorretamente. Às vezes, os algoritmos podem “aprender” com a correlação de dados em vez de causalidade, pois não possuem as habilidades para entender a diferença. Quando isso acontece, a saída do algoritmo pode ser tendenciosa, pois o modelo não considerou outros fatores nos dados que podem ser mais importantes.

Um exemplo comumente citado de viés de correlação é um modelo hipotético que determina uma relação causal entre o aumento dos ataques de tubarão e o aumento das vendas de sorvete. Na realidade, ambas as situações tendem a ocorrer durante o verão e têm apenas uma relação de correlação.

 

Viés no design algorítmico

 

O design de algoritmos também pode introduzir viés. Erros de programação, como o fato de um programador de IA ponderar injustamente os fatores no processo de tomada de decisão, podem ser transferidos para o sistema sem que se saiba. A ponderação costuma ser uma técnica para evitar distorções, pois envolve ajustes nos dados para que eles reflitam melhor a população real. No entanto, isso pode exigir suposições dos projetistas, o que pode levar a imprecisões e introduzir preconceitos. Os desenvolvedores também podem incorporar o algoritmo com regras subjetivas baseadas em seus próprios preconceitos conscientes ou inconscientes.

 

Vieses em dados proxy

 

Os sistemas de IA às vezes usam proxies como substitutos para atributos protegidos, como raça ou gênero. No entanto, os proxies podem ser inadvertidamente tendenciosos, pois podem ter uma correlação falsa ou acidental com os atributos sensíveis que deveriam substituir. Por exemplo, se um algoritmo usar códigos postais como um proxy para status econômico, isso pode prejudicar injustamente certos grupos onde os códigos postais estão associados a dados demográficos raciais específicos.

 

Vieses na avaliação

 

Vieses na avaliação ocorrem quando os resultados do algoritmo são interpretados com base nas preconcepções dos indivíduos envolvidos, em vez de nas descobertas objetivas. Mesmo que o algoritmo seja neutro e orientado por dados, a forma como um indivíduo ou empresa aplica a saída do algoritmo pode levar a resultados injustos, dependendo de como eles entendem os resultados.

Os riscos do viés algorítmico

Quando o viés algorítmico não é abordado, ele pode perpetuar a discriminação e a desigualdade, criar danos legais e à reputação e corroer a confiança.

Discriminação e desigualdade

 

Decisões algorítmicas tendenciosas reforçam as disparidades sociais existentes enfrentadas por grupos marginalizados e esses vieses humanos levam a resultados injustos e potencialmente prejudiciais dos sistemas de IA. Embora muitas das aplicações de IA mais comuns possam parecer de baixo risco (como mecanismos de pesquisa, chatbots e sites de mídia social), outras aplicações de IA podem influenciar decisões que alteram a vida. O uso de ferramentas tendenciosas de IA em áreas como justiça criminal, saúde e contratação pode gerar resultados devastadores.

Por exemplo, a marginalização de pessoas afro-americanas no passado é refletida em dados históricos de prisão de Oakland, Califórnia, nos Estados Unidos. Se esses dados forem usados para treinar um algoritmo de policiamento preditivo (PPA) atual, as decisões tomadas pelo PPA provavelmente refletirão e reforçarão esses vieses raciais passados.

 

Danos jurídicos e de reputação

 

As organizações que usam sistemas de IA tendenciosos podem enfrentar consequências legais e danos à reputação, pois as recomendações tendenciosas podem ter o que é conhecido como um impacto díspar. Este é um termo legal que se refere a situações em que políticas e práticas aparentemente neutras podem afetar desproporcionalmente indivíduos de classes protegidas, como aqueles suscetíveis à discriminação com base em raça, religião, gênero e outras características.

Grupos protegidos afetados adversamente por decisões tendenciosas de IA podem entrar com processos judiciais, o que pode levar a passivos financeiros significativos, danos à reputação no longo prazo e críticas por parte das partes interessadas. As organizações também podem enfrentar penalidades financeiras se forem descobertas violações de qualquer lei antidiscriminação aplicável.

 

Erosão de confiança

 

Os resultados tendenciosos das ferramentas de IA corroem a confiança na IA de várias maneiras. Se descobrirmos que uma organização tem sistemas de IA tendenciosos, ela pode perder a confiança dos stakeholders dentro do negócio, que não confiam mais nos processos de tomada de decisão algorítmica. Esses stakeholders também podem não considerar mais o valor da otimização da IA como superior ao seu risco e perder a confiança na tecnologia como um todo.

O viés algorítmico também pode perder a confiança dos clientes. Basta um caso de discriminação para arruinar a reputação da marca, ainda mais na era das notícias que se espalham rapidamente. A confiança na IA é especialmente importante para manter grupos marginalizados, como pessoas de cor, que já sofrem preconceito e discriminação no mundo físico.

Exemplos do mundo real de viés algorítmico

O viés algorítmico pode ocorrer em qualquer cenário ou setor que utilize um sistema de IA para tomar decisões. Aqui estão alguns possíveis exemplos reais de viés algorítmico:

  • Viés no sistema de justiça criminal
  • Viés na área da saúde
  • Viés no recrutamento
  • Viés em serviços financeiros
  • Viés em sistemas de reconhecimento facial
  • Viés na precificação

Viés na justiça criminal

 

Os tribunais dos Estados Unidos usam a ferramenta Correctional Offender Management Profiling for Alternativa Sanctions (COMPAS) para avaliar o risco de reincidência dos réus. Um estudo da ProPublica revelou que o algoritmo das ferramentas pode ter classificado réus brancos e negros de forma diferente. Por exemplo, na avaliação de risco, os réus negros eram duas vezes mais prováveis do que os réus brancos de serem classificados incorretamente como tendo um risco maior de reincidência violenta. A empresa que criou a ferramenta contesta essa análise; no entanto, ela não divulga os métodos usados para chegar às pontuações de risco.2

 

Viés no policiamento preditivo

 

Os pesquisadores criaram seu próprio algoritmo de policiamento preditivo treinado com dados de denúncias de vítimas de Bogotá, Colômbia. Quando eles compararam as previsões do modelo com os conjuntos de dados reais sobre crimes, encontraram erros graves. Por exemplo, ele previu 20% mais locais com alto índice de criminalidade do que a realidade em distritos com um alto volume de denúncias. Mas isso reflete um viés social: os negros têm maior probabilidade de serem denunciados por um crime do que os brancos.3

 

Viés na área da saúde

 

Na área da saúde, a sub-representação de grupos minoritários nos dados pode distorcer algoritmos de IA preditiva. Por exemplo, sistemas de diagnóstico assistido por computador (CAD) encontraram resultados de menor precisão para pacientes negros em comparação com pacientes brancos. 

 

Viés no recrutamento
 

A Amazon abandonou uma ferramenta de recrutamento de IA após descobrir que ela discriminava sistematicamente candidatas a empregos. Os desenvolvedores treinaram o algoritmo de contratação usando currículos de contratações anteriores, que eram predominantemente homens. Como resultado, o algoritmo favoreceu injustamente palavras-chave e características encontradas em currículos masculinos.4

 

Viés em serviços financeiros

 

O viés nos serviços financeiros pode ter consequências graves para a subsistência das pessoas, pois os dados históricos podem conter vieses demográficos que afetam a qualidade de crédito, as aprovações de empréstimos e muito mais. Por exemplo, um estudo da Universidade da Califórnia, em Berkeley, mostrou que um sistema de IA para hipotecas cobrou rotineiramente dos mutuários de comunidades sociais taxas mais altas para os mesmos empréstimos em comparação com os mutuários de confiança.5

Viés na geração de imagens

 

Pesquisadores acadêmicos encontraram viés de gênero no gerador de imagens de IA Midjourney. Durante a análise de mais de 100 imagens geradas, eles também encontraram instâncias de viés racial, de classe e idade nos resultados. Por exemplo, quando solicitada a criar imagens de pessoas em profissões especializadas, ela mostrava pessoas mais jovens e mais velhas, mas as pessoas mais velhas eram sempre homens, reforçando o preconceito de gênero em relação às mulheres no ambiente de trabalho.6

Viés em sistemas de reconhecimento facial

 

Uma pesquisa do MIT descobriu que alguns sistemas comerciais de reconhecimento facial de uso geral — usados para combinar rostos em fotos, por exemplo — eram incapazes de reconhecer indivíduos de pele mais escura. O reconhecimento foi ainda pior para as mulheres de pele mais escura. Dados de treinamento que deturparam a demografia real distorceram os resultados.7

Viés na precificação

 

Depois que uma lei de Chicago obrigou as empresas de transporte de passageiros a divulgar suas tarifas, os pesquisadores descobriram que o algoritmo de preços da Uber e da Lyft cobrava mais pelas devoluções em bairros com grandes populações não brancas.8

Como evitar o viés algorítmico

A mitigação do viés dos sistemas de IA começa com a governança de IA, que se refere às proteções que garantem que as ferramentas e os sistemas de IA sejam e permaneçam seguros e éticos. Ela estabelece os frameworks, regras e normas que direcionam a pesquisa, o desenvolvimento e a aplicação da IA para ajudar a garantir a segurança, a justiça e o respeito pelos direitos humanos.

As organizações podem considerar os seguintes princípios de governança de IA para evitar possíveis vieses de IA ao longo do ciclo de vida do sistema:

  • Dados diversos e representativos
  • Detecção e mitigação de viés
  • Transparência e interpretabilidade
  • Design e desenvolvimento inclusivos

Dados diversos e representativos

 

O aprendizado de máquina é tão bom quanto os dados que o treinam. Para que a IA reflita melhor as diversas comunidades que atende, uma variedade muito maior de dados de seres humanos deve ser representada em modelos. Os dados alimentados em modelos de aprendizado de máquina e sistemas de deep learning devem ser abrangentes e equilibrados, representativos de todos os grupos de pessoas e refletir a demografia real da sociedade.

 

Detecção e mitigação de viés

 

Nenhum sistema de computador é totalmente "treinado" ou "concluído". O monitoramento e os testes contínuos (por meio de iniciativas como avaliações de impacto, auditoria algorítmica e testes de causalidade) podem ajudar a detectar e corrigir possíveis vieses antes que eles criem problemas. Processos como o sistema “human-in-the-loop” exigem que as recomendações sejam revisadas por humanos antes que uma decisão seja tomada, fornecendo assim uma camada adicional de garantia de qualidade.

 

Transparência e interpretabilidade

 

Os sistemas de IA podem ser “caixas pretas”, o que dificulta a compreensão de seus resultados. Sistemas de IA transparentes documentam e explicam claramente a metodologia do algoritmo subjacente e quem o treinou. Quanto mais as pessoas entenderem como os sistemas de IA são treinados e ajustados e como eles tomam decisões, mais as partes interessadas e a sociedade em geral poderão confiar na precisão e na imparcialidade da IA.

 

Design e desenvolvimento inclusivos  
   

A IA inclusiva começa com uma equipe diversificada e interdisciplinar de programadores de IA, desenvolvedores, cientistas de dados, engenheiros de ML e outros, com diversidade racial, econômica, por nível educacional, por gênero, por descrição de cargo e outras métricas demográficas. A diversidade dentro do design e desenvolvimento trará diferentes perspectivas para ajudar a identificar e mitigar vieses que poderiam passar despercebidos.

Regulação de viés algorítmico

Governos e formuladores de políticas estão criando estruturas e regulamentações de IA para ajudar a orientar e, em alguns casos, aplicar o uso seguro e responsável da IA. Por exemplo:

  • A União Europeia introduziu a Lei de IA da UE, que tem requisitos específicos para sistemas de IA de alto risco, como medidas para prevenir e mitigar preconceitos.

  • O Relatório de Avaliações de Impacto Algorítmico do AI Now Institute da Universidade de Nova York oferece uma estrutura prática. Assim como a avaliação de impacto ambiental, ele orienta os órgãos públicos na avaliação de sistemas de IA para garantir a responsabilidade pública.9

  • O Projeto da Casa Branca para uma Declaração de Direitos da IA tem um princípio dedicado à proteção algorítmica da discriminação. Inclui expectativas e orientações sobre como colocar esse princípio em prática.

  • A Ordem Executiva do governo Biden sobre o desenvolvimento e uso seguro e confiável de inteligência artificial estabelece diretrizes para o desenvolvimento e uso de IA, incluindo o combate à discriminação algorítmica por meio de treinamento, assistência técnica e coordenação entre o Departamento de Justiça dos EUA e escritórios federais de direitos civis.
Soluções relacionadas
IBM watsonx.governance™

Agora disponível — governe modelos de IA generativa criados em qualquer plataforma e implantados na nuvem ou no local.

Explore o IBM watsonx.governance

AutoAI da IBM

Crie e treine com rapidez modelos preditivos de alta qualidade. Simplifique o gerenciamento do ciclo de vida da IA.

Conheça o AutoAI da IBM
Recursos O que é inteligência artificial (IA)?

A inteligência artificial (IA) permite que computadores simulem o aprendizado, a compreensão, a resolução de problemas e a criatividade humanos.

O que é machine learning (ML)?

O aprendizado de máquina é um ramo da inteligência artificial que se concentra no uso de algoritmos para permitir que a IA imite a maneira como os humanos aprendem.

O que é viés de IA?

O viés da IA refere-se à ocorrência de resultados tendenciosos devido a vieses humanos, levando a resultados distorcidos e resultados potencialmente prejudiciais.

O que é tomada de decisões baseada em dados?

A tomada de decisões baseada em dados (DDDM) é uma abordagem que enfatiza o uso de dados e análises em vez de intuição para informar as decisões de negócios.

O que é IA responsável?

A inteligência artificial (IA) responsável é um conjunto de princípios que ajudam a orientar o design, o desenvolvimento, a implementação e o uso da IA.

O que é gerenciamento de riscos de IA?

O gerenciamento de riscos de IA é o processo de identificar, mitigar e abordar sistematicamente os possíveis riscos associados às tecnologias de IA.

Dê o próximo passo

Acelere fluxos de trabalho de IA responsáveis, transparentes e explicáveis em todo o ciclo de vida de modelos generativos e de aprendizado de máquina. Direcione, gerencie e monitore as atividades de IA da sua organização para gerenciar melhor as crescentes regulamentações de IA e detectar e mitigar riscos.

Explore o watsonx.governance Agende uma demonstração em tempo real
Notas de rodapé

Todos os links levam para fora do site ibm.com

1. Algorithmic Bias: A New Legal Frontier,” International Association of Defense Counsel, 2019.

2. How We Analyzed the COMPAS Recidivism Algorithm,” ProPublica, 23 de maio de 2016.

3. “Predictive policing is still racist—whatever data it uses,” MIT Technology Review, 5 de fevereiro de 2021.

4. Why Amazon’s Automated Hiring Tool Discriminated Against Women,” ACLU, 12 de outubro de 2018.

5.  AI is Making Housing Discrimination Easier Than Ever Before,” The Kreisman Initiative for Housing Law and Policy, University of Chicago, 12 de fevereiro de 2024.

6. Ageism, sexism, classism and more: 7 examples of bias in AI-generated images,” The Conversation, 9 de julho de 2023.

7. Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms,” Brookings, 22 de maio de 2019.

8. Algorithmic Bias Explained,” The Greenlining Institute, fevereiro de 2021.

9. Algorithmic Impact Assessments Report: A Practical Framework for Public Agency Accountability,” AI Now Institute. 9 de abril de 2018.