O viés da IA, também chamado de viés de aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência de resultados com viés devido a vieses humanos que distorcem os dados de treinamento originais ou o algoritmo de IA, levando a saídas distorcidas e potencialmente prejudiciais.
Quando o viés da IA não é abordado, ele pode afetar o sucesso de uma organização e prejudicar a capacidade das pessoas de participar da economia e da sociedade. O viés reduz a precisão da IA e, portanto, seu potencial.
As empresas têm menos probabilidade de se beneficiar de sistemas que produzem resultados distorcidos. E escândalos resultantes do viés da IA podem fomentar a desconfiança entre pessoas de cor, mulheres, pessoas com deficiência, comunidade LGBTQ ou outros grupos marginalizados.
Os modelos nos quais os esforços de IA se baseiam absorvem os vieses da sociedade, que podem ser silenciosamente incorporados às montanhas de dados nos quais são treinados. A coleta de dados com viés que reflete a desigualdade social pode resultar em danos a grupos historicamente marginalizados em casos de uso, incluindo contratação, policiamento, pontuação de crédito e muitos outros. De acordo com o The Wall Street Journal, “À medida que o uso da inteligência artificial se torna mais difundido, as empresas ainda estão lutando para lidar com o viés generalizado”.1
Quando a IA comete um erro devido a vieses, como grupos de pessoas que tiveram oportunidades negadas, identificadas erroneamente em fotos ou punidas injustamente, a organização infratora sofre danos à sua marca e reputação. Ao mesmo tempo, as pessoas desses grupos e a sociedade como um todo podem sofrer danos sem nem perceber. Aqui estão alguns exemplos de alta visibilidade de disparidades e vieses na IA e os danos que eles podem causar.
No setor de saúde, a sub-representação de dados de mulheres ou grupos minoritários pode distorcer os algoritmos preditivos de IA.2 Por exemplo, descobriu-se que os sistemas de diagnóstico auxiliado por computador (CAD) retornam resultados de precisão mais baixos para pacientes afro-americanos do que para pacientes brancos.
Embora as ferramentas de IA possam simplificar a automação da verificação de currículos durante uma pesquisa para ajudar a identificar os candidatos ideais, as informações solicitadas e as respostas filtradas podem resultar em resultados desproporcionais entre os grupos. Por exemplo, se um anúncio de emprego usa a palavra “ninja”, ele pode atrair mais homens do que mulheres, mesmo que isso não seja de forma alguma um requisito de emprego.3
Como teste de geração de imagens, a Bloomberg solicitou a criação de mais de 5.000 imagens de IA e descobriu que “o mundo de acordo com a Stable Diffusion é governado por CEOs homens brancos. As mulheres raramente são médicas, advogadas ou juízas. Homens de pele escura cometem crimes, enquanto mulheres de pele escura fritam hambúrgueres.4 A Midjourney conduziu um estudo semelhante sobre a geração de arte de IA, solicitando imagens de pessoas em profissões especializadas. O resultado mostrou pessoas mais jovens e mais velhas, mas as pessoas mais velhas foram sempre homens, reforçando o viés de gênero no papel das mulheres no ambiente de trabalho.5
As ferramentas de policiamento preditivo impulsionado por IA usadas por algumas organizações do sistema de justiça criminal devem identificar áreas onde o crime provavelmente ocorrerá. No entanto, muitas vezes essas ferramentas se baseiam em dados históricos de prisões, o que pode reforçar padrões existentes de perfis étnicos e o direcionamento desproporcional de comunidades minoritárias.6
Resultados distorcidos podem prejudicar as organizações e a sociedade em geral. Aqui estão alguns dos tipos mais comuns de vieses de IA7.
Viés de homogeneidade de grupo externo: é um caso de não saber o que não se sabe. Há uma tendência das pessoas de terem uma melhor compreensão dos membros do grupo interno (o grupo ao qual a pessoa pertence) e de pensarem que eles são mais diversificados do que os membros do grupo externo. O resultado pode ser que os desenvolvedores criem algoritmos menos capazes de distinguir entre indivíduos que não fazem parte do grupo predominante nos dados de treinamento, levando a viés racial, classificação incorreta e respostas incorretas.
O primeiro passo para evitar a armadilha do viés é simplesmente dar um passo atrás no início e pensar um pouco em um esforço de IA. Como acontece com quase todos os desafios de negócios, é muito mais fácil resolver os problemas de antemão, em vez de esperar pelo acidente e depois resolver os resultados danificados. Mas muitas organizações estão com pressa: "preocupadas com centavos mas ignorando milhões", e isso lhes custa caro.
Identificar e lidar com vieses na IA requer governança de IA, ou a capacidade de dirigir, gerenciar e monitorar as atividades de IA de uma organização. Na prática, a governança de IA cria um conjunto de políticas, práticas e frameworks para guiar o desenvolvimento e o uso responsáveis das tecnologias de IA. Quando bem feita, a governança de IA ajuda a garantir que haja um equilíbrio de benefícios concedidos às empresas, clientes, funcionários e à sociedade como um todo.
A governança de IA frequentemente inclui métodos que visam avaliar a imparcialidade, equidade e inclusão. Abordagens como imparcialidade contrafactual identificam vieses na tomada de decisões de um modelo e garantem resultados equitativos, mesmo quando atributos delicados, como gênero, raça ou orientação sexual, são incluídos.
Devido à complexidade da IA, um algoritmo pode ser um sistema de caixa-preta com poucos insights dos dados usados para criá-lo. Práticas e tecnologias de transparência ajudam a garantir que dados sem viés sejam usados para construir o sistema e que os resultados sejam imparciais. Empresas que trabalham para proteger as informações dos clientes constroem confiança na marca e são mais propensas a criar sistemas de IA confiável.
Para fornecer outra camada de garantia de qualidade, institua um sistema “human-in-the-loop” para oferecer opções ou fazer recomendações que possam ser aprovadas por decisões humanas.
Eis aqui uma lista de verificação de seis etapas do processo que podem manter os programas de IA livres de vieses.
1. Selecione o modelo de aprendizado correto:
2. Treine com os dados certos: o aprendizado de máquina treinado com os dados errados produzirá resultados errados. Quaisquer dados inseridos na IA devem ser completos e equilibrados, para replicar a demografia real do grupo que está sendo considerado.
3. Escolha uma equipe equilibrada: quanto mais variada for a equipe de IA (racialmente, economicamente, por nível educacional, por gênero e por descrição de cargo), maior a probabilidade de reconhecer vieses. Os talentos e pontos de vista de uma equipe de IA bem-sucedida devem incluir inovadores de negócios de IA, criadores de IA, implementadores de IA e uma representação dos consumidores desse esforço específico de IA.9
4. Realize o processamento de dados com atenção: as empresas precisam estar cientes dos vieses em cada etapa do processamento de dados. O risco não está apenas na seleção de dados: seja durante o pré-processamento, o processamento ou o pós-processamento, vieses podem surgir a qualquer momento e ser inseridos na IA.
5. Monitore continuamente: nenhum modelo é completo ou permanente. O monitoramento e os testes contínuos com dados do mundo real de toda a organização podem ajudar a detectar e corrigir vieses antes que causem danos. Para evitar ainda mais os vieses, as organizações devem considerar avaliações feitas por uma equipe independente dentro da organização ou por um terceiro confiável.
6. Evite problemas de infraestrutura: além das influências humanas e de dados, às vezes a própria infraestrutura pode causar vieses. Por exemplo, usando de dados coletados de sensores mecânicos, o próprio equipamento pode injetar vieses se os sensores estiverem com defeito. Esse tipo de viés pode ser difícil de detectar e requer investimento nas infraestruturas digitais e tecnológicas mais recentes.
Saiba como a Lei de IA da União Europeia afetará as empresas, como se preparar, como você pode mitigar os riscos e como equilibrar regulamentação e inovação.
Conheça os novos desafios da IA generativa, a necessidade de governar modelos de IA e ML e as etapas para criar um framework de IA confiável, transparente e explicável.
Leia sobre a condução de práticas éticas e de conformidade com um portfólio de produtos de IA para modelos de IA generativa.
Adquira uma compreensão mais profunda de como garantir a imparcialidade, gerenciar desvios, manter a qualidade e aprimorar a explicabilidade com o watsonx.governance.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.
Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.
1 The Wall Street Journal: Rise of AI Puts Spotlight on Bias in Algorithms
2 Booz Allen Hamilton: Artificial Intelligence Bias in Healthcare
3 LinkedIn: Reducing AI Bias — A Guide for HR Leaders
4 Bloomberg: Humans Are Biased. Generative AI Is Even Worse
5 The Conversation US: Ageism, sexism, classism and more — 7 examples of bias in AI-generated images
6 Technology Review: Predictive policing is still racist—whatever data it uses
7 Tech Target: Machine learning bias (AI bias)
Chapman University AI Hub: Bias in AI
AIMultiple: Bias in AI —What it is, Types, Examples & 6 Ways to Fix it in 2023
8 McKinsey: Tackling bias in artificial intelligence (and in humans)
9 Forbes: The Problem With Biased AIs (and How To Make AI Better)