O AI Bill of Rights é um framework publicado pelo governo dos Estados Unidos para ajudar a proteger os direitos civis dos americanos na era da inteligência artificial (IA).
O AI Bill of Rights foi apresentado em outubro de 2022 pelo White House Office of Science and Technology Policy (OSTP) em um documento intitulado “Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People”. Também chamado de oBlueprint, o AI Bill of Rights foi criado após consulta a vários acadêmicos, grupos de direitos humanos, organizações sem fins lucrativos e empresas do setor privado.
O AI Bill of Rights visa apoiar o desenvolvimento de políticas e práticas que protegem os direitos civis e promovem valores democráticos na implementação e governança de sistemas automatizados. Para conseguir isso, o Blueprint define cinco princípios para mitigar riscos potenciais, como discriminação algorítmica. Ela também lida com questões de acesso a recursos ou serviços críticos que podem resultar da implementação da IA em áreas como saúde, serviços financeiros e muito mais.
O AI Bill of Rights consiste em cinco princípios fundamentais para ajudar a orientar o design, o uso e a implementação de sistemas de IA. São fornecidas considerações específicas sobre cada princípio, contabilizando diversas situações em que os direitos civis das pessoas, como liberdade de expressão, direitos de voto ou privacidade, podem estar em risco.
Embora o Blueprint não seja vinculativo e não exija a conformidade com os princípios fundamentais, ele tem como objetivo informar as decisões políticas relacionadas à IA, onde a lei ou política existente ainda não forneça orientação.
O AI Bill of Rights se aplica a sistemas automatizados se eles tiverem o potencial de afetar significativamente os direitos, as oportunidades ou o acesso a recursos críticos essenciais da população americana. Os tipos de sistemas automatizados potencialmente no escopo do AI Bill of Rights incluem, entre outros, aqueles que podem afetar:
Direitos civis, liberdades e privacidade: isso inclui sistemas relacionados a fala (por exemplo, ferramentas automatizadas de moderação de conteúdo); algoritmos de sistemas de vigilância e justiça criminal (por exemplo, leitores automatizados de placas de veículos); sistemas relacionados a votação (por exemplo, ferramentas de correspondência de assinaturas); e sistemas com potencial impacto à privacidade (por exemplo, sistemas de segmentação de anúncios).
Oportunidades iguais: inclui sistemas relacionados à educação (por exemplo, software de detecção de plágio); sistemas relacionados a habitação (por exemplo, algoritmos de triagem de locatários); e sistemas relacionados a emprego (por exemplo, algoritmos de contratação ou rescisão).
Acesso a recursos e serviços críticos: inclui tecnologias de saúde e seguros de saúde (por exemplo, ferramentas de diagnóstico assistido por IA); algoritmos do sistema financeiro (por exemplo, sistemas de pontuação de crédito); sistemas que afetam a segurança das comunidades (por exemplo, controles da rede elétrica); e sistemas relacionados ao acesso a benefícios ou serviços ou atribuição de penalidades (por exemplo, algoritmos de detecção de fraudes).
Os casos de uso de IA estão crescendo à medida que tecnologias como aprendizado de máquina (ML) e processamento de linguagem natural (PNL) se tornam mais sofisticadas. Em um estudo da Ernst and Young, 90% dos entrevistados disseram que usam IA no trabalho.1 No entanto, a adoção generalizada da IA também traz novos desafios éticos relacionados à transparência, viés e privacidade de dados. Por exemplo:
Para lidar com esses desafios, os desenvolvedores de IA precisam de guias e frameworks éticos baseados no uso responsável da IA. A IA responsável é um conjunto de princípios usados para orientar o design, o desenvolvimento, a implementação e o uso da IA. Ela considera o impacto social mais amplo dos sistemas de IA e as medidas necessárias para alinhar a IA aos valores, padrões legais e princípios éticos dos stakeholders .
O Blueprint busca definir as melhores práticas de IA responsável em um framework abrangente, para que a sociedade possa aproveitar todo o potencial das ferramentas de IA sem comprometer as liberdades civis básicas das pessoas.
O AI Bill of Rights consiste de cinco princípios elaborados tendo em mente os direitos civis do público americano . Os cinco princípios incluem:
Esse princípio afirma que as pessoas “devem ser protegidas contra sistemas de IA inseguros ou ineficazes”. Para se alinhar a esse princípio, o Blueprint sugere que os desenvolvedores trabalhem junto com diversas comunidades, stakeholders e especialistas em domínios para considerar os riscos de um sistema de IA. O princípio também sugere que os sistemas passem por testes de pré-implementação, identificação e mitigação de riscos, além de monitoramento contínuo para melhorar a segurança e a eficácia. De acordo com o Blueprint, os resultados de quaisquer avaliações e relatórios independentes que confirmem que o sistema é seguro e eficaz devem ser tornados públicos sempre que possível.
Este princípio afirma que as pessoas "não devem enfrentar discriminação por algoritmos, e os sistemas devem ser usados e projetados de maneira equitativa". De acordo com o the AI Bill of Rights, a discriminação algorítmica ocorre quando sistemas automatizados afetam negativamente as pessoas com base em características como raça, orientação sexual, status de deficiência e outras características protegidas por lei. Para remediar isso, o princípio sugere que os criadores de sistemas automatizados usem medidas, como avaliações de equidade, dados representativos e testes de disparidade para proteger indivíduos e comunidades de alto risco . O princípio também incentiva auditorias independentes e de terceiros.
Esse princípio afirma que as pessoas “devem ser protegidas contra práticas abusivas de dados por meio de proteções integradas” e “devem ter autonomia sobre como os dados sobre [elas] são usados”. Para se alinhar a esse princípio, o Blueprint sugere que os desenvolvedores de IA protejam os usuários e sua privacidade por meio de opções de design que ajudem a garantir que a coleta de informação de identificação pessoal (PII) seja estritamente necessária. O princípio também sugere que os criadores mantenham as solicitações de permissão e consentimento breves e compreensíveis e respeitem as decisões sobre uso, acesso, transferência e exclusão de dados.
Proteções e restrições aprimoradas são necessárias para informações confidenciais, como aquelas relacionadas a trabalho, saúde, justiça criminal e outras. O Blueprint também afirma que a tecnologia de vigilância deve ser submetida a uma supervisão mais rigorosa para proteger a privacidade e as liberdades civis dos cidadãos.
Esse princípio afirma que as pessoas “devem saber que um sistema automatizado está sendo usado e entender como e por que isso contribui para resultados que [as] afetam”. O AI Bill of Rights afirma que designers, desenvolvedores e implementadores de sistemas automatizados devem usar linguagem simples e acessível para, entre outras coisas, explicar a função do sistema e o papel que a automação desempenha. Além disso, o princípio sugere que os sistemas automatizados devem fornecer aviso quando estiverem em uso e explicações claras de como e por que contribuem para resultados que afetam os indivíduos.
Esse princípio afirma que as pessoas "devem poder optar por não participar, quando apropriado, e ter acesso a uma pessoa que possa considerar e remediar rapidamente os problemas que [elas] encontram". De acordo com o Blueprint, a determinação do que é "apropriado" deve ser baseada em "expectativas razoáveis" no contexto específico e deve se concentrar em garantir ampla acessibilidade e proteção contra danos potenciais. Ele sugere que aqueles que procuram se alinhar a esse princípio devem tornar a consideração e as soluções humanas por meio de um processo de fallback e escalonamento acessível e oportuno, especialmente quando um sistema automatizado falha, produz um erro ou quando alguém deseja recorrer de seu impacto.
Um complemento técnico, “From Principles to Practice”, foi publicado junto com o Blueprint. Ele fornece exemplos e etapas que governos, setores e comunidades podem adotar para incorporar os cinco princípios em políticas, práticas ou design técnico de sistemas automatizados.
Juntos, o AI Bill of Rights e seu complemento técnico explicam por que cada princípio é importante, o que se deve esperar dos sistemas automatizados e como cada princípio pode entrar em prática. Os exemplos fornecidos não são críticas nem endossos, mas têm o objetivo de inspirar as organizações a incorporar proteções em suas próprias operações de IA e tomada de decisões.
Após sua publicação em Washington DC, o AI Bill of Rights pode ter inspirado parcialmente vários órgãos federais a adotar diretrizes para seu próprio uso responsável da IA. Até o momento da redação deste artigo, 12 órgãos do governo dos EUA, incluindo o Departamento de Comércio (DOC) e o Instituto Nacional de Padrões e Tecnologia dos EUA (NIST), têm requisitos de IA que abrangem leis, políticas e segurança nacional.
Em 30 de outubro de 2023, o governo Biden emitiu uma ordem executiva para estabelecer novos padrões para IA segura, protegida e confiável. Em um comunicado à imprensa publicado seis meses depois, o DOC anunciou vários planos para implementar a ordem executiva.4
No nível estadual, parece que os legisladores estão alinhando a nova legislação ao Blueprint em alguns aspectos. Em 2021, Nova York adotou uma lei com requisitos para empregadores, incluindo notificação quando tecnologias de IA são usadas no processo de contratação. Vários estados agora têm requisitos sobre o uso da tecnologia de reconhecimento facial na segurança pública. E, mais recentemente, o California Civil Rights Council propôs emendas à Fair Employment and Housing Act (FEHA), que alinham ainda mais a FEHA com o AI Bill of Rights.
Fora dos Estados Unidos, 34 países haviam estabelecido estratégias nacionais de IA no momento em que este artigo foi escrito.5 Notavelmente, a Lei de Inteligência Artificial da União Europeia (EU AI Act) rege o desenvolvimento ou uso da IA na UE. A lei adota uma abordagem de regulamentação baseada em riscos, aplicando regras diferentes à IA de acordo com os riscos que ela representa.
Algumas das proteções sugeridas no AI Bill of Rights já são exigidas pela Criação dos EUA ou existem nas leis atuais dos EUA. Por exemplo, a vigilância do Governo mencionada no princípio de "privacidade de dados" já está sujeita a requisitos legais e supervisão judicial, ao passo que existem leis de direitos civis para proteger o povo americano contra a discriminação.
Exemplos de outras normas de IA com as quais o Blueprint se alinha incluem:
Novas políticas e práticas podem ser adotadas para ajudar a garantir que as proteções encontradas no AI Bill of Rights sejam implementadas. O Blueprint reconhece que, em alguns casos, podem ser necessárias exceções aos princípios para ajudar a garantir a conformidade com a legislação existente, em conformidade com os aspectos práticos de um caso de uso específico ou para equilibrar interesses públicos concorrentes. Por exemplo, as autoridades policiais e outros órgãos do governo são incentivados a seguir as diretrizes estabelecidas no AI Bill of Rights. No entanto, para proteger os direitos e a privacidade das pessoas, elas podem precisar usar métodos alternativos.
Olhando para o futuro, o the AI Bill of Rights pode desempenhar um papel fundamental na influência da próxima onda de políticas, à medida que as nações do mundo adotam uma abordagem mais holística da IA responsável.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.
1 How organizations can stop skyrocketing AI use from fueling anxiety, Ernst & Young, dezembro de 2023.
2 Artificial Intelligence is Putting Innocent People at Risk of Being Incarcerated, Innocence Project, Sanford, 14 de fevereiro de 2024.
3 Artificial Hallucinations in ChatGPT: Implications in Scientific Writing, National Library of Medicine, Muacevic, Adler, 19 de fevereiro de 2023.
4 Department of Commerce Announces New Actions to Implement President Biden’s Executive Order on AI, US Department of Commerce, 29 de abril de 2024.
5 A cluster analysis of national AI Strategies, Brookings, Denford, Dawson, Desouza, 13 de dezembro de 2023.