Início

topics

Ética em IA

O que é IA ética?
Explore o watsonx.governance Assine a newsletter da IBM
aurora circular
O que é IA ética?

Ética é um conjunto de princípios morais que nos ajudam a discernir entre o certo e o errado. A ética em IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da IA enquanto reduz os riscos e os resultados adversos.

Exemplos de questões éticas em IA incluem responsabilidade com os dados e privacidade, equidade, explicabilidade, robustez, transparência, sustentabilidade ambiental, inclusão, agência moral, alinhamento de valores, responsabilidade, confiança e mau uso da tecnologia. Este artigo tem como objetivo fornecer uma visão abrangente do mercado sobre a ética em IA nao setor hoje. Para saber mais sobre o ponto de vista da IBM, veja nossa página de ética em IA aqui.

Com o surgimento do big data, as empresas aumentaram o foco em impulsionar a automação e a tomada de decisões baseada em dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar os resultados de negócios, as empresas estão enfrentando consequências imprevistas em algumas de suas aplicações de IA, particularmente devido a um design de pesquisa preliminar inadequado e a conjuntos de dados tendenciosos.

À medida que surgiram exemplos de resultados injustos, novas diretrizes foram criadas, principalmente pelas comunidades de pesquisa e ciência de dados, para abordar as preocupações relacionadas à ética da IA. Empresas líderes no campo da IA também têm demonstrado interesse em moldar essas diretrizes, à medida que elas próprias começaram a experimentar algumas das consequências de não manter padrões éticos em seus produtos. A falta de diligência nessa área pode resultar em exposição reputacional, regulatória e legal, levando a penalidades custosas. Como acontece com todos os avanços tecnológicos, a inovação tende a superar a regulamentação governamental em novos campos emergentes. À medida que a experiência apropriada se desenvolve no setor governamental, podemos esperar mais protocolos de IA para que as empresas sigam, permitindo-lhes evitar violações de direitos humanos e liberdades civis.

Agora disponível: watsonx.governance

Acelere fluxos de trabalho responsáveis, transparentes e explicáveis para IA generativa construída em plataformas de terceiros.

Conteúdo relacionado
Ebook
Registre-se para o ebook sobre armazenamento de dados de IA
Guia
Saiba como aproveitar os bancos de dados certos para aplicações, análises e IA generativa.
Estabelecendo princípios para a ética em IA

Enquanto regras e protocolos são desenvolvidos para gerenciar o uso da IA, a comunidade acadêmica tem utilizado o Relatório Belmont (link fora de ibm.com) como um meio de orientar a ética na pesquisa experimental e no desenvolvimento algorítmico. Três princípios principais surgiram do Relatório Belmont que servem como guia para o design de experimentos e algoritmos:

  1. Respeito pelas pessoas: este princípio reconhece a autonomia dos indivíduos e sustenta a expectativa de que os pesquisadores devem proteger indivíduos com autonomia reduzida, que pode ser causada por várias circunstâncias, como doenças, deficiência mental, restrições de idade. Este princípio se relaciona principalmente com a ideia de consentimento. Os indivíduos devem estar cientes dos riscos e benefícios potenciais de qualquer experimento do qual façam parte, e devem ter a liberdade de escolher participar ou se retirar a qualquer momento, antes e durante o experimento.
  2. Beneficência: este princípio é inspirado na ética da saúde, onde os médicos fazem um juramento de "não causar dano". Essa ideia pode ser facilmente aplicada à inteligência artificial, onde algoritmos podem amplificar preconceitos relacionados a etnia, gênero, inclinações políticas etc., mesmo que a intenção seja melhorar um sistema específico.
  3. Justiça: este princípio trata de questões como equidade e igualdade. Quem deve colher os benefícios da experimentação e do machine learning? O Relatório Belmont oferece cinco maneiras de distribuir encargos e benefícios, que são:
    • Participação igualitária
    • Necessidade individual
    • Esforço individual
    • Contribuição social
    • Mérito
Links relacionados Ética em IA da IBM Cinco etapas para implementar práticas de segurança algorítmica
Principais preocupações da IA hoje

Há uma série de questões que estão na vanguarda das conversas sobre ética em torno das tecnologias de IA no mundo real. Algumas delas incluem:

Modelos de base e IA generativa

O lançamento do ChatGPT em 2022 marcou um verdadeiro ponto de inflexão para a inteligência artificial. As habilidades do chatbot da OpenAI, desde escrever pareceres jurídicos até depurar códigos, abriram uma nova constelação de possibilidades sobre o que a IA pode fazer e como pode ser aplicada em quase todos os setores. O ChatGPT e ferramentas semelhantes são construídos com base em modelos de base, modelos de IA que podem ser adaptados para uma ampla gama de tarefas subsequentes. Modelos de base são geralmente modelos generativos de grande escala, compostos por bilhões de parâmetros, que são treinados com dados não rotulados usando auto-supervisão. Isso permite que os modelos de base apliquem rapidamente o que aprenderam em um contexto para outro, tornando-os altamente adaptáveis e capazes de realizar uma grande variedade de tarefas diferentes. No entanto, há muitas questões potenciais e preocupações éticas em torno dos modelos de base, amplamente reconhecidas no setor de tecnologia, como vieses, geração de conteúdo falso, falta de explicabilidade, uso indevido e impacto social. Muitas dessas questões são relevantes para a IA em geral, mas ganham uma nova urgência à luz do poder e da disponibilidade dos modelos de base.

Singularidade tecnológica

Embora esse tópico atraia muita atenção pública, muitos pesquisadores não estão preocupados com a ideia de a IA superar a inteligência humana no futuro próximo ou imediato. Isso também é referido como superinteligência, que Nick Bostrom define como "qualquer intelecto que supere vastamente os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar de a IA forte e a superinteligência não serem iminentes na sociedade, a ideia levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. É irreal pensar que um carro sem motorista nunca se envolverá em um acidente. Quem seria responsável e culpado nessas circunstâncias? Devemos continuar desenvolvendo veículos autônomos, ou devemos limitar a integração dessa tecnologia para criar apenas veículos semi-autônomos que promovam a segurança entre os motoristas? Ainda não há consenso sobre isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA se desenvolvem.

Impacto da IA nos empregos

Embora grande parte da percepção pública sobre a inteligência artificial esteja centrada na perda de empregos, essa preocupação provavelmente deveria ser reformulada. Com toda nova tecnologia disruptiva, vemos que a demanda do mercado por funções específicas de trabalho muda. Por exemplo, quando olhamos para o setor automotivo, muitos fabricantes, como a GM, estão mudando o foco para a produção de veículos elétricos, a fim de se alinhar às iniciativas ecológicas. O setor de energia não vai desaparecer, mas a fonte de energia está mudando de uma economia de combustível para uma elétrica. A inteligência artificial deve ser vista de maneira semelhante, onde a IA mudará a demanda por empregos para outras áreas. Será necessário haver indivíduos para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. Haverá necessidade de pessoas para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho será ajudar os indivíduos a fazer a transição para essas novas áreas de demanda de mercado.

Privacidade

A privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os formuladores de políticas fizessem mais avanços nessa área nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais das pessoas na União Europeia e no Espaço Econômico Europeu, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, estados individuais estão desenvolvendo políticas, como a Lei de Privacidade do Consumidor da Califórnia (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados. Essa legislação recente forçou as empresas a repensar como armazenam e utilizam dados pessoalmente identificáveis (PII). Como resultado, os investimentos em segurança tornaram-se uma prioridade crescente para as empresas, à medida que buscam eliminar vulnerabilidades e oportunidades para vigilância, hacking e ataques cibernéticos.

Preconceito e discriminação

Casos de viés e discriminação em diversos sistemas inteligentes levantaram muitas questões éticas sobre o uso da inteligência artificial. Como podemos nos proteger contra vieses e discriminação quando os conjuntos de dados de treinamento podem se inclinar para o viés? Embora as empresas geralmente tenham boas intenções em seus esforços de automação, podem surgir consequências imprevistas ao incorporar IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon inadvertidamente favoreceu candidatos a vagas técnicas (link fora de ibm.com) com base no gênero, e, no final, precisou abandonar o projeto. À medida que eventos como esses vêm à tona, a Harvard Business Review (link fora de ibm.com) levantou outras questões relevantes sobre o uso da IA nas práticas de contratação, como quais dados deveriam ser utilizados ao avaliar um candidato para uma vaga.

O viés e a discriminação também não se limitam à função de recursos humanos; eles podem ser encontrados em uma série de aplicações, desde software de reconhecimento facial até algoritmos de mídia social.

À medida que as empresas se tornam mais conscientes dos riscos da IA, também se tornam mais ativas na discussão sobre ética e valores em IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, anunciou o encerramento dos produtos de reconhecimento facial e análise da IBM para uso geral, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo a de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, perfis étnicos, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não esteja em conformidade com nossos valores e princípios de confiança e transparência".

Prestação de contas

Não existe uma legislação universal que regule as práticas de IA, mas muitos países e estados estão trabalhando para desenvolvê-las e implementá-las localmente. Algumas regulamentações sobre IA já estão em vigor, com muitas mais por vir.Para preencher essa lacuna, surgiram frameworks éticos como parte de uma colaboração entre especialistas em ética e pesquisadores para regulamentar a construção e distribuição de modelos de IA na sociedade. No entanto, no momento, essas diretrizes servem apenas como orientações, e pesquisas (link fora de ibm.com) mostram que a combinação de responsabilidade distribuída e a falta de previsão sobre as possíveis consequências nem sempre são eficazes para prevenir danos à sociedade.

Como estabelecer a ética em IA

A inteligência artificial funciona conforme sua concepção, desenvolvimento, treinamento, ajuste e uso, e a ética em IA consiste em estabelecer um ecossistema de padrões éticos e diretrizes ao longo de todas as fases do ciclo de vida de um sistema de IA.

Organizações, governos e pesquisadores começaram a montar estruturas para lidar com as atuais preocupações éticas em IA e moldar o futuro do trabalho na área. Embora essas diretrizes estejam se tornando cada vez mais estruturadas, há um consenso em torno da incorporação dos seguintes pontos:

Controle

Governança é o ato de uma organização supervisionar o ciclo de vida da IA por meio de políticas e processos internos, equipe e sistemas. A governança ajuda a garantir que os sistemas de IA operem de acordo com os princípios e valores da organização, conforme as expectativas das partes interessadas e as exigências da regulamentação aplicável. Um programa de governança bem-sucedido irá:

  • definir os papéis e responsabilidades das pessoas que trabalham com IA.

  • educar todas as pessoas envolvidas no ciclo de vida da IA sobre a construção de IA de maneira responsável.

  • estabelecer processos para construir, gerenciar, monitorar e comunicar sobre IA e seus riscos.

  • utilizar ferramentas para melhorar o desempenho e a confiabilidade da IA ao longo de seu ciclo de vida.

Um Conselho de Ética de IA é um mecanismo de governança particularmente eficaz. Na IBM, o Conselho de Ética de IA é composto por líderes de diversas áreas da empresa. Ele fornece um processo centralizado de governança, revisão e tomada de decisões para as políticas e práticas de ética da IBM. Saiba mais sobre o Conselho de Ética em IA da IBM.

Princípios e áreas de foco

A abordagem de uma organização à ética em IA pode ser guiada por princípios que podem ser aplicados a produtos, políticas, processos e práticas em toda a organização, a fim de promover uma IA confiável. Esses princípios devem ser estruturados em torno de áreas de foco, como explicabilidade ou equidade, em torno das quais podem ser desenvolvidos padrões e alinhadas práticas.

Quando a IA é construída com a ética no centro, ela tem um tremendo potencial para impactar a sociedade de forma positiva. Já começamos a ver isso em sua integração em áreas da saúde, como a radiologia. A conversa sobre ética em IA também é importante para avaliar e mitigar adequadamente possíveis riscos relacionados ao uso da IA, começando já na fase de design.

Organizações que promovem a ética em IA

Como os padrões éticos não são a principal preocupação dos engenheiros e cientistas de dados no setor privado, várias organizações surgiram para promover condutas éticas no campo da inteligência artificial. Para aqueles que buscam mais informações, as seguintes organizações e projetos fornecem recursos para implementar a ética em IA:

  • AlgorithmWatch: esta organização sem fins lucrativos foca em processos de decisão explicáveis e rastreáveis em programas de IA. Clique aqui (link fora de ibm.com) para saber mais.
  • AI Now Institute: Esta organização sem fins lucrativos da Universidade de Nova York pesquisa as implicações sociais da inteligência artificial. Clique aqui (link fora de ibm.com) para saber mais.
  • DARPA: A Defense Advanced Research Projects Agency (link fora de ibm.com) do Departamento de Defesa dos EUA foca na promoção da IA explicável e na pesquisa sobre IA.
  • CHAI: O Center for Human-Compatible Artificial Intelligence (link fora de ibm.com) é uma cooperação entre vários institutos e universidades para promover IA confiável e sistemas comprovadamente benéficos.
  • NASCAI: A National Security Commission on Artificial Intelligence (link fora de ibm.com) é uma comissão independente que "considera os métodos e meios necessários para avançar o desenvolvimento da inteligência artificial, aprendizado de máquina e tecnologias associadas para atender de maneira abrangente às necessidades de segurança nacional e defesa dos Estados Unidos".
Ponto de vista da IBM sobre a ética na IA

A IBM também estabeleceu seu próprio ponto de vista sobre ética de IA, criando Princípios de confiança e transparência para ajudar os clientes a entender onde seus valores estão dentro da conversa sobre IA. A IBM tem três princípios fundamentais que ditam sua abordagem aos dados e ao desenvolvimento de IA, que são:

  1. O objetivo da IA é ampliar a inteligência humana. Isso significa que não buscamos substituir a inteligência humana pela IA, mas sim apoiá-la. Como toda nova inovação tecnológica envolve mudanças na oferta e demanda de determinadas funções de trabalho, a IBM está comprometida em apoiar os trabalhadores nesta transição, investindo em iniciativas globais para promover o treinamento de skills relacionadas a essa tecnologia.
  2. Os dados e insights pertencem a seus criadores. Os clientes da IBM podem ter a certeza de que eles, e apenas eles, são proprietários de seus dados. A IBM não forneceu, nem fornecerá, acesso governamental aos dados dos clientes para qualquer programa de vigilância, e continua comprometida em proteger a privacidade de seus clientes.
  3. Sistemas de IA devem ser transparentes e explicáveis. A IBM acredita que as empresas de tecnologia precisam ser claras sobre quem treina seus sistemas de IA, quais dados foram usados nesse treinamento e, o mais importante, o que foi incluído nas recomendações dos seus algoritmos.

A IBM também desenvolveu cinco pilares para guiar a adoção responsável de tecnologias de IA. Esses pilares incluem:

  • Explicabilidade: um sistema de IA deve ser transparente, especialmente sobre o que foi incluído nas recomendações de seu algoritmo, sendo relevante para uma variedade de stakeholders com diferentes objetivos.
  • Equidade: isso se refere ao tratamento equitativo de indivíduos, ou grupos de indivíduos, por um sistema de IA. Quando calibrada corretamente, a IA pode ajudar os humanos a fazer escolhas mais justas, contrariando vieses humanos e promovendo a inclusão.
  • Robustez: sistemas alimentados por IA devem ser ativamente defendidos contra ataques adversários, minimizando os riscos de segurança e permitindo confiança nos resultados do sistema.
  • Transparência: para reforçar a confiança, os usuários devem ser capazes de ver como o serviço funciona, avaliar sua funcionalidade e compreender suas forças e limitações.
  • Privacidade: os sistemas de IA devem priorizar e proteger a privacidade e os direitos dos consumidores em relação aos dados, além de fornecer garantias explícitas aos usuários sobre como seus dados pessoais serão utilizados e protegidos.

Esses princípios e áreas de foco formam a base da nossa abordagem à ética em IA. Para saber mais sobre a visão da IBM em relação à ética e inteligência artificial, leia mais aqui.

 

Soluções relacionadas
Ética em IA na IBM

Abordagem multidisciplinar e multidimensional da IBM para IA confiável

Explore a ética em IA na IBM
IBM Watson Studio

Crie, execute e gerencie modelos de IA. Prepare dados e crie modelos em qualquer nuvem usando código-fonte aberto ou modelagem visual. Preveja e otimize seus resultados.

Conheça o Watson Studio
IBM watsonx.governance

Crie fluxos de trabalho de IA responsáveis, transparentes e explicáveis.

Explore o IBM watsonx.governance
Dê o próximo passo

Acelere fluxos de trabalho de IA responsáveis, transparentes e explicáveis em todo o ciclo de vida de modelos generativos e de aprendizado de máquina. Direcione, gerencie e monitore as atividades de IA da sua organização para gerenciar melhor as crescentes regulamentações de IA e detectar e mitigar riscos.

Explore o watsonx.governance Agende uma demonstração em tempo real