O que é a ética na IA?
A ética na IA orienta cientistas de dados e pesquisadores a construir sistemas de IA de maneira ética para trazer benefícios à sociedade como um todo
Explore o watsonx.governance Assine a newsletter da IBM
aurora circular
O que é a ética na IA?

Este artigo tem como objetivo fornecer uma visão abrangente do mercado de ética na inteligência artificial (IA) para o cenário atual do setor. Para saber mais sobre o ponto de vista da IBM, acesse a nossa página de ética da IA.

A ética é um conjunto de princípios morais que pode nos ajudar a discernir o que é certo e o que é errado. A ética na IA é um conjunto de diretrizes que sugerem como a inteligência artificial deve ser criada e quais devem ser seus resultados. Os vieses cognitivos são inerentes aos seres humanos, como o viés da recência e da confirmação, além daqueles que estão presentes em nossos comportamentos e, consequentemente, em nossos dados. Como os dados são a base para todos os algoritmos de machine learning, é importante para nós estruturar experimentos e algoritmos com isso em mente, pois a inteligência artificial tem o potencial de ampliar e escalar esses vieses humanos em um ritmo sem precedentes.

Com o surgimento do big data, as empresas aumentaram seu foco em promover a automação e a tomada de decisões orientadas por dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar negócios, as empresas estão enfrentando consequências não previstas em alguns de seus aplicativos de IA, especificamente, devido ao projeto de pesquisa inicial e aos conjuntos de dados tendenciosos.

À medida que surgiam resultados incertos, foi necessário estabelecer novas diretrizes, principalmente das comunidades de pesquisa e ciência de dados, para atender às preocupações relacionadas à ética na IA. As empresas líderes na área de IA também demonstraram interesse em colaborar com essas diretrizes, pois também começaram a observar algumas consequências por falha em manter padrões éticos em seus produtos. A falta de diligência nesta área pode gerar risco reputacional, regulamentar e jurídico, resultando em multas onerosas. Como acontece com todos os avanços tecnológicos, a inovação tende a avançar mais rápido que a regulamentação do governo em áreas novas e emergentes. À medida que o conhecimento adequado se desenvolve dentro do setor público, podemos esperar que surjam mais protocolos de IA voltados para as empresas, possibilitando evitar qualquer violação aos direitos humanos e das liberdades civis.

Conheça o watsonx

Multiplique o poder da inteligência artificial em sua empresa com a IA de última geração e uma plataforma de dados da IBM

Saiba mais sobre a ética na IA hoje

Saiba mais sobre como colocar em prática os princípios de ética na IA.

Estabelecendo princípios para a ética na IA

Enquanto são desenvolvidos regras e protocolos para gerenciar o uso da IA, a comunidade acadêmica têm usado o Relatório Belmont (PDF) como um meio de orientar os princípios éticos dentro da pesquisa experimental e desenvolvimento de algoritmos. Existem três princípios importantes extraídos do Relatório Belmont que podem ajudar em experimentos e na criação de algoritmos; são eles:

  1. Respeito pelas pessoas: este princípio reconhece a autonomia dos indivíduos e mantém a expectativa de que os pesquisadores protejam os indivíduos com autonomia reduzida, que pode ser resultado de diversas circunstâncias como enfermidade, incapacidade mental e restrições de idade. Este princípio envolve sobretudo a ideia de consentimento. Os indivíduos devem estar cientes dos possíveis riscos e benefícios de qualquer experimento do qual façam parte e devem poder escolher participar ou retirar-se a qualquer momento, seja antes ou durante o experimento.
  2. Beneficência: este princípio segue o exemplo de ética da área da saúde, em que os médicos fazem um juramento de "não fazer mal". Essa ideia pode ser facilmente aplicada à inteligência artificial, na qual algoritmos podem ampliar vieses em torno de raça, gênero, político políticas, entre outros, apesar da intenção de fazer o bem e melhorar um determinado sistema.
  3. Justiça: este princípio trata de problemas como justiça e igualdade. Quem deve aproveitar os benefícios da experimentação e do machine learning? O Relatório Belmont oferece cinco formas de distribuir deveres e direitos, que são:
    • Responsabilidade compartilhada
    • Necessidade individual
    • Esforço individual
    • Contribuição social
    • Mérito
Links relacionados

IBM AI Ethics

Principais preocupações da IA atualmente

Há diversos problemas que estão presentes nas discussões sobre ética relacionadas às tecnologias de IA. Alguns destes incluem:

 

Singularidade tecnológica


Embora este tópico atraia muita atenção do público, muitos pesquisadores não estão preocupados com a ideia de a IA ultrapassar a inteligência humana em um futuro próximo ou imediato. Isso também é conhecido como superinteligência, que Nick Bostrum define como "qualquer intelecto que supera amplamente os melhores pensadores humanos em praticamente todas as áreas, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar do fato de que a IA forte e a superinteligência não são iminentes na sociedade, a ideia de sua existência levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. Não é realista pensar que um carro sem motorista nunca sofreria um acidente de carro, mas quem seria o responsável legal nessas circunstâncias? Devemos ainda buscar veículos autônomos ou limitar a integração dessa tecnologia para criar apenas veículos semiautônomos que promovam a segurança entre os motoristas? Essa decisão ainda está aberta, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA são desenvolvidas.

 

O impacto da IA no mercado de trabalho


Embora grande parte da percepção pública em torno da inteligência artificial gire em torno da perda de empregos, essa preocupação deveria reanalisada. A cada nova tecnologia disruptiva, vemos que a demanda do mercado por vagas de trabalho específicas também muda. Por exemplo, quando olhamos para o mercado automotivo, muitos fabricantes, como a GM, estão mudando para se concentrar na produção de veículos elétricos para se alinhar às iniciativas verdes. O mercado de energia não irá acabar, mas a fonte de energia está mudando de uma economia de combustíveis para energia elétrica. A inteligência artificial deve ser vista de maneira semelhante, onde a inteligência artificial mudará a demanda de tarefas para outras áreas. Serão necessários indivíduos para gerenciar esses sistemas à medida que os dados aumentam e mudam todos os dias. Ainda haverá necessidade de recursos para resolver problemas mais complexos dentro dos setores de mercado que são mais prováveis de serem afetados por mudanças na demanda de tarefas, como atendimento ao cliente. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho ajudará os indivíduos na transição para essas novas áreas de demanda do mercado.

 

Privacidade


Privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os legisladores fizessem mais avanços aqui nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais de pessoas na European Union and European Economic Area, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, alguns estados estão desenvolvendo políticas, como o California Consumer Privacy Act (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados. Essa legislação recente forçou as empresas a repensar como armazenam e usam dados de identificação pessoal (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade cada vez maior para as empresas, à medida que buscam eliminar quaisquer vulnerabilidades e oportunidades de inspeção, hacking e ataques cibernéticos.

 

Viés e discriminação


Casos de viés e discriminação em vários sistemas inteligentes levantaram muitas questões éticas relacionadas ao uso da inteligência artificial. Como podemos nos proteger contra viés e discriminação quando os próprios dados de treinamento podem levar ao preconceito? Embora as empresas normalmente sejam bem-intencionadas em relação aos seus esforços de automação, a Reuters destaca algumas das consequências não previstas da implementação da IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon, involuntariamente tendenciou candidatos a emprego em potencial por gênero para cargos técnicos abertos e, no final das contas, tiveram que descartar o projeto. À medida que surgem eventos como esses, a Harvard Business Review levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados devem ser usados para avaliar um candidato para um cargo.

O viés e a discriminação também não se limitam à função de recursos humanos. Isto pode ser observado em diversas tecnologias, desde software de reconhecimento facial a algoritmos de mídia social.

À medida que as empresas se tornam mais conscientes dos riscos da IA, elas também se tornam mais ativas nessa discussão em torno da ética e dos valores da IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, afirmou que a IBM encerrou a comercialização dos produtos IBM de reconhecimento e análise facial para o público, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo tecnologia de reconhecimento facial oferecida por outros fornecedores, para inspeção em massa, discriminação racial, violações de direitos humanos básicos e de liberdades ou qualquer propósito que não seja consistente com nossos valores e Princípios de confiança e transparência".

Responsabilidade


Uma vez que não há legislação relevante para regular as práticas de IA, não existe um mecanismo real de cumprimento para garantir a prática de IA ética. Os incentivos atuais para que as empresas sigam essas diretrizes são as repercussões negativas de um sistema de IA antiético nos resultados financeiros. Para preencher esse espaço, surgiram estruturas éticas como parte de uma colaboração entre especialistas em ética e pesquisadores para controlar o desenvolvimento e distribuição de modelos de IA na sociedade. No entanto, no momento, eles servem apenas para orientar, e a pesquisa (PDF) mostra que a combinação de responsabilidade compartilhada e a falta de determinação de possíveis consequências não resulta necessariamente na prevenção de danos à sociedade.

Como estabelecer ética na IA

Como a inteligência artificial não cria máquinas com discernimento moral, as equipes passaram a criar frameworks e conceitos para lidar com algumas das preocupações éticas atuais e moldar o futuro do trabalho nessa área. Enquanto essas diretrizes ainda estão sendo estruturadas, há algum consenso em torno da inclusão dos seguintes conceitos:

  • Governança: as empresas podem aproveitar sua estrutura organizacional existente para ajudar a gerenciar a ética na IA. Se uma empresa está coletando dados, provavelmente já estabeleceu um sistema de governança para facilitar a padronização dos dados e a garantia da qualidade. É provável que as equipes regulamentares e jurídicas estejam se associando às equipes de governança para assegurar a conformidade com as entidades governamentais, portanto, a expansão do escopo dessa equipe para incluir a ética da IA é uma ampliação natural de suas prioridades atuais. Esta equipe também pode promover a conscientização organizacional e incentivar os stakeholders a agir de acordo com os valores da empresa e as normas éticas.  
  • Explicabilidade: os modelos de machine learning, especificamente os modelos de deep learning, são frequentemente chamados de "modelos caixa preta", pois geralmente não está claro como um modelo chega a uma determinada decisão. De acordo com essa pesquisa (PDF), a explicabilidade busca eliminar a ambiguidade relacionada à criação de modelos e às saídas do modelo, gerando uma "explicação compreensível aos humanos que expressa a lógica da máquina".  Este tipo de transparência é importante para gerar confiança em sistemas de IA a fim de assegurar que os indivíduos entendam por que um modelo está chegando a uma determinada decisão. Se pudermos entender melhor o motivo, estaremos mais preparados para evitar riscos da IA, como viés e discriminação.  

Alcançar a IA ética pode, sem dúvida, ser essencial para o seu sucesso. No entanto, é importante notar que ela tem um enorme potencial para trazer impactos positivos para a sociedade. Podemos observar isso a partir de sua integração em áreas do setor médico, como a radiologia. Esta discussão sobre a ética na IA tem o propósito de assegurar que em nossa tentativa de aproveitar esta tecnologia para o bem, ela seja adequadamente avaliada caso haja a possibilidade de causar algum dano.

Organizações com IA ética

Como as normas éticas não são a principal preocupação dos engenheiros e dos cientistas de dados no setor privado, diversas organizações decidiram promover a consulta ética na área da inteligência artificial. Para aqueles que desejam obter mais informações, as seguintes organizações e projetos oferecem materiais sobre como implementar uma IA mais ética:

  • AlgoritmoWatch: esta organização sem fins lucrativos se concentra em um algoritmo e processo de decisão explicável e rastreável em programas de IA. Clique aqui para saber mais.
  • AI Now Institute: esta organização sem fins lucrativos da Universidade de Nova York estuda os impactos sociais da inteligência artificial. Clique aqui  para saber mais.
  • DARPA: a Agência de Projetos de Pesquisa Avançada de Defesa  do Departamento de Defesa dos EUA concentra-se em promover a IA explicável e a pesquisa de IA.
  • CHAI: o Centro para Inteligência Artificial Humano-Compatível  é uma cooperação de vários institutos e universidades para promover uma IA confiável e sistemas com potencial benéfico.
  • NASCAI:a a Comissão de Segurança Nacional para a Inteligência Artificial  é uma comissão independente "que considera os métodos e meios necessários para avançar no desenvolvimento da inteligência artificial, machine learning e tecnologias associadas para atender de forma abrangente às necessidades de segurança e defesa nacional dos Estados Unidos".
Opinião da IBM sobre a ética na IA

A IBM também definiu seu próprio ponto de vista sobre a ética da IA, criando princípios de confiança e transparência a fim de ajudar os clientes a entender seus valores diante da discussão associada à IA. A IBM tem três princípios essenciais que determinam sua abordagem para dados e IA, que são:

  1. O propósito da IA é ser uma extensão da inteligência humana. Isso significa que a empresa não busca substituir a inteligência humana com a IA, mas sim, servir de apoio. Como toda nova inovação tecnológica envolve mudanças na oferta e na demanda de alguns cargos específicos, a IBM está comprometida em apoiar os colaboradores durante essa transição, investindo em iniciativas globais para promover o treinamento para o desenvolvimento de novas habilidades associadas a essas tecnologias.
  2. Os dados e insights pertencem ao seu criador. Os clientes IBM podem ter a certeza de que eles são, e somente eles, os proprietários de seus dados. A IBM não possui e não fornecerá acesso aos dados do cliente para o governo para uso em programas de vigilância, e a empresa continua comprometida a proteger a privacidade de seus clientes.
  3. Os sistemas de IA devem ser transparentes e explicáveis. A IBM acredita que as empresas de tecnologia devem ser claras sobre quem treina seus sistemas de IA, quais dados foram usados naquele treinamento e, o mais importante, quais dados foram usados em suas recomendações de algoritmos.

A IBM também desenvolveu diversas áreas de foco para orientar a adoção responsável de tecnologias de IA. São elas:

  • Explicabilidade: um sistema de IA deve ser transparente, particularmente sobre o conteúdo inserido nas recomendações de seu algoritmo, de modo que seja relevante para diversos stakeholders e com diversos objetivos.
  • Igualdade: isso se refere ao tratamento equitativo de indivíduos, ou grupos de indivíduos, por um sistema de IA. Quando devidamente calibrada, a IA pode ajudar os humanos a fazer escolhas mais justas, eliminar os preconceitos humanos e promover a inclusão.
  • Robustez: os sistemas baseados em IA devem ser ativamente protegidos de ataques adversários, minimizando os riscos de segurança e aumentando a confiança nos resultados do sistema.
  • Transparência: para reforçar a confiança, os usuários devem ser capazes de saber como o serviço funciona, avaliar sua funcionalidade e compreender seus pontos fortes e limitações.
  • Privacidade: os sistemas de IA devem priorizar e proteger a privacidade e os direitos de dados dos consumidores e fornecer garantias explícitas aos usuários sobre como seus dados pessoais serão usados e protegidos.

Esses princípios e áreas de foco formam a base de nossa abordagem à ética da IA. Para saber mais sobre a opinião da IBM sobre ética e inteligência artificial, acesse mais informações aqui.

 

A ética na IA e a IBM

A IBM busca assegurar que seus produtos sejam desenvolvidos e usados com base em princípios e diretrizes éticas. Um dos produtos que a IBM oferece a seus clientes é o IBM Watson Studio, que melhora a supervisão e o conformidade com os padrões éticos para a IA.

O

IBM Watson Studio no IBM Cloud Pak for Data ajuda a monitorar e a gerenciar os modelos para conduzir uma IA mais confiável. Uma organização pode visualizar e rastrear modelos de IA na produção, validar e testar modelos a fim de reduzir os riscos regulatórios e aumentar a visibilidade do ciclo de vida da IA. Inscreva-se para obter um IBMid e crie sua conta IBM Cloud sem custo hoje mesmo.

Para saber mais sobre o ponto de vista da IBM sobre a ética da inteligência artificial, acesse mais informações aqui.

 

Soluções relacionadas
Ética na IA da IBM

A abordagem multidisciplinar e multidimensional da IBM para a IA confiável

Conheça a ética na IA da IBM
IBM watsonx.governance

Construa fluxos de trabalho de IA responsáveis, transparentes e explicáveis.

Explore o IBM watsonx.governance
IBM Watson Studio
Crie, execute e gerencie modelos de IA. Prepare dados e crie modelos em qualquer nuvem usando código aberto ou modelagem visual. Preveja e otimize seus resultados.
Conheça o Watson Studio
Dê o próximo passo

Conheça a plataforma de IA e dados desenvolvida para negócios

Conheça o watsonx