Ética é um conjunto de princípios morais que nos ajudam a discernir entre o certo e o errado. A ética da IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da inteligência artificial (IA) e, ao mesmo tempo, reduzir riscos e resultados adversos.
Exemplos de questões éticas de IA incluem responsabilidade e privacidade de dados, imparcialidade, explicabilidade, robustez, transparência, sustentabilidade ambiental, inclusão, agência moral, alinhamento de valores, responsabilidade, confiança e uso indevido de tecnologia. Este artigo tem como objetivo fornecer uma visão abrangente do mercado sobre a ética em IA no setor hoje. Para saber mais sobre o ponto de vista da IBM, veja nossa página de ética em IA aqui.
Com o surgimento do big data, as empresas aumentaram o foco em impulsionar a automação e a tomada de decisões baseada em dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar os resultados de negócios, as empresas estão enfrentando consequências imprevistas em algumas de suas aplicações de IA, particularmente devido a um projeto de pesquisa preliminar inadequado e a conjuntos de dados com viés.
À medida que surgiram exemplos de resultados injustos, novas diretrizes foram criadas, principalmente pelas comunidades de pesquisa e ciência de dados, para abordar as preocupações relacionadas à ética da IA. Empresas líderes no campo da IA também têm demonstrado interesse em moldar essas diretrizes, à medida que elas próprias começaram a experimentar algumas das consequências de não manter padrões éticos em seus produtos. A falta de diligência nessa área pode resultar em exposição reputacional, regulatória e legal, levando a penalidades custosas. Como acontece com todos os avanços tecnológicos, a inovação tende a superar a regulamentação governamental em novos campos emergentes. À medida que a experiência apropriada se desenvolve no setor governamental, podemos esperar mais protocolos de IA para que as empresas sigam, permitindo-lhes evitar violações de direitos humanos e liberdades civis.
Embora tenham sido desenvolvidos regras e protocolos para gerenciar o uso da IA, a comunidade acadêmica tem aproveitado o Relatório Belmont como um meio de orientar a ética na pesquisa experimental e no desenvolvimento algorítmico. Três princípios principais surgiram do Relatório Belmont que servem como guia para o projeto de experimentos e algoritmos:
Há uma série de questões que estão na vanguarda das conversas sobre ética em torno das tecnologias de IA no mundo real. Alguns exemplos incluem:
O lançamento do ChatGPT em 2022 marcou um verdadeiro ponto de inflexão para a inteligência artificial. As habilidades do chatbot da OpenAI, desde escrever pareceres jurídicos até depurar códigos, abriram uma nova constelação de possibilidades sobre o que a IA pode fazer e como pode ser aplicada em quase todos os setores.
O ChatGPT e ferramentas semelhantes são construídos com base em modelos de base, modelos de IA que podem ser adaptados para uma ampla gama de tarefas subsequentes. Modelos de base são geralmente modelos generativos de grande escala, compostos por bilhões de parâmetros, que são treinados com dados não rotulados usando autossupervisão. Isso permite que os modelos de base apliquem rapidamente o que aprenderam em um contexto para outro, tornando-os altamente adaptáveis e capazes de realizar uma grande variedade de tarefas diferentes. No entanto, há muitas questões potenciais e preocupações éticas em torno dos modelos de base, amplamente reconhecidas no setor de tecnologia, como vieses, geração de conteúdo falso, falta de explicabilidade, uso indevido e impacto social. Muitas dessas questões são relevantes para a IA em geral, mas ganham uma nova urgência à luz do poder e da disponibilidade dos modelos de base.
A singularidade tecnológica é um cenário teórico em que o crescimento tecnológico se torna incontrolável e irreversível, culminando em mudanças profundas e imprevisíveis na civilização humana. Embora esse tópico atraia muita atenção pública, muitos pesquisadores não estão preocupados com a ideia de a IA superar a inteligência humana no futuro imediato ou próximo.
IA forte (IA que possuiria inteligência e consciência iguais às dos humanos) e superinteligência ainda são hipotéticas. As ideias levantam algumas questões interessantes ao considerarmos o uso de sistemas autônomos, como carros autônomos. É irreal pensar que um carro sem motorista nunca se envolverá em um acidente. Quem seria responsável e culpado nessas circunstâncias? Devemos continuar desenvolvendo veículos autônomos ou devemos limitar a integração dessa tecnologia para criar apenas veículos semiautônomos que promovam a segurança entre os motoristas? Ainda não há consenso sobre isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA se desenvolvem.
Embora grande parte da percepção pública sobre a inteligência artificial esteja centrada na perda de empregos, essa preocupação provavelmente deveria ser reformulada. Com toda nova tecnologia disruptiva, vemos que a demanda do mercado por funções específicas de trabalho muda.
Por exemplo, ao analisar o setor automotivo, muitos fabricantes, como a GM, estão se redirecionando para se concentrar na produção de veículos elétricos a fim de se adequarem às iniciativas ecológicas. O setor de energia não está desaparecendo, mas a fonte de energia está mudando de uma economia de combustível para uma elétrica.
A inteligência artificial deve ser vista de maneira semelhante, onde a IA mudará a demanda por empregos para outras áreas. Será necessário haver indivíduos para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. Ainda será necessário haver recursos para lidar com problemas mais complexos dentro dos setores que são mais propensos a serem afetados por mudanças na demanda de trabalho, como o atendimento ao cliente. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho será ajudar os indivíduos a fazer a transição para essas novas áreas de demanda de mercado.
A privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os formuladores de políticas fizessem mais avanços nessa área nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais das pessoas na União Europeia e no Espaço Econômico Europeu, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, estados individuais estão desenvolvendo políticas, como a Lei de Privacidade do Consumidor da Califórnia (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados.
Essa e outras legislações recentes forçaram as empresas a repensar como armazenam e usam dados de identificação pessoal (PII). Como resultado, os investimentos em segurança se tornaram uma prioridade crescente para as empresas, pois elas buscam eliminar quaisquer vulnerabilidades e oportunidades de vigilância, hacking e ataques cibernéticos.
Casos de vieses e discriminação em diversos sistemas inteligentes levantaram muitas questões éticas sobre o uso da inteligência artificial. Como podemos nos proteger contra vieses e discriminação quando os próprios conjuntos de dados de treinamento podem se inclinar para o viés? Embora as empresas geralmente tenham boas intenções em seus esforços de automação, podem surgir consequências imprevistas ao incorporar a IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon involuntariamente escolheu possíveis candidatos a emprego com viés de gênero para cargos técnicos abertos, e eles acabaram tendo que descartar o projeto. À medida que eventos como esses surgem, a Harvard Business Review levantou outras questões pontuais sobre o uso de IA nas práticas de contratação, como quais dados você deve poder usar ao avaliar um candidato para uma função.
O viés e a discriminação também não se limitam à função de recursos humanos; eles podem ser encontrados em uma série de aplicações, desde software de reconhecimento facial até algoritmos de mídia social.
À medida que as empresas se tornam mais conscientes dos riscos da IA, também se tornam mais ativas na discussão sobre ética e valores em IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, anunciou o encerramento dos produtos de reconhecimento facial e análise da IBM para uso geral, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo a de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, perfis étnicos, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não esteja em conformidade com nossos valores e princípios de confiança e transparência".
Não existe uma legislação universal que regule as práticas de IA, mas muitos países e estados estão trabalhando para desenvolvê-las e implementá-las localmente. Algumas regulamentações sobre IA já estão em vigor, com muitas mais por vir. Para preencher essa lacuna, surgiram frameworks éticos como parte de uma colaboração entre especialistas em ética e pesquisadores para regulamentar a construção e distribuição de modelos de IA na sociedade. No entanto, no momento, eles servem apenas para orientar, e pesquisas mostram que a combinação de responsabilidade distribuída e falta de previsão de possíveis consequências não é necessariamente propícia para prevenir danos à sociedade.
A inteligência artificial funciona conforme sua concepção, desenvolvimento, treinamento, ajuste e uso, e a ética em IA consiste em estabelecer um ecossistema de padrões éticos e diretrizes ao longo de todas as fases do ciclo de vida de um sistema de IA.
Organizações, governos e pesquisadores começaram a montar frameworks para lidar com as preocupações éticas atuais na IA e moldar o futuro do trabalho no campo. Embora essas diretrizes estejam se tornando cada vez mais estruturadas, há um consenso em torno da incorporação dos seguintes pontos:
A governança é a ação de uma organização em supervisionar o ciclo de vida da IA por meio de políticas e processos, equipe e sistemas internos. A governança ajuda a garantir que os sistemas de IA operem de acordo com os princípios e valores da organização, conforme as expectativas dos stakeholders e as exigências da regulamentação aplicável. Um programa de governança bem-sucedido irá:
definir os papéis e responsabilidades das pessoas que trabalham com IA.
educar todas as pessoas envolvidas no ciclo de vida da IA sobre a construção de IA de maneira responsável.
estabelecer processos para construir, gerenciar, monitorar e se comunicar sobre a IA e seus riscos.
utilizar ferramentas para melhorar o desempenho e a confiabilidade da IA ao longo de seu ciclo de vida.
Um Conselho de Ética de IA é um mecanismo de governança particularmente eficaz. Na IBM, o Conselho de Ética de IA é composto por líderes de diversas áreas da empresa. Ele fornece um processo centralizado de governança, revisão e tomada de decisões para as políticas e práticas de ética da IBM. Saiba mais sobre o Conselho de Ética em IA da IBM.
A abordagem de uma organização à ética em IA pode ser guiada por princípios que podem ser aplicados a produtos, políticas, processos e práticas em toda a organização, ajudando a garantir uma IA confiável. Esses princípios devem ser estruturados em torno de áreas de foco, como explicabilidade ou imparcialidade, em torno das quais podem ser desenvolvidas normas e práticas podem ser alinhadas.
Quando a IA é construída com a ética no centro, ela tem um tremendo potencial para impactar a sociedade de forma positiva. Já começamos a ver isso em sua integração em áreas da saúde, como a radiologia. A conversa sobre ética em IA também é importante para avaliar e mitigar adequadamente possíveis riscos relacionados ao uso da IA, começando já na fase de design.
Como os padrões éticos não são a principal preocupação dos engenheiros e cientistas de dados no setor privado, várias organizações surgiram para promover condutas éticas no campo da inteligência artificial. Para aqueles que buscam mais informações, as seguintes organizações e projetos fornecem recursos para implementar a ética em IA:
A IBM também estabeleceu seu próprio ponto de vista sobre ética de IA, criando Princípios de confiança e transparência para ajudar os clientes a entender onde seus valores estão dentro da conversa sobre IA. A IBM tem três princípios fundamentais que ditam sua abordagem aos dados e ao desenvolvimento de IA, que são:
A IBM também desenvolveu cinco pilares para guiar a adoção responsável de tecnologias de IA. Isso inclui:
Esses princípios e áreas de foco formam a base da nossa abordagem à ética em IA. Para saber mais sobre a visão da IBM em relação à ética e inteligência artificial, leia mais aqui.
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.