Início
topics
Ética em IA
Ética é um conjunto de princípios morais que nos ajudam a discernir entre o certo e o errado. A ética em IA é um campo multidisciplinar que estuda como otimizar o impacto benéfico da IA enquanto reduz os riscos e os resultados adversos.
Exemplos de questões éticas em IA incluem responsabilidade com os dados e privacidade, equidade, explicabilidade, robustez, transparência, sustentabilidade ambiental, inclusão, agência moral, alinhamento de valores, responsabilidade, confiança e mau uso da tecnologia. Este artigo tem como objetivo fornecer uma visão abrangente do mercado sobre a ética em IA nao setor hoje. Para saber mais sobre o ponto de vista da IBM, veja nossa página de ética em IA aqui.
Com o surgimento do big data, as empresas aumentaram o foco em impulsionar a automação e a tomada de decisões baseada em dados em suas organizações. Embora a intenção seja geralmente, se não sempre, melhorar os resultados de negócios, as empresas estão enfrentando consequências imprevistas em algumas de suas aplicações de IA, particularmente devido a um design de pesquisa preliminar inadequado e a conjuntos de dados tendenciosos.
À medida que surgiram exemplos de resultados injustos, novas diretrizes foram criadas, principalmente pelas comunidades de pesquisa e ciência de dados, para abordar as preocupações relacionadas à ética da IA. Empresas líderes no campo da IA também têm demonstrado interesse em moldar essas diretrizes, à medida que elas próprias começaram a experimentar algumas das consequências de não manter padrões éticos em seus produtos. A falta de diligência nessa área pode resultar em exposição reputacional, regulatória e legal, levando a penalidades custosas. Como acontece com todos os avanços tecnológicos, a inovação tende a superar a regulamentação governamental em novos campos emergentes. À medida que a experiência apropriada se desenvolve no setor governamental, podemos esperar mais protocolos de IA para que as empresas sigam, permitindo-lhes evitar violações de direitos humanos e liberdades civis.
Acelere fluxos de trabalho responsáveis, transparentes e explicáveis para IA generativa construída em plataformas de terceiros.
Enquanto regras e protocolos são desenvolvidos para gerenciar o uso da IA, a comunidade acadêmica tem utilizado o Relatório Belmont (link fora de ibm.com) como um meio de orientar a ética na pesquisa experimental e no desenvolvimento algorítmico. Três princípios principais surgiram do Relatório Belmont que servem como guia para o design de experimentos e algoritmos:
Há uma série de questões que estão na vanguarda das conversas sobre ética em torno das tecnologias de IA no mundo real. Algumas delas incluem:
O lançamento do ChatGPT em 2022 marcou um verdadeiro ponto de inflexão para a inteligência artificial. As habilidades do chatbot da OpenAI, desde escrever pareceres jurídicos até depurar códigos, abriram uma nova constelação de possibilidades sobre o que a IA pode fazer e como pode ser aplicada em quase todos os setores. O ChatGPT e ferramentas semelhantes são construídos com base em modelos de base, modelos de IA que podem ser adaptados para uma ampla gama de tarefas subsequentes. Modelos de base são geralmente modelos generativos de grande escala, compostos por bilhões de parâmetros, que são treinados com dados não rotulados usando auto-supervisão. Isso permite que os modelos de base apliquem rapidamente o que aprenderam em um contexto para outro, tornando-os altamente adaptáveis e capazes de realizar uma grande variedade de tarefas diferentes. No entanto, há muitas questões potenciais e preocupações éticas em torno dos modelos de base, amplamente reconhecidas no setor de tecnologia, como vieses, geração de conteúdo falso, falta de explicabilidade, uso indevido e impacto social. Muitas dessas questões são relevantes para a IA em geral, mas ganham uma nova urgência à luz do poder e da disponibilidade dos modelos de base.
Embora esse tópico atraia muita atenção pública, muitos pesquisadores não estão preocupados com a ideia de a IA superar a inteligência humana no futuro próximo ou imediato. Isso também é referido como superinteligência, que Nick Bostrom define como "qualquer intelecto que supere vastamente os melhores cérebros humanos em praticamente todos os campos, incluindo criatividade científica, sabedoria geral e habilidades sociais". Apesar de a IA forte e a superinteligência não serem iminentes na sociedade, a ideia levanta algumas questões interessantes quando consideramos o uso de sistemas autônomos, como carros autônomos. É irreal pensar que um carro sem motorista nunca se envolverá em um acidente. Quem seria responsável e culpado nessas circunstâncias? Devemos continuar desenvolvendo veículos autônomos, ou devemos limitar a integração dessa tecnologia para criar apenas veículos semi-autônomos que promovam a segurança entre os motoristas? Ainda não há consenso sobre isso, mas esses são os tipos de debates éticos que estão ocorrendo à medida que novas e inovadoras tecnologias de IA se desenvolvem.
Embora grande parte da percepção pública sobre a inteligência artificial esteja centrada na perda de empregos, essa preocupação provavelmente deveria ser reformulada. Com toda nova tecnologia disruptiva, vemos que a demanda do mercado por funções específicas de trabalho muda. Por exemplo, quando olhamos para o setor automotivo, muitos fabricantes, como a GM, estão mudando o foco para a produção de veículos elétricos, a fim de se alinhar às iniciativas ecológicas. O setor de energia não vai desaparecer, mas a fonte de energia está mudando de uma economia de combustível para uma elétrica. A inteligência artificial deve ser vista de maneira semelhante, onde a IA mudará a demanda por empregos para outras áreas. Será necessário haver indivíduos para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. Haverá necessidade de pessoas para ajudar a gerenciar esses sistemas à medida que os dados crescem e mudam todos os dias. O aspecto importante da inteligência artificial e seu efeito no mercado de trabalho será ajudar os indivíduos a fazer a transição para essas novas áreas de demanda de mercado.
A privacidade tende a ser discutida no contexto de privacidade de dados, proteção de dados e segurança de dados, e essas preocupações permitiram que os formuladores de políticas fizessem mais avanços nessa área nos últimos anos. Por exemplo, em 2016, a legislação GDPR foi criada para proteger os dados pessoais das pessoas na União Europeia e no Espaço Econômico Europeu, dando aos indivíduos mais controle sobre seus dados. Nos Estados Unidos, estados individuais estão desenvolvendo políticas, como a Lei de Privacidade do Consumidor da Califórnia (CCPA), que exige que as empresas informem os consumidores sobre a coleta de seus dados. Essa legislação recente forçou as empresas a repensar como armazenam e utilizam dados pessoalmente identificáveis (PII). Como resultado, os investimentos em segurança tornaram-se uma prioridade crescente para as empresas, à medida que buscam eliminar vulnerabilidades e oportunidades para vigilância, hacking e ataques cibernéticos.
Casos de viés e discriminação em diversos sistemas inteligentes levantaram muitas questões éticas sobre o uso da inteligência artificial. Como podemos nos proteger contra vieses e discriminação quando os conjuntos de dados de treinamento podem se inclinar para o viés? Embora as empresas geralmente tenham boas intenções em seus esforços de automação, podem surgir consequências imprevistas ao incorporar IA nas práticas de contratação. Em seu esforço para automatizar e simplificar um processo, a Amazon inadvertidamente favoreceu candidatos a vagas técnicas (link fora de ibm.com) com base no gênero, e, no final, precisou abandonar o projeto. À medida que eventos como esses vêm à tona, a Harvard Business Review (link fora de ibm.com) levantou outras questões relevantes sobre o uso da IA nas práticas de contratação, como quais dados deveriam ser utilizados ao avaliar um candidato para uma vaga.
O viés e a discriminação também não se limitam à função de recursos humanos; eles podem ser encontrados em uma série de aplicações, desde software de reconhecimento facial até algoritmos de mídia social.
À medida que as empresas se tornam mais conscientes dos riscos da IA, também se tornam mais ativas na discussão sobre ética e valores em IA. Por exemplo, no ano passado, o CEO da IBM, Arvind Krishna, anunciou o encerramento dos produtos de reconhecimento facial e análise da IBM para uso geral, enfatizando que "a IBM se opõe firmemente e não tolerará o uso de qualquer tecnologia, incluindo a de reconhecimento facial oferecida por outros fornecedores, para vigilância em massa, perfis étnicos, violações de direitos humanos e liberdades básicas, ou qualquer propósito que não esteja em conformidade com nossos valores e princípios de confiança e transparência".
Não existe uma legislação universal que regule as práticas de IA, mas muitos países e estados estão trabalhando para desenvolvê-las e implementá-las localmente. Algumas regulamentações sobre IA já estão em vigor, com muitas mais por vir.Para preencher essa lacuna, surgiram frameworks éticos como parte de uma colaboração entre especialistas em ética e pesquisadores para regulamentar a construção e distribuição de modelos de IA na sociedade. No entanto, no momento, essas diretrizes servem apenas como orientações, e pesquisas (link fora de ibm.com) mostram que a combinação de responsabilidade distribuída e a falta de previsão sobre as possíveis consequências nem sempre são eficazes para prevenir danos à sociedade.
A inteligência artificial funciona conforme sua concepção, desenvolvimento, treinamento, ajuste e uso, e a ética em IA consiste em estabelecer um ecossistema de padrões éticos e diretrizes ao longo de todas as fases do ciclo de vida de um sistema de IA.
Organizações, governos e pesquisadores começaram a montar estruturas para lidar com as atuais preocupações éticas em IA e moldar o futuro do trabalho na área. Embora essas diretrizes estejam se tornando cada vez mais estruturadas, há um consenso em torno da incorporação dos seguintes pontos:
Governança é o ato de uma organização supervisionar o ciclo de vida da IA por meio de políticas e processos internos, equipe e sistemas. A governança ajuda a garantir que os sistemas de IA operem de acordo com os princípios e valores da organização, conforme as expectativas das partes interessadas e as exigências da regulamentação aplicável. Um programa de governança bem-sucedido irá:
definir os papéis e responsabilidades das pessoas que trabalham com IA.
educar todas as pessoas envolvidas no ciclo de vida da IA sobre a construção de IA de maneira responsável.
estabelecer processos para construir, gerenciar, monitorar e comunicar sobre IA e seus riscos.
utilizar ferramentas para melhorar o desempenho e a confiabilidade da IA ao longo de seu ciclo de vida.
Um Conselho de Ética de IA é um mecanismo de governança particularmente eficaz. Na IBM, o Conselho de Ética de IA é composto por líderes de diversas áreas da empresa. Ele fornece um processo centralizado de governança, revisão e tomada de decisões para as políticas e práticas de ética da IBM. Saiba mais sobre o Conselho de Ética em IA da IBM.
A abordagem de uma organização à ética em IA pode ser guiada por princípios que podem ser aplicados a produtos, políticas, processos e práticas em toda a organização, a fim de promover uma IA confiável. Esses princípios devem ser estruturados em torno de áreas de foco, como explicabilidade ou equidade, em torno das quais podem ser desenvolvidos padrões e alinhadas práticas.
Quando a IA é construída com a ética no centro, ela tem um tremendo potencial para impactar a sociedade de forma positiva. Já começamos a ver isso em sua integração em áreas da saúde, como a radiologia. A conversa sobre ética em IA também é importante para avaliar e mitigar adequadamente possíveis riscos relacionados ao uso da IA, começando já na fase de design.
Como os padrões éticos não são a principal preocupação dos engenheiros e cientistas de dados no setor privado, várias organizações surgiram para promover condutas éticas no campo da inteligência artificial. Para aqueles que buscam mais informações, as seguintes organizações e projetos fornecem recursos para implementar a ética em IA:
A IBM também estabeleceu seu próprio ponto de vista sobre ética de IA, criando Princípios de confiança e transparência para ajudar os clientes a entender onde seus valores estão dentro da conversa sobre IA. A IBM tem três princípios fundamentais que ditam sua abordagem aos dados e ao desenvolvimento de IA, que são:
A IBM também desenvolveu cinco pilares para guiar a adoção responsável de tecnologias de IA. Esses pilares incluem:
Esses princípios e áreas de foco formam a base da nossa abordagem à ética em IA. Para saber mais sobre a visão da IBM em relação à ética e inteligência artificial, leia mais aqui.
Abordagem multidisciplinar e multidimensional da IBM para IA confiável
Crie, execute e gerencie modelos de IA. Prepare dados e crie modelos em qualquer nuvem usando código-fonte aberto ou modelagem visual. Preveja e otimize seus resultados.
Crie fluxos de trabalho de IA responsáveis, transparentes e explicáveis.