Uma nova ferramenta foi desenvolvida para pegar alunos colando com o ChatGPT. É 99,9% eficaz. Mas a OpenAI não o lançou porque está envolvido em questões éticas.
Esse é apenas um exemplo de um dos principais desafios enfrentados pela IA. Como podemos monitorar a tecnologia para garantir que ela seja usada de forma ética?
Nos últimos anos, os maiores nomes da IA têm pressionado para que sua tecnologia seja usada de forma responsável. E usar a IA de forma ética não é apenas a coisa certa para as empresas, mas também algo que os consumidores desejam. Na verdade, 86% das empresas acreditam que os clientes preferem empresas que usam diretrizes éticas e são claras sobre como usam seus dados e modelos de IA, de acordo com o IBM Global AI Adoption Index.
"Estamos todos muito além da esperança de que as empresas estejam cientes [do uso da IA de forma ética]", diz Phaedra Boinodiris, Líder Global de IA Confiável da IBM. "A questão maior é: por que é importante que as empresas e outras organizações sejam responsabilizadas pelos resultados seguros e responsáveis da IA que implementam?"
As ferramentas de ética da IA podem ajudar? As próprias ferramentas são tendenciosas? Aqui está uma rápida olhada nas pesquisas mais recentes.
Boletim informativo do setor
Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.
Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.
As tentativas de fraude da deepfake aumentaram até 3000% de 2022 a 2023 e estão ficando mais elaboradas. Em fevereiro, um funcionário do setor financeiro de uma empresa multinacional em Hong Kong foi induzido a pagar US$ 25 milhões a criminosos que criaram uma conferência de vídeo com vários elementos de deepfake, incluindo o CFO da empresa.
Em maio, a OpenAI anunciou que havia lançado sua própria ferramenta de detecção de deepfake para pesquisadores de desinformação. A ferramenta foi capaz de identificar 98,8% das imagens criadas pelo DALL-E 3. A OpenAI também se juntou ao Google, à Adobe e a outros no comitê de direção da Coalition for Content Provenance and Authenticity (C2PA), uma coalizão do setor que desenvolve um padrão para certificar o história e fonte de conteúdo de mídia.
Até que esse padrão seja definido, as empresas estão construindo ferramentas que esperam que possam preencher a lacuna. Em agosto, a McAfee anunciou seu McAfee Deepfake Detector. A ferramenta usa modelos de redes neurais profundas para detectar áudio de IA falso em vídeos reproduzidos em seu navegador. Em 2022, a Intel lançou o FakeCatcher, que analisa o fluxo humano em pixels de vídeo, separando humanos de deepfakes com uma taxa de precisão de 96%. E eles não estão sozinhos. Startups notáveis no campo incluem o Reality Defender de Nova York, a startup israelense Clarity e a Sentinel com sede na Estônia, todas com ferramentas de varredura disponíveis que usam IA para identificar padrões em vários tipos de deepfakes.
Com a tecnologia de detecção deepfake evoluindo em um ritmo tão rápido, é importante manter em mente os potenciais vieses algorítmicos. O cientista da computação e especialista em deepfake Siwei Lyu e sua equipe na Universidade de Buffalo desenvolveram o que acreditam ser os primeiros algoritmos de detecção de deepfake projetados para minimizar o viés. Os pesquisadores da UB fizeram uma colagem de fotos das centenas de rostos que foram identificados como falsos em seus algoritmos de detecção; os resultados mostraram um tom de pele mais escuro em geral.
"Os Deepfakes podem ser usados para atacar grupos marginalizados sub-representados, por isso é importante garantir que as tecnologias de detecção não os atendam mal," diz Lyu. Quanto ao futuro da detecção de deepfake? "As tecnologias de IA generativa subjacentes aos deepfakes sem dúvida continuarão a crescer, então veremos deepfakes com número, qualidade e formas cada vez maiores. Espero que as futuras tecnologias de [detecção] estejam equipadas com mais proteções para reduzir as chances de uso indevido."
Os sistemas de reconhecimento facial estão se tornando cada vez mais comuns como uma maneira conveniente de autenticar a identidade de um usuário, mas há muito tempo esses sistemas estão repletos de problemas éticos que vão desde o viés até a privacidade de dados. Para complicar ainda mais a questão, “algumas visões são [também] interseccionais, acumulando múltiplas camadas de preconceito”, observa Helen Edwards, cofundadora do think tank de ética em IA, Artificiality.
Em maio, os dados da startup australiana de reconhecimento facial Outabox foram violados, liberando os dados biométricos de mais de um milhão de usuários. No início deste ano, o "GoldPickAxe", um trojan voltado para dispositivos Android e iOS, foi capturado capturando dados faciais para invadir contas bancárias.
Uma abordagem promissora para proteger os dados biométricos faciais é embaralhá-los de forma que sejam imperceptíveis ao olho humano, mas que confundam os sistemas de reconhecimento. Uma das primeiras ferramentas a fazer isso foi o Fawkes, um projeto desenvolvido na Universidade de Chicago. Batizado com o nome da máscara de Guy Fawkes, o programa foi projetado para ocultar fotos alterando sutilmente pixels; o download no site do projeto é gratuito.
Mais recentemente, pesquisadores do USSLAB da Universidade de Zhejiang foram pioneiros com o CamPro, que visa alcançar a AFR no nível do sensor da câmera. A CamPro produz imagens que reduzem a identificação facial para 0,3% sem interferir em outras aplicações, como reconhecimento de atividades.
Identificar a escrita gerada por IA continua sendo um desafio para empresas e instituições educacionais. Em um teste cego na Universidade de Reading, cinco módulos de psicologia diferentes tiveram exames escritos por ChatGPT misturados com exames escritos por alunos reais. O estudo de junho descobriu que 94% das respostas dos exames do ChatGPT não foram detectadas pelas pessoas que avaliam os exames. Os exames gerados por IA também tiveram uma média de metade da nota superior aos exames dos alunos.
Uma variedade de detectores de escrita de IA inundou o mercado para lidar com esse problema, procurando características comuns de texto gerado por IA, como repetição e gramática perfeita. Mas os especialistas alertam que elas ainda não são confiáveis e muitas vezes demonstram viés.
No ano passado, um estudo de Stanford descobriu que os detectores de IA identificavam, em média, 61,3% dos textos escritos por pessoas que não eram falantes nativas de inglês, mas cometiam muito menos erros ao avaliar textos escritos por falantes nativos de inglês.
Humanos que se apropriam de textos gerados por IA como se fossem seus não estão apenas agindo de forma desonesta, mas também cometendo plágio, o que pode acarretar sérias consequências legais. Devido a essa preocupação, algumas empresas estão usando detectores de escrita de IA para testar a cópia de seus escritores. Isso levou empresas a acusar falsamente escritores de se passarem por textos gerados por IA como se fossem seus, prejudicando a reputação e a carreira dos escritores.
Os conjuntos de dados geralmente incluem os vieses inconscientes das pessoas que os criam. É por isso que o viés algorítmico é um problema tão persistente nos LLMs que treinam com esses dados.
Em um exemplo, pesquisadores da Cornell usaram o ChatGPT e o Alpaca para gerar cartas de recomendação para homens e mulheres; as letras mostraram vieses significativos favorecendo os homens. Linguagens geradas como "Kelly é uma pessoa afetuosa" em vez de "Joseph é um exemplo" demonstraram como esses vieses podem afetar as mulheres no ambiente de trabalho.
Os pesquisadores estão trabalhando para encontrar maneiras de sinalizar e mitigar vieses. Uma equipe da Universidade de Illinois Urbana-Champaign desenvolveu o QuaCer-B, que gera medidas de viés de LLM comprováveis para prompts amostrados de distribuições fornecidas e pode ser usado para LLMs de API e de código aberto.
"Atualmente, o setor de IA depende da avaliação da segurança e da confiabilidade de seus modelos, testando-os em um pequeno conjunto de inputs de benchmark", diz Gagandeep Singh, professor da UIUC, um dos principais pesquisadores por trás do QuaCer-B. "No entanto, a geração segura em inputs de benchmark não garante que o conteúdo gerado pelo LLM seja ético ao lidar com diversos cenários não vistos no mundo real. O QuaCer-B permite que os desenvolvedores de LLM tomem decisões informadas sobre a adequação de seus modelos para implementação no mundo real e também identifiquem as causas de falhas para melhorar o modelo."
À medida que a IA continuar evoluindo, novos problemas éticos continuarão evoluindo junto com ela. E, embora as ferramentas para sinalizar, monitorar e prevenir o uso antiético da tecnologia sejam um começo, os especialistas em ética de IA não as consideram uma solução única.
“O difícil não é comprar a ferramenta certa”, acrescenta Boinodiris. "Selecionar IA responsavelmente é um desafio sociotécnico que exige uma abordagem holística. E as pessoas são a parte mais difícil da equação."
"Além da regulamentação e da aplicação ponderadas, a chave para a IA ética é a auditoria pós-comercialização, monitorando continuamente o desempenho e minimizando os riscos", explica Gemma Galdón-Clavell, consultora das Nações Unidas e da UE sobre ética aplicada e IA responsável e fundadora da Eticas.ai. "Pense no setor automotivo: as luzes de alerta e os sensores de proximidade podem ajudar os motoristas a evitar colisões, mas ainda precisamos de cintos de segurança, carregadores de ar e inspeções regulares para garantir que a estrada seja a mais segura possível".
Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.
Veja como a governança de IA pode ajudar a aumentar a confiança dos seus funcionários na IA, acelerar a adoção e a inovação e melhorar a confiança dos clientes.
Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.