Informação falsa sobre IA: veja como reduzir a exposição e o risco da sua empresa

8 de janeiro de 2025

Autores

Alice Gomstyn

IBM Content Contributor

Alexandra Jonker

Editorial Content Lead

A informação precisa é a força vital das empresas modernas. Elas utilizam a IA para tomar decisões estratégicas sobre tudo, desde gerenciamento de cadeia de suprimentos até marketing de produto.

Embora a inteligência artificial (IA) possa melhorar essa tomada de decisão baseada em dados, ela também pode prejudicá-la. Os conteúdos gerados por IA podem conter muitos erros, como manchetes falsas péssimos conselhos jurídicos, receitas de pizza com cola Elmer’s como ingrediente principal.1

Será que um dia vamos superar completamente esse tipo de situação delicada? Por mais que os entusiastas da IA gostem de pensar o contrário, a resposta provavelmente é não.

Os modelos de IA (IA generativa) modelos de IA, explica Matt Candy da IBM, sempre estarão vulneráveis a produzir inadvertidamente pelo menos alguma informação falsa. “Como essas tecnologias funcionam de forma preditiva, tentando adivinhar a próxima palavra, sempre haverá algum risco”, afirma Candy, Global Managing Partner para IA generativa na IBM® Consulting.

Candy acrescenta que os modelos tradicionais de aprendizado de máquina (ML) também não estão imunes à produção de informação falsa. “Esses modelos funcionam como máquinas estatísticas que, basicamente, tentam prever algum tipo de resultado”, afirma ele. “Mesmo com toda a tecnologia, esses modelos ainda podem apresentar previsões erradas.”

No entanto, a boa notícia é que existem várias etapas que as empresas podem tomar para reduzir as chances de seus próprios sistemas de IA produzirem e espalharem informação falsa.

Se essas medidas não evitarem todos os casos de informação falsa gerada por IA, as empresas também podem adotar proteções para identificar essas informações antes que causem danos.

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionados por especialistas e notícias sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Compreendendo as informações falsas

Antes de analisar como as empresas podem se proteger da informações falsas gerada por IA, vale a pena entender melhor o que são informações falsas e os conceitos relacionados. Esses conceitos surgiram muito antes da popularização da IA nos ecossistemas de informação, mas a influência da IA sobre esses fenômenos é considerável.

Informações falsas

Informação falsa é, por definição, um conteúdo incorreto. Algumas definições também destacam que a informação falsa não é criada com a intenção de enganar, mas sim resultado de erros.

No caso de informação falsa gerada por IA, os exemplos incluem grandes modelos de linguagem (LLMs) gerando respostas imprecisas ou sem sentido, e imagens criadas por IA com representações irreais ou erradas (como “pessoas reais” com braços demais).

A alucinação de IA é a principal causa comum de informações falsas gerada pela IA. As alucinações de IA ocorrem quando os algoritmos de IA produzem resultados que não são baseados em dados de treinamento, são decodificados incorretamente pelo transformador ou não seguem nenhum padrão identificável.

"A forma como as alucinações acontecem é que o modelo de IA está tentando garantir que a linguagem seja fluente, mas também está tentando juntar diferentes fontes de informação", explica Kush Varshney, um Fellow da IBM no IBM® Research. “Até com os humanos, quando tentamos fazer várias coisas ao mesmo tempo, podemos cometer erros. Isso também está acontecendo com o modelo de IA, ele está perdendo o controle das informações enquanto tenta garantir a fluência da linguagem, e vice-versa."

Desinformação

A disinformation às vezes é considerada uma forma de informação falsa, mas se diferencia por ser um conteúdo falso criado para enganar o público. Exemplos incluem teorias da conspiração e, mais recentemente, conteúdos visuais e sonoros fabricados.

Casos proeminentes de desinformação viabilizados por bots e outras ferramentas de IA ocorreram na véspera da eleição presidencial americana de 2024. Isso incluiu uma chamada automática se passando pela voz do então presidente e candidato democrata Joe Biden, e a disseminação de imagens transmitindo falsos endossos de celebridades ao presidente republicano Donald Trump.2,3

As ferramentas para detectar deepfakes gerados por IA e outros conteúdos enganosos de desinformação têm apresentado resultados mistos, embora a última geração de detectores de texto com IA tenha se mostrado mais eficaz do que as versões anteriores.4,5 Enquanto isso, plataformas de mídia social como o TikTok e o Facebook começaram a rotular conteúdo gerado por IA.6

Mal-informação

Diferente da informação falsa e da desinformação, a mal-informação se baseia em fatos reais, mas pode causar danos. A mal-informação causa danos porque é divulgada com a intenção de prejudicar pessoas ou empresas.

Por exemplo, o compartilhamento de informações confidenciais sem permissão se enquadra no guarda-chuva da mal-informação, uma prática que foi amplificada pela IA. Golpistas podem usar ferramentas de IA generativa para criar e-mails de phishing sofisticados e eficazes, que os ajudem a obter e espalhar informações confidenciais.

Mitigar as informações falsas gerada por IA na fonte

Embora possa ser impossível garantir que todas as produções geradas por IA sejam completamente livres de erros, existem medidas que as empresas podem adotar para reduzir significativamente a probabilidade de seus sistemas de IA produzirem informações imprecisas ou totalmente fabricadas.

  • Garantindo a qualidade de dados
  • Implementação da geração aumentada de recuperação (RAG)
  • Uso de modelos de IA generativa menores

Garantindo a qualidade de dados

Dados de alta qualidade são fundamentais para o desempenho de modelos de IA. Os modelos devem ser treinados com dados diversos, equilibrados e bem estruturados para minimizar as chances de viés e alucinações. As empresas de tecnologia e os desenvolvedores de IA podem melhorar a qualidade dos dados de treinamento utilizando ferramentas de preparação e filtragem de dados para remover dados de baixa qualidade e conteúdos de ódio, incluindo mal-informação.

Implementação da geração aumentada de recuperação (RAG)

Uma das ferramentas mais populares para reduzir a probabilidade de alucinações da IA é a geração aumentada de recuperação (RAG). RAG é uma arquitetura que conecta modelos de IA generativa a fontes de dados externas, como os dados organizacionais de uma empresa, periódicos acadêmicos e conjuntos de dados especializados. Ao acessar essas informações, os chatbots de IA e outras ferramentas podem gerar conteúdo mais preciso e específico para o domínio.

Uso de modelos de IA generativa menores

Embora as aplicações de LLM voltadas para o consumidor no ChatGPT da OpenAI tenham capturado a atenção do público, as empresas frequentemente encontram modelos de IA menores e mais especializados que atendem melhor às suas necessidades, sendo também menos vulneráveis a alucinações.

"Você tem esses grandes modelos de fronteira treinados com o máximo de dados que conseguem obter", diz Candy. "Mas, se você pensar nos principais casos de uso empresarial, não precisa de um modelo treinado com as obras completas de Shakespeare, Reddit e todos os outros dados públicos disponíveis."

Modelos menores têm janelas de contexto mais estreitas e usam menos parâmetros, diminuindo o risco de alucinação. "Existe uma menor possibilidade de as coisas se misturarem", adiciona Varshney.

AI Academy

Confiança, transparência e governança em IA

A confiança na IA é provavelmente o assunto mais importante sobre IA. É também um assunto compreensivelmente complexo. Discutiremos questões como alucinação, viés e risco e compartilharemos as etapas para adotar a IA de maneira ética, responsável e justa.

Denunciar as informações falsas geradas por IA antes que ela cause danos

Mitigar as alucinações da IA ajuda a combater a informação falsa, mas representa apenas um dos passos necessários para evitar danos. As empresas também precisam ter estratégias e ferramentas para identificar alucinações e respostas imprecisas que eventualmente escapem do controle.

Ferramentas de detecção de alucinações de IA

As principais plataformas e modelos de base de governança de IA agora incluem recursos para detectar alucinações. IBM® watsonx.governance e a versão mais recente do IBM Granite Guardian (IBM® Granite Guardian 3.1, parte da família de modelos de linguagem Granite da IBM projetados para empresas), avalia o desempenho de modelos de IA generativa em métricas como relevância das respostas e "fidelidade".

"Eles chamam isso de 'fidelidade', que é o oposto de alucinação", explica Varshney. "Quando uma resposta é fiel aos seus documentos fonte, ela não está alucinando." O Granite Guardian 3.1 também apresenta recursos para detectar o uso e a produção de IA contraproducentes, como jailbreaking, palavrões e viés social.

Supervisão e interação humana

Mesmo com ferramentas de governança de IA, os humanos ainda exercem papéis fundamentais para evitar a disseminação de informações falsas geradas por IA. Candy afirma que, ao implementar sistemas de IA, as empresas precisam identificar os pontos de controle que possibilitam a supervisão humana. “Precisamos criar, de forma intencional, momentos no processo em que haja interação humana, revisão humana e decisões tomadas por pessoas.”

Esse tipo de tomada de decisão humana é especialmente importante, ele observa, com o advento de poderosos agentes de IA que podem enfrentar tarefas cada vez mais sofisticadas.

Por exemplo, enquanto uma empresa de ciências da vida pode usar múltiplos agentes de IA para pesquisar e redigir relatórios de conformidade sobre o desenvolvimento de novos medicamentos, a empresa ainda designaria um funcionário humano para avaliar e verificar os fatos dos relatórios antes de enviá-los a uma agência governamental.

"Em última análise, você ainda terá um ser humano no processo, verificando e validando", diz Candy. "Eu não subestimaria a importância da parte humana."

Soluções relacionadas
IBM watsonx.governance™

Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM® watsonx.governance.

Descubra o watsonx.governance
Soluções e serviços de governança de IA

Libere todo o potencial da sua IA e veja como a governança de IA ajuda a aumentar a confiança dos seus funcionários na IA, a acelerar a adoção e a inovação e a aumentar a confiança do cliente.

Explore as soluções de governança de IA
Serviços de consultoria de governança de IA

Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM® Consulting.

Explore os serviços de governança de IA
Dê o próximo passo

Direcione, gerencie e monitore sua IA com um único portfólio para acelerar a IA responsável, transparente e explicável.

Explore o watsonx.governance Agende uma demonstração em tempo real