Minha IBM Efetue login Inscreva-se

O que são alucinações de IA?

01 de setembro de 2023

O que são alucinações de IA?

A alucinação da IA é um fenômeno em que um grande modelo de linguagem (LLM) — geralmente um chatbot de IA generativa ou uma ferramenta de visão computacional — percebe padrões ou objetos inexistentes ou imperceptíveis para observadores humanos, criando saídas que não fazem sentido ou são totalmente imprecisas.

Geralmente, quando um usuário faz uma solicitação a uma ferramenta de IA generativa, ele deseja uma saída que lide adequadamente com o prompt (isto é, uma resposta correta para a pergunta). No entanto, às vezes os algoritmos de IA produzem saídas que não são baseadas nos dados de treinamento, são decodificadas incorretamente pelo transformador ou não seguem nenhum padrão identificável. Em outras palavras, eles "alucinam" a resposta.

O termo pode parecer paradoxal, já que alucinações são normalmente associadas ao cérebro humano ou animal, não a máquinas. Mas, de um ponto de vista metafórico, a alucinação descreve com precisão essas saídas, particularmente no caso do reconhecimento de imagens e padrões (em que as saídas podem ter aparência verdadeiramente surreal).

As alucinações da IA são semelhantes à forma como os seres humanos às vezes veem figuras nas nuvens ou rostos na lua. No caso da IA, essas interpretações equivocadas ocorrem devido a vários fatores, incluindo overfitting, viés/inadequação nos dados de treinamento e alta complexidade do modelo.

Evitar problemas com tecnologias generativas de código aberto pode ser desafiador. Alguns exemplos notáveis de alucinação de IA incluem:

  • O chatbot Bard do Google alegando incorretamente que o Telescópio Espacial James Webb capturou as primeiras imagens de um planeta fora de nosso sistema solar1.
     

  • A IA de chat da Microsoft, Sydney, admitindo estar "apaixonada" por usuários e espionando funcionários do Bing.2

  • A Meta retirou a demonstração do LLM Galactica em 2022, após fornecer informações inexatas aos usuários, às vezes baseadas em preconceitos.

Embora muitos desses problemas já tenham sido abordados e resolvidos, é fácil ver como, mesmo nas melhores circunstâncias, o uso de ferramentas de IA pode ter consequências inesperadas e indesejadas.

Projeto 3D de bolas rolando em uma pista

As últimas notícias e insights sobre IA 


Descubra insights selecionadas por especialistas sobre IA, nuvem e outros assuntos no boletim informativo semanal Think. 

Implicações das alucinações de IA

A alucinação da IA pode ter consequências significativas para aplicações no mundo real. Por exemplo, um modelo de IA de saúde pode identificar incorretamente uma lesão cutânea benigna como maligna, levando a intervenções médicas desnecessárias. Problemas de alucinação da IA também podem contribuir para a disseminação de desinformação. Se, por exemplo, chatbots alucinados responderem a consultas sobre uma emergência em curso com informações que não foram verificadas, isso pode rapidamente espalhar fake news que minam os esforços de mitigação. Uma fonte significativa de alucinação nos algoritmos de aprendizado de máquina é o viés de entrada. Se um modelo de IA for treinado em um conjunto de dados que inclui dados com viés ou não representativos, ele poderá alucinar padrões ou funcionalidades que reflitam esses vieses.

Os modelos de IA também podem ser vulneráveis a ataques de adversários, nos quais atores mal-intencionados manipulam a produção de um modelo de IA ao alterar sutilmente os dados de entrada. Em tarefas de reconhecimento de imagens, por exemplo, um ataque adversário pode envolver a adição de uma pequena quantidade de ruído especialmente criado a uma imagem, fazendo com que a IA a classifique incorretamente. Isso pode se tornar uma preocupação significativa de segurança, especialmente em áreas delicadas, como cibersegurança e tecnologias de veículos autônomos. Pesquisadores de IA estão constantemente desenvolvendo salvaguardas para proteger ferramentas de IA contra ataques adversários. Técnicas como treinamento adversário (em que o modelo é treinado em uma mistura de exemplos normais e adversários) estão reforçando problemas de segurança. Mas, enquanto isso, a vigilância nas fases de treinamento e verificação de fatos é fundamental.

AI Academy

Confiança, transparência e governança em IA

A confiança na IA é provavelmente o assunto mais importante sobre IA. É também um assunto compreensivelmente complexo. Discutiremos questões como alucinação, viés e risco e compartilharemos as etapas para adotar a IA de maneira ética, responsável e justa.

Prevenção de alucinações de IA

A melhor maneira de mitigar o impacto das alucinações de IA é evitar que elas ocorram. Aqui estão algumas etapas que você pode seguir para manter seus modelos de IA funcionando de forma otimizada:

Use dados de treinamento de alta qualidade

Os modelos de IA generativa dependem de dados de input para realizar tarefas, então a qualidade e relevância dos conjuntos de dados de treinamento determinarão o comportamento do modelo e a qualidade de seus outputs. Para prevenir alucinações, garanta que os modelos de IA sejam treinados em dados diversos, equilibrados e bem estruturados. Isso ajudará o modelo a minimizar os vieses, compreender melhor suas tarefas e produzir outputs mais eficazes.

Defina o propósito do seu modelo de IA

Estabelecer claramente como o modelo de IA será utilizado, bem como qualquer limitação de uso, ajudará a reduzir alucinações. Sua equipe ou organização deve definir as responsabilidades e limitações do sistema de IA escolhido; isso ajudará o sistema a realizar tarefas de forma mais eficaz e minimizará resultados irrelevantes ou "alucinatórios".

Use modelos de dados

Modelos de dados fornecem às equipes um formato predefinido, aumentando a probabilidade de que o modelo de IA gere outputs que estejam de acordo com as diretrizes estabelecidas. A confiança em modelos de dados garante consistência nos outputs e reduz a probabilidade de que o modelo produza resultados errados.

Limite respostas

Modelos de IA muitas vezes alucinam porque carecem de restrições que limitem os possíveis resultados. Para prevenir esse problema e melhorar a consistência e precisão geral dos resultados, defina limites para os modelos de IA usando ferramentas de filtragem e/ou limiares probabilísticos claros.

Teste e refine o sistema continuamente

Testar rigorosamente seu modelo de IA antes de usar é vital para evitar alucinações, assim como avaliar o modelo continuamente. Esses processos melhoram o desempenho geral do sistema e permitem que os usuários ajustem e/ou treinem novamente o modelo à medida que os dados envelhecem e evoluem.

Conte com a supervisão humana

Garantir que um ser humano valide e avalie as saídas da IA é uma medida final de segurança para prevenir alucinações. A supervisão humana assegura que, se a IA alucinar, haverá uma pessoa disponível para filtrar e corrigir o erro. Um revisor humano também pode oferecer conhecimento especializado no assunto, o que aumenta sua capacidade de avaliar o conteúdo da IA em termos de precisão e relevância para a tarefa.

Aplicações de alucinação de IA

Embora a alucinação de IA seja certamente um resultado indesejado na maioria dos casos, ela também apresenta uma série de casos de uso intrigantes que podem ajudar as organizações a aproveitar seu potencial criativo de maneira positiva. Confira alguns exemplos:

Arte e design

A alucinação da IA oferece uma nova abordagem para a criação artística, fornecendo aos artistas, designers e outras pessoas criativas uma ferramenta para gerar imagens visualmente impressionantes e imaginativas. Com os recursos alucinatórios da inteligência artificial, os artistas podem produzir imagens surreais e oníricas que podem gerar novas formas e estilos de arte.

Visualização e interpretação de dados

A alucinação da IA pode agilizar a visualização de dados ao expor novas conexões e oferecer perspectivas alternativas sobre informações complexas. Isso pode ser especialmente valioso em áreas como finanças, onde a visualização de tendências de mercado intrincadas e dados financeiros facilita a tomada de decisões mais sutis e a análise de riscos.

Jogos e realidade virtual (RV)

A alucinação de IA também melhora as experiências imersivas em jogos e realidade virtual (VR). Utilizar modelos de IA para alucinar e gerar ambientes virtuais pode ajudar desenvolvedores de jogos e designers de VR a imaginar novos mundos que elevam a experiência do usuário a outro nível. A alucinação também pode adicionar elementos de surpresa, imprevisibilidade e novidade às experiências de jogos.

Soluções relacionadas

Soluções relacionadas

IBM watsonx.governance™

Governe modelos de IA generativa de qualquer lugar e implemente na nuvem ou no local com o IBM watsonx.governance.

Descubra o watsonx.governance
Serviços de consultoria de governança de IA

Prepare-se para a Lei de IA da UE e estabeleça uma abordagem de governança de IA responsável com a ajuda da IBM Consulting.

Explore os serviços de governança de IA
IBM OpenPages

Simplifique a forma como você gerencia os riscos e a conformidade regulatória com uma plataforma de GRC unificada.

Explore o OpenPages
Dê o próximo passo

Direcione, gerencie e monitore sua IA com um único portfólio para acelerar a IA responsável, transparente e explicável.

Explore o watsonx.governance Agende uma demonstração em tempo real
Notas de rodapé

1 What Makes A.I. Chatbots Go Wrong?, The New York Times, 29 de março de 2023.

2 ChatGTP and the Generative AI Hallucinations, Medium, 15 de março de 2023.

3 Why Meta’s latest large language model survived only three days online, MIT Technology Review, 18 de novembro de 2022.