O que é meta prompting?

Autora

Jobit Varughese

Technical Content Writer

IBM

O que é meta prompting?

Considere um cenário. Você faz uma pergunta a um modelo de IA, ele dá uma resposta e acabou. Em vez disso, dê a ele um modelo testado que mostre exatamente como pensar em relação a um problema complexo e, de repente, ele estará resolvendo uma categoria inteira, de forma mais rápida, inteligente e com mais consistência. É isso que o meta prompting oferece.  

Embora grandes modelos de linguagem (LLMs) como o ChatGPT da OpenAI, o Gemini do Google e os modelos de código aberto da Anthropic possam lidar com muitas tarefas, eles muitas vezes tropeçam em raciocínios complexos. Métodos atuais, como cadeia de pensamento e árvore de pensamento, ajudam, mas não podem se igualar ao raciocínio humano. O meta prompting muda isso ao fornecer aos LLMs frameworks estruturados para um desempenho mais avançado.

O meta prompting é uma técnica de engenharia de prompts avançada que oferece aos LLMs um modelo de prompts reutilizável, passo a passo, em linguagem natural. Esse método permite que o modelo resolva uma categoria inteira de tarefas complexas, em vez de um único prompt para um único problema. O meta prompting ensina um modelo de IA a pensar sobre como resolver o problema, focando na estrutura, na sintaxe e no padrão de raciocínio necessário para chegar à resposta final. Ou seja, ele usa a engenharia de prompts para definir como o modelo deve pensar no problema, passo a passo, antes de produzir a resposta final.

Por exemplo, um usuário pede a uma IA para resolver um sistema de duas equações lineares, x - y = 4 e 2x + 3y = 12. A IA pode ser instruída usando um meta prompt para:  

  • Determine os coeficientes de cada equação.
  • Escolha um método de resolução.
  • Resolva o problema passo a passo para derivar cada variável.
  • Insira os valores em ambas as equações e verifique o resultado.

Essa arquitetura oferece adaptabilidade, fornece saídas de alta qualidade e permite que os agentes de IA lidem com problemas complexos em quase todos os domínios com poucos novos prompts.

Como o meta prompting funciona?

A técnica de meta prompting se baseia em conceitos matemáticos, teoria dos tipos e teoria das categorias, que oferecem um método organizado de mapear problemas para soluções.1

Essa abordagem é importante porque mantém uma estrutura clara entre as tarefas e seus prompts, facilitando para a IA seguir um prompt e resolver uma ampla gama de problemas. A ideia básica por trás da teoria das categorias é mapear relacionamentos. Uma categoria é um "mundo" de objetos e suas relações. No meta prompting, podemos considerar:  

  • Uma categoria (T) a ser um conjunto de tarefas (por exemplo, "resolver um sistema de equações"). 
  • Outra categoria (P) a ser o conjunto de prompts estruturados para essas tarefas. 
  • O funtor de meta prompting (M) traduz cada tarefa em T para seu prompt estruturado correspondente em P, mantendo a estrutura lógica. 

Se você alterar a tarefa (por exemplo, os números em um problema de matemática), o framework permanece o mesmo, e o prompt se ajusta adequadamente.

Esse cenário é aprimorado pela teoria dos tipos, que garante que o design de prompts corresponda ao tipo de problema. No meta prompting, um tipo pode ser um "problema matemático" ou uma "solicitação de sumarização". Ele garante que uma tarefa matemática obtenha uma estrutura de raciocínio específica da matemática, enquanto uma tarefa de sumarização obtenha um modelo orientado por sumarização, mantendo a precisão, a adaptabilidade e evitando raciocínios irrelevantes em tarefas complexas.

Para colocar esses conceitos em prática, o meta prompting envolve três etapas: 

1. Determinar a tarefa (T): especifique a categoria do problema, não apenas a instância específica. 

2. Mapear a tarefa para um prompt estruturado (P): crie um modelo organizado e sequencial para raciocínio usando o funtor de meta prompting (M). Essa geração de prompts pode ser feita automaticamente por agentes de IA ou manualmente. 

3. Executar e produzir a saída: o LLM garante a resolução de problemas consistente e compreensível aplicando o prompt estruturado e específico à entrada em questão. 

Exemplo: meta prompting para equações lineares

No exemplo anterior de resolução de um conjunto de duas equações lineares: [ 2x + 3y = 12 e x - y = 4 ], a tarefa (T) é "resolver qualquer sistema de duas equações lineares". O mapeamento produz um novo prompt (P), que pode ter esta aparência: 

"Aja como um tutor de matemática e explique como resolver o conjunto de equações lineares fornecido passo a passo. 
2x + 3y = 12 e x - y = 4

Use este modelo estruturado:

1: Identifique os coeficientes a1, b1, c1 da primeira equação e a2, b2, c2 da segunda. 

2: Escolha um método para resolver (substituição ou eliminação).  

3: Se o método de eliminação for usado, multiplique uma ou ambas as equações até que os coeficientes de x ou y correspondam ao valor absoluto. 

4: Adicione ou subtraia as equações para remover uma variável.

5: Resolva para a variável restante.

6: Para encontrar a outra variável, insira o valor resolvido em uma das equações iniciais.

7: Verifique substituindo x e y em ambas as equações originais.

8: Resuma a resposta final como (x, y).”

Se as equações mudarem, o LLM ainda poderá resolvê-las e continuar o raciocínio, pois o funtor fornece a mesma estrutura com novos números. O resultado é um modelo de prompt ponderado que possibilita que os fluxos de trabalho de IA generativa resolvam problemas de maneira confiável, adaptável e escalável.

Aplicações do meta prompting

O meta prompting foi testado em vários raciocínios, programação e tarefas criativas, muitas vezes superando o prompt padrão e até mesmo modelos ajustados. Por exemplo, no conjunto de dados MATH contendo 5.000 problemas de matemática em nível de competição, os pesquisadores usaram um meta prompt zero-shot com o Qwen‑72B LLM. Ele alcançou uma precisão de 46,3%, superando a pontuação inicial do GPT-4 de 42,5% e superando modelos com ajuste fino. O meta prompt forneceu um framework de raciocínio passo a passo, permitindo que ele lidasse com problemas invisíveis sem usar exemplos memorizados.

O meta prompting pode gerenciar o fluxo de trabalho de desenvolvimento de software, desde o planejamento até a avaliação do código, permitindo que os LLMs funcionem como arquitetos, desenvolvedores e testadores. Por exemplo, adicionar um especialista em Python à arquitetura do meta prompting para geração e execução de código aumentou o percentual de sucesso do Python Programming Puzzle de 32,7% para 45,8%.2 Ele pode definir o tom e a estrutura no desenvolvimento do conteúdo e iterar o material para obter resultados avançados. Por exemplo, em uma tarefa de escrita de sonetos shakespeareanos que exigia uma estrutura poética rigorosa, o meta prompting aumentou a precisão de 62% com os prompts padrão. Com um interpretador Python, a precisão aumentou para 79,6% e, sem ele, para 77,6%, mostrando sua força no refinamento do tom e da estrutura. 

Considerando esses casos de uso, o meta prompting converte instruções complicadas em etapas gerenciáveis, que fornecem resultados mais alinhados com o domínio.

Meta prompting versus outras técnicas de engenharia de prompts

O meta prompting difere de técnicas de engenharia de prompts, como prompt zero-shot e few-shot, tanto em foco quanto em execução.

No prompt zero-shot, um LLM recebe uma tarefa sem exemplos, contando apenas com o pré-treinamento. Embora seja bom para tarefas simples, muitas vezes produz um raciocínio inconsistente em tarefas complexas. O meta prompting melhora esse problema com um modelo de prompt reutilizável e organizado, que orienta a solução de problemas e garante resultados consistentes e explicáveis.

O prompt few-shot dá ao modelo alguns exemplos para imitar, como mostrar três problemas de matemática resolvidos antes de pedir o quarto. Isso "ensina pelo exemplo", mas ainda vincula o raciocínio do modelo a esses exemplos. Em vez disso, o meta prompting abstrai o próprio processo de resolução de problemas em um modelo generalizado passo a passo, que é independente de exemplos específicos que são flexíveis e reutilizáveis em classes inteiras de problemas.

Comparado ao prompt da cadeia de pensamento, que instrui o modelo a pensar passo a passo, o meta prompting define quais devem ser essas etapas para um tipo de tarefa específico, tornando o processo de raciocínio mais adaptável. 

Esse recurso torna o meta prompting especialmente valioso para IA generativa, agentes de IA e fluxos de trabalho complexos em que a confiabilidade e a adaptabilidade são críticas.

Tipos de meta prompting

O meta prompting pode ser aplicado de diferentes maneiras, dependendo de quem cria o meta prompt, como ele é gerado e como é usado em um fluxo de trabalho de IA. 

Meta prompting fornecida pelo usuário

Esse é o tipo mais direto de meta prompting. Um ser humano, como um especialista ou engenheiro de prompts, escreve um modelo claro e passo a passo para a tarefa. Em seguida, o LLM segue essa estrutura para chegar à resposta. Essa abordagem funciona bem quando você sabe exatamente como um problema deve ser resolvido e deseja resultados consistentes e de alta qualidade. Portanto, leva tempo e experiência para criar esses prompts para muitas tarefas diferentes.

Meta prompting recursivo (RMP)

Aqui, o LLM, ou um agente de IA, cria o meta prompt para si mesmo antes de resolver o problema. Esse tipo acontece em dois estágios: a primeira passagem pega a descrição da tarefa e gera um prompt estruturado, passo a passo; a segunda passagem usa esse prompt para produzir a resposta final. Isso permite que a IA adapte seu processo de solução de problemas, tornando-a útil para cenários zero-shot e few-shot sem exemplos prontos. A desvantagem é que a qualidade da saída depende da qualidade do prompt da IA.

Meta prompting de modelo de condutor

Esse tipo é usado em fluxos de trabalho complexos de IA, em que vários LLMs ou agentes de IA trabalham juntos. Um modelo de condutor planeja o processo e cria diferentes meta prompts para cada modelo especializado. O condutor divide a tarefa principal em subtarefas e, em seguida, usa modelos de prompts para atribuir cada parte ao especialista certo. Por exemplo, um modelo lida com as operações, outro escreve Python e outro verifica os resultados. Esse trabalho em equipe melhora a precisão e a adaptabilidade, mas precisa de mais poder de computação.

O meta prompting não é apenas um método para melhorar as respostas da IA, mas uma maneira de as pessoas interagirem com os LLMs. Em vez de dar instruções diretas aos modelos de IA, influenciamos seu processo de pensamento ao ensiná-los a gerar seus próprios prompts eficazes. O meta prompting permite uma forma de auto-otimização da IA em que o raciocínio e a adaptabilidade evoluem com cada iteração, o que ajuda no desenvolvimento de sistemas de IA mais inteligentes e autônomos.

Soluções relacionadas
IBM® watsonx.ai

Treine, valide, ajuste e implemente recursos de IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em menos tempo com menos dados.

Explore o watsonx.ai
Soluções de inteligência artificial

Coloque a IA em ação na sua empresa com a experiência em IA líder do setor e com o portfólio de soluções da IBM.

Explore as soluções de IA
Consultoria e serviços em inteligência artificial (IA)

Os serviços de IA da IBM Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformação.

Explore os serviços de IA
Dê o próximo passo

Ao utilizar a IA, o IBM Concert revela insights cruciais sobre suas operações e fornece recomendações específicas para cada aplicação com foco em melhorias. Descubra como o Concert pode impulsionar sua empresa.

Explorar Concert Explore as soluções de automação de processos de negócios
Notas de rodapé

1. Zhang, Y., Yuan, Y., e Yao, A. C. C. (2023). Meta prompting for ai systems. arXiv preprint arXiv:2311.11482.

2. Suzgun, M., e Kalai, A. T. (2024). Meta-prompting: Enhancing language models with task-agnostic scaffolding. arXiv preprint arXiv:2401.12954.