Técnicas de engenharia de prompts

Autor(es):

Vrunda Gadesha

AI Advocate | Technical Content Author

Técnicas de engenharia de prompts são estratégias usadas para projetar e estruturar prompts, consultas de entradas ou instruções, fornecidos a modelos de IA, particularmente grandes modelos de linguagem (LLMs), como o GPT-4 da OpenAI, o Google Gemini ou o IBM® GraniteTM Essas técnicas visam orientar sistemas de IA generativa (IA gen) para produzir respostas precisas, relevantes e contextualmente apropriadas, permitindo que os usuários obtenham as saídas desejadas de forma eficaz.

Os grandes modelos de linguagem, construídos com base em algoritmos avançados de aprendizado de máquina, são capazes de entender e gerar texto semelhante ao humano. A engenharia de prompts aproveita esse recurso criando entradas que ajudam o modelo a realizar tarefas complexas, como sumarização, tradução, redação criativa ou resolução de problemas, com maior precisão. Ao experimentar diferentes prompts, os usuários podem influenciar o comportamento dos LLMs para otimizar seu desempenho em diversas aplicações.

Como a IA generativa continua a desempenhar um papel fundamental em vários domínios, a compreensão das técnicas de engenharia de prompts tornou-se essencial para liberar todo o seu potencial e adaptar os modelos de IA para atender a necessidades específicas com eficiência.

Compreensão dos prompts

Um prompt é o texto ou consulta de entrada fornecido a um modelo de IA, como um grande modelo de linguagem, para gerar uma resposta. Ele serve como o mecanismo principal para orientar o comportamento do modelo, definindo a tarefa e configurando o contexto para a interação. O design de um prompt afeta significativamente a qualidade e a relevância da saída, tornando essencial a escolha do tipo certo de prompt para tarefas específicas.

Para obter os melhores resultados dos modelos de IA, é essencial entender as várias maneiras pelas quais os prompts podem ser estruturados para se adequar a diferentes tarefas e objetivos. Existem três maneiras principais de estruturar o prompt: instruções diretas, instruções abertas e instruções específicas da tarefa.

As instruções diretas são comandos claros e específicos que dizem à IA exatamente o que fazer. Esses prompts são ideais para tarefas simples em que o usuário tem uma expectativa clara da saída. Os prompts diretos dependem da capacidade do modelo de analisar instruções explícitas e gerar respostas que se alinham rigorosamente com o comando. Quanto mais detalhada for a instrução, maior a probabilidade de a saída atender às expectativas.

Exemplo:

Write a poem about nature.

Nesse caso, a IA conhece o formato exato [um poema] e o tópico [natureza] para gerar o texto.

As instruções abertas são menos restritivas e incentivam a IA a explorar ideias mais amplas ou fornecer respostas criativas e interpretativas. Esses prompts são úteis para brainstorming, narrativa ou discussões exploratórias em que o usuário valoriza a variedade e originalidade na saída. Os prompts abertos aproveitam os recursos generativos do modelo sem impor restrições. O modelo depende de seus dados de treinamento para inferir a melhor abordagem para o prompt, o que pode produzir resultados diversos ou inesperados.

Exemplo:

Tell me about the universe.

Aqui, a IA tem a liberdade de decidir quais aspectos do universo discutir, como sua origem, estrutura ou teorias científicas.

As instruções específicas da tarefa são criadas para tarefas precisas e orientadas para objetivos, como traduções, sumarização ou cálculos. Esses prompts geralmente são elaborados com clareza e podem incluir contexto ou exemplos adicionais para ajudar a garantir respostas precisas. Os prompts específicos da tarefa aproveitam a compreensão do modelo de tarefas especializadas. Eles podem incorporar técnicas de engenharia de prompts avançadas, como prompt few-shot (fornecendo exemplos) ou prompt zero-shot (não fornecendo exemplos, mas confiando no conhecimento pré-treinado do modelo).

Exemplo: 

Translate this text into French: ‘Hello.’

O modelo entende tanto a tarefa de tradução de idiomas quanto o texto de entrada específico, permitindo que ele produza a saída desejada: "Bonjour".

Ao entender esses tipos de prompts e as nuances técnicas por trás deles, os usuários podem criar prompts que orientam os modelos de IA de forma eficaz, otimizando a qualidade e a relevância das respostas. 

Pense além dos prompts e tenha o contexto completo 

Fique à frente das últimas notícias do setor, ferramentas de IA e tendências emergentes em engenharia de prompts com o boletim informativo Think. Além disso, tenha acesso a novas explicações, tutoriais e insights, entregues diretamente na sua caixa de entrada. Consulte a declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Principais técnicas em engenharia de prompts

Para maximizar a eficácia dos modelos de IA, a engenharia de prompts emprega uma variedade de técnicas adaptadas a diferentes tarefas e objetivos. A seguir estão várias técnicas importantes, cada uma explicada com exemplos de prompts projetados para alcançar resultados específicos. 

Para demonstrar a eficácia de várias técnicas de engenharia de prompts, vamos verificar uma única tarefa como caso de uso central: explicar a mudança climática. A tarefa está estruturada da seguinte forma: 

Explain the concept of climate change, its causes, and its effects in a way that is accessible to a general audience.

Cada técnica aborda a tarefa de forma diferente, oferecendo diferentes níveis de orientação, complexidade e metodologia. A seguir, exploramos como essas técnicas podem ser aplicadas a esse caso de uso, com prompts personalizados para destacar seus recursos exclusivos.

Prompt zero-shot

O prompt zero-shot envolve pedir ao modelo que execute uma tarefa sem fornecer quaisquer exemplos ou orientações prévias. Ele depende inteiramente do conhecimento pré-treinado da IA para interpretar e responder ao prompt.[1]

Exemplo de prompt:

Explain the concept of climate change, its causes, and its effects in simple terms.

O modelo não recebe exemplos anteriores ou contexto adicional e deve basear-se exclusivamente em seu conhecimento pré-treinado para gerar a saída.

Prompt few-shot

O prompt few-shot inclui um pequeno número de exemplos dentro do prompt para demonstrar a tarefa ao modelo. Essa abordagem ajuda o modelo a entender melhor o contexto e a saída esperada.[2]

Exemplo de prompt:

Here are some examples of how to explain complex topics:

- Topic: Photosynthesis
- Explanation: Photosynthesis is the process by which plants convert sunlight, water, and carbon dioxide into energy and oxygen.
- Topic: Gravity
- Explanation: Gravity is the force that pulls objects toward each other, like how the Earth pulls us to its surface.

Now explain: Climate Change.

Ao fornecer alguns exemplos de como explicar outros tópicos, o modelo é orientado sobre o tom e o nível de simplicidade esperados para a explicação da mudança climática.

Prompt de cadeia de pensamentos (CoT)

O prompt de CoT incentiva o modelo a raciocinar sobre um problema passo a passo, dividindo-o em componentes menores para chegar a uma conclusão lógica.[3]

Exemplo de prompt:

Step 1: Define what climate change is.
Step 2: Explain the causes of climate change.
Step 3: Describe its effects on the planet.

Now, follow these steps to explain climate change.

O modelo é incentivado a pensar passo a passo, dividindo a explicação em partes lógicas menores para maior clareza.

Metaprompt

O metaprompt envolve pedir ao modelo que gere ou refine seus próprios prompts para executar melhor a tarefa. Essa técnica pode melhorar a qualidade da saída ao aproveitar a capacidade de autodirecionamento do modelo.[4]

Exemplo de prompt:

Create a prompt that will help you explain climate change, its causes, and its effects in simple terms

O modelo gera seu próprio prompt antes de tentar explicar o tópico, o que pode melhorar a relevância e a qualidade da saída.

Autoconsistência

A autoconsistência usa várias gerações independentes do modelo para identificar a resposta mais coerente ou precisa. É particularmente útil para tarefas que exigem raciocínio ou interpretação.[5]

Exemplo de prompt:

Provide three different explanations of climate change, its causes, and its effects. Then identify the most coherent and clear explanation

O modelo produz múltiplas respostas independentes e seleciona a mais consistente ou coerente como a saída final.

Gere prompt de conhecimento

Essa técnica envolve pedir ao modelo que gere conhecimento prévio antes de lidar com a tarefa principal, aprimorando sua capacidade de produzir respostas informadas e precisas.[6]

Exemplo de prompt:

Before explaining climate change, first list the key scientific principles related to it. Once done, use these principles to explain the concept, its causes, and its effects.

O modelo gera contexto primeiro (por exemplo, gases de efeito estufa, aquecimento global) para fornecer uma explicação mais informada.

Encadeamento de prompts

O encadeamento de prompts envolve a vinculação de vários prompts, onde a saída de um prompt serve como entrada para o próximo. Essa técnica é ideal para processos multietapas.

Exemplo de prompt:

What is climate change? Provide a brief definition.

Próximo prompt baseado na resposta anterior:

What are the primary causes of climate change?

Próximo prompt com base na resposta anterior: 

What are the effects of climate change on the environment and human life?

A tarefa é dividida em uma cadeia de prompts menores, com a saída de cada etapa alimentando a próxima para uma explicação mais estruturada.

Prompt de árvore de pensamentos

O prompt de árvore de pensamentos incentivam o modelo a explorar vários ramos de raciocínio ou ideias antes de chegar a um resultado final.[7][8]

Exemplo de prompt:

List three possible ways to explain climate change to a general audience. For each method, describe its advantages and disadvantages. Then choose the best explanation and elaborate on it

O modelo explora várias abordagens para a explicação e seleciona a mais eficaz, fornecendo uma saída bem fundamentada.

Geração aumentada de recuperação (RAG)

A geração aumentada de recuperação (RAG) combina a recuperação de informações externas com a IA generativa para produzir respostas com base em conhecimentos atualizados ou específicos do domínio.[9]

Exemplo de prompt:

Using the global temperature datasets from NASA GISS (GISTEMP) dataset on climate science, explain climate change, its causes, and its effects in simple terms.

O modelo combina suas habilidades generativas com conhecimento externo para produzir uma explicação informada.

Raciocínio automático e uso de ferramentas

Essa técnica integra recursos de raciocínio com ferramentas externas ou interfaces de programação de aplicativos (APIs), permitindo que o modelo use recursos como calculadoras ou mecanismos de pesquisa.[10]

Exemplo de prompt:

Use the provided climate data to calculate the global temperature rise over the last century, and then explain how this relates to climate change, its causes, and its effects.

O modelo integra raciocínio a ferramentas externas (por exemplo, calculadoras ou APIs) para analisar dados e fornecer uma explicação baseada em dados.

Engenheiro de prompts automático

Esse método envolve o uso da própria IA para gerar e otimizar prompts para tarefas específicas, automatizando o processo de elaboração de instruções eficazes.

Exemplo de prompt:

Generate a prompt that will help explain climate change, its causes, and effects. Then use the generated prompt to provide the explanation.

O modelo automatiza a criação de um prompt otimizado para melhorar a qualidade de sua resposta.

Prompt ativo

O prompt ativo ajusta dinamicamente o prompt com base em resultados intermediários do modelo, refinando a entrada para obter melhores resultados.[11]

Prompt inicial

Explain climate change, its causes, and its effects in simple terms.

Prompt de acompanhamento

Add more detail about the causes of climate change, focusing on human activities.

O prompt evolui dinamicamente com base na saída intermediária, refinando a resposta ao longo das iterações.

Prompt de estímulo direcional

O prompt de estímulo direcional (DSP) usa pistas direcionais para levar o modelo em direção a um tipo específico de resposta ou perspectiva.[12]

Exemplo de prompt:

Explain the concept of climate change from an environmentalist’s perspective, focusing on the need for immediate action.

O modelo é direcionado para uma perspectiva ou tom específico, influenciando o enquadramento de sua explicação.

Modelos de linguagem auxiliados por programa (PALM)

O PALM integra recursos de programação para aumentar o raciocínio e as habilidades computacionais do modelo.[13]

Exemplo de prompt:

Write Python code to visualize the increase in global temperatures over time. Then explain how this data relates to climate change, its causes, and its effects.

O modelo combina programação com geração de linguagem para fornecer uma visualização e uma explicação.

ReAct

O ReAct combina prompts de raciocínio e ação, incentivando o modelo a pensar criticamente e a agir com base em seu raciocínio.[14]

Exemplo de prompt:

Analyze the following climate data and identify key trends. Based on your analysis, explain the concept of climate change, its causes, and its effects.

Esse exemplo ilustra como o modelo pode combinar raciocínio analítico com insights praticáveis.

Reflexão

A reflexão permite que o modelo avalie seus resultados anteriores e os refine para melhorar a precisão ou a coerência.[15]

Exemplo de prompt:

Here is my first attempt at explaining climate change: [Insert initial output]. Review this explanation and improve it for clarity and accuracy.

O modelo reflete sobre sua saída anterior e a melhora de forma iterativa.

Cadeia de pensamentos multimodal (CoT multimodal)

Essa técnica integra o raciocínio da cadeia de pensamentos em várias modalidades, como texto, imagens ou áudio.[16]

Exemplo de prompt:

Analyze this infographic on global warming trends, then explain climate change, its causes, and its effects step by step

O modelo integra o raciocínio em várias modalidades (texto e imagens) para fornecer uma explicação abrangente.

Prompt de gráficos

O prompt de gráficos aproveita estruturas baseadas em gráficos para organizar e raciocinar por meio de relacionamentos complexos entre conceitos ou pontos de dados.

Exemplo de prompt:

Using the provided graph of CO₂ emissions over time, explain how it relates to climate change, its causes, and its effects.

O modelo usa raciocínio baseado em gráficos para conectar pontos de dados e gerar uma explicação perspicaz.

Assim, podemos ver como diferentes técnicas de engenharia de prompts podem ser aplicadas a uma única tarefa. Ao usar a mesma tarefa em métodos como zero-shot, few-shot, cadeia de pensamentos e árvore de pensamentos, podemos ver como cada técnica estrutura a tarefa de forma diferente e orienta a IA para produzir respostas únicas. Esses exemplos demonstram a flexibilidade e a criatividade da engenharia de prompts na solução de uma variedade de desafios. Os leitores são incentivados a experimentar esses exemplos de prompts com diferentes modelos de IA ou aplicações, como os modelos IBM Granite, ChatGPT da OpenAI, Bard do Google, Claude da Anthropic, Cohere ou Jurassic da AI21 Labs. Isso permite que os usuários vejam como as saídas variam e encontrem o que funciona melhor para suas necessidades.

AI Academy

Torne-se um especialista em IA

Adquira conhecimento para priorizar os investimentos em IA que estimulam o crescimento dos negócios. Comece a usar hoje mesmo a nossa AI Academy sem custo e lidere o futuro da IA na sua organização.

Desafios com técnicas de engenharia de prompts

Embora as técnicas de engenharia de prompts sejam poderosas, elas vêm com vários desafios. A elaboração de prompts eficazes que produzam consistentemente saídas precisas pode ser difícil, especialmente para tarefas que exigem raciocínio complexo, compreensão de senso comum ou respostas diferenciadas. Alucinação é outro problema comum, onde os modelos de IA generativa geram informações imprecisas ou totalmente fabricadas. Confiar em modelos estruturados ou ajustar o modelo pode ajudar a mitigar alguns desses problemas, mas projetar prompts que funcionem em diversos cenários continua sendo um processo de tentativa e erro. Além disso, equilibrar os recursos gerais da inteligência artificial com objetivos específicos de tarefas pode ser complicado, especialmente no caso de tarefas especializadas ou específicas de um domínio.

Aplicações de técnicas de engenharia de prompts

As técnicas de engenharia de prompts têm uma ampla gama de aplicações em vários campos. No chatbot, eles ajudam a refinar as respostas geradas para melhorar as interações dos usuários em tempo real. Para desenvolvedores, os prompts podem ajudar na geração de trechos de código ou na criação de tutoriais passo a passo para conceitos de programação. Na educação, podem simplificar explicações ou resolver um problema de matemática com raciocínio detalhado. As empresas usam engenharia de prompts para tomada de decisão, ao gerar saídas de IA criteriosas e adaptadas a cenários específicos. Em grande escala, essas técnicas são empregadas na criação de conteúdo, suporte ao cliente e fluxos de trabalho automatizados, tornando os sistemas de IA mais eficientes e adaptáveis a tarefas diversas.

O futuro das técnicas de engenharia de prompts

O futuro das técnicas de engenharia de prompts está no avanço do processamento de linguagem natural para ajudar a garantir respostas mais precisas e relevantes em diversas aplicações. À medida que os modelos de IA evoluem, a capacidade de raciocínio deles é aprimorada, permitindo que lidem com tarefas mais complexas com o mínimo de prompts. Também podemos esperar o desenvolvimento de ferramentas e frameworks mais inteligentes para automatizar e otimizar a criação de prompts, tornando as interações com a IA mais intuitivas, eficientes e personalizadas para usuários em vários domínios.

Resumo

As técnicas de engenharia de prompts são essenciais para otimizar as interações com a IA e liberar todo o potencial dos grandes modelos de linguagem. Ao utilizar abordagens estruturadas como zero-shot, few-shot, cadeia de pensamentos e árvore de pensamentos, essas técnicas permitem que a IA lide com uma ampla gama de tarefas, desde chatbot até tomada de decisão e educação. Apesar dos desafios como alucinações e a criação de prompts eficazes, as aplicações da engenharia de prompts continuam a se expandir em todos os domínios, fornecendo saídas da IA mais inteligentes e personalizadas. À medida que os avanços no processamento de linguagem natural e nas habilidades de raciocínio progridem, o futuro da engenharia de prompts promete eficiência e adaptabilidade ainda maiores. Os leitores são incentivados a experimentar essas técnicas em diferentes modelos de IA para explorar seus recursos e refinar seus resultados.

Soluções relacionadas
IBM® watsonx.ai

Treine, valide, ajuste e implemente recursos de IA generativa, modelos de base e recursos de aprendizado de máquina com o IBM watsonx.ai, um estúdio empresarial de última geração para construtores de IA. Crie aplicações de IA em menos tempo com menos dados.

Explore o watsonx.ai
Soluções de inteligência artificial

Coloque a IA em ação na sua empresa com a experiência em IA líder do setor e com o portfólio de soluções da IBM.

Explore as soluções de IA
Consultoria e serviços em inteligência artificial (IA)

Os serviços de IA da IBM Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformação.

Explore os serviços de IA
Dê o próximo passo

Ao utilizar a IA, o IBM Concert revela insights cruciais sobre suas operações e fornece recomendações específicas para cada aplicação com foco em melhorias. Descubra como o Concert pode impulsionar sua empresa.

Explorar Concert Explore as soluções de automação de processos de negócios
Notas de rodapé

[1] Wei, J., Bosma, M., Zhao, V.Y., Guu, K., Yu, A.W., Lester, B., Du, N., Dai, A.M. e Le, Q.V., 2021. Finetuned language models are zero-shot learners. arXiv preprint arXiv:2109.01652.

[2] Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.A., Lacroix, T., Rozière, B., Goyal, N., Hambro, E., Azhar, F. e Rodriguez, A., 2023. Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971.

[3] Wei, J., Wang, X., Schuurmans, D., Bosma, M., Xia, F., Chi, E., Le, Q.V. e Zhou, D., 2022. Chain-of-thought prompting elicits reasoning in large language models. Advances in neural information processing systems, 35, pp.24824-24837.

[4] Zhang, Y., Yuan, Y. e Yao, A.C.C., 2023. Meta prompting for ai systems. arXiv preprint arXiv:2311.11482.

[5] Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A. e Zhou, D., 2022. Self-consistency improves chain of thought reasoning in language models. arXiv preprint arXiv:2203.11171.

[6] Liu, J., Liu, A., Lu, X., Welleck, S., West, P., Bras, R.L., Choi, Y. e Hajishirzi, H., 2021. Generated knowledge prompting for commonsense reasoning. arXiv preprint arXiv:2110.08387.

[7] Yao, S., Yu, D., Zhao, J., Shafran, I., Griffiths, T., Cao, Y. e Narasimhan, K., 2023. Tree of thoughts: Deliberate problem solving with large language models. Advances in neural information processing systems, 36, pp.11809-11822.

[8] Long, J., 2023. Large language model guided tree-of-thought. arXiv preprint arXiv:2305.08291.

[9] Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W.T., Rocktäschel, T. e Riedel, S., 2020. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in neural information processing systems, 33, pp.9459-9474.

[10] Paranjape, B., Lundberg, S., Singh, S., Hajishirzi, H., Zettlemoyer, L. e Ribeiro, M.T., 2023. Art: Automatic multi-step reasoning and tool-use for large language models. arXiv preprint arXiv:2303.09014.

[11] Diao, S., Wang, P., Lin, Y., Pan, R., Liu, X. e Zhang, T., 2023. Active prompting with chain-of-thought for large language models. arXiv preprint arXiv:2302.12246.

[12] Li, Z., Peng, B., He, P., Galley, M., Gao, J. e Yan, X., 2023. Guiding large language models via directional stimulus prompting. Advances in Neural Information Processing Systems, 36, pp.62630-62656

[13] Gao, L., Madaan, A., Zhou, S., Alon, U., Liu, P., Yang, Y., Callan, J. e Neubig, G., 2022. Pal: program-aided language models. arXiv. arXiv preprint arXiv:2211.10435.

[14] Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K. e Cao, Y., janeiro de 2023. React: Synergizing reasoning and acting in language models. Na International Conference on Learning Representations (ICLR).

[15] Shinn, N., Cassano, F., Gopinath, A., Narasimhan, K. e Yao, S., 2023. Reflexion: Language agents with verbal reinforcement learning. Advances in Neural Information Processing Systems, 36, pp.8634-8652.

[16] Zhang, Z., Zhang, A., Li, M., Zhao, H., Karypis, G. e Smola, A., 2023. Multimodal chain-of-thought reasoning in language models. arXiv preprint arXiv:2302.00923.

[17] Liu, Z., Yu, X., Fang, Y. e Zhang, X., abril de 2023. Graphprompt: Unifying pre-training and downstream tasks for graph neural networks. Em Proceedings of the ACM web conference 2023 (pp. 417-428).