A utilidade do ajuste de instrução, como a da maioria das técnicas de ajuste fino, reside no fato de que os LLMs pré-treinados não são otimizados para conversas ou seguimento de instruções. No sentido literal, os LLMs não respondem a um prompt: eles apenas adicionam texto a ele. O ajuste de instrução ajuda a tornar esse texto adicionado mais útil.
O processo de pré-treinamento para modelos de linguagem autorregressivos, LLMs usados para gerar texto, como o Llama 2 da Meta, o GPT da OpenAI, o Gemini do Google ou o Granite da IBM, otimiza esses LLMs para simplesmente prever a(s) próxima(s) palavra(s) em uma determinada sequência até que ela esteja completa.
Os LLMs são pré-treinados usando aprendizado autossupervisionado em um grande corpus de conteúdo escrito. No pré-treinamento, modelos autorregressivos recebem o início de uma amostra de texto e são repetidamente encarregados de prever a próxima palavra na sequência até o final do trecho. Para cada previsão, a próxima palavra real da frase de amostra original serve como "verdade absoluta". Através de algoritmos de otimização como gradiente descendente, que ajustam iterativamente os parâmetros do modelo, os pesos e vieses variáveis aplicados às operações matemáticas que ocorrem em cada nó de uma rede neural, de uma maneira que aproxima as previsões do modelo do texto original, o modelo "aprende" os padrões linguísticos em seus dados de treinamento (e, por extensão, o "conhecimento" transmitido nesses padrões linguísticos).
Embora esse processo de pré-treinamento proporcione uma habilidade impressionante de gerar texto linguisticamente coerente, ele não necessariamente alinha o desempenho do modelo com as necessidades práticas dos usuários humanos. Sem ajuste fino, um modelo de base pode responder a uma solicitação de "me ensine a fazer pão" com "em um forno de casa". Isso é uma forma gramaticalmente correta de completar a frase, mas não é o que o usuário queria.
No entanto, pré-treinar um LLM para qualquer propósito específico (como seguir instruções) é impraticável. O "grande" em "grandes modelos de linguagem" refere-se ao fato de que esses modelos frequentemente possuem bilhões de parâmetros: treinar esses enormes modelos do zero exige uma quantidade tremenda de energia, tempo, recursos computacionais e dados de treinamento. Por outro lado, o ajuste fino de um LLM já treinado requer muito menos dados e, especialmente ao usar métodos de ajuste fino com eficiência de parâmetros (PEFT), como ajuste fino parcial ou adaptação de baixa classificação (LoRA), apenas uma fração das demandas computacionais.
Embora o ajuste fino possa ser realizado através de praticamente qualquer paradigma de aprendizado de máquina, incluindo aprendizado por reforço, aprendizado semissupervisionado ou aprendizado autossupervisionado adicional, o ajuste de instrução envolve aprendizado supervisionado em pares rotulados (input, output). O que distingue o ajuste de instrução de outras formas de ajuste fino supervisionado (SFT) é que as amostras de input em um conjunto de dados de instrução consistem inteiramente em tarefas que se assemelham a solicitações que os usuários podem fazer em seus prompts; os outputs demonstram respostas desejáveis a essas solicitações. Ao ajustar os pesos do modelo para fazer com que os outputs do LLM se assemelhem aos exemplos no conjunto de dados de instrução, o LLM "aprende" a responder a um prompt como "me ensine a fazer pão " anexando texto que contém conselhos reais sobre como fazer pão.
Assim, o ajuste de instruções ajuda a preencher a lacuna entre o objetivo fundamental do modelo (a previsão da próxima palavra) e o objetivo do usuário de fazer com que o modelo siga instruções e execute tarefas específicas. Isso torna o comportamento do modelo mais útil e previsível.