Vamos entender a tarefa de análise de sentimento que fornece uma explicação clara dos mecanismos e benefícios do ajuste de prompts. Suponha que o objetivo seja adaptar um modelo de 175 bilhões de parâmetros para classificar avaliações de filmes como "positiva" ou "negativa". Uma abordagem de ajuste fino completo seria proibitivamente cara e lenta. Com o ajuste de prompts, o processo é o seguinte:
Comece com um modelo pré-treinado congelado: a espinha dorsal de 175 bilhões de permanece totalmente intocada, preservando seu vasto repositório de conhecimentos gerais aprendidos durante o pré-treinamento.5
Adicione prompts: um pequeno conjunto de vetores treináveis (por exemplo, 20 tokens) é anexado às embeddings de entrada de cada avaliação de filme. Esses vetores não são texto legível por humanos; são embeddings contínuas que existem no mesmo espaço de alta dimensão que o vocabulário do modelo (por exemplo, um espaço de 12.288 dimensões para um modelo dessa escala). Por meio da otimização, esses vetores aprendem a codificar um sinal contínuo específico da tarefa que orienta o comportamento do modelo.
Alimente a entrada: por exemplo,
[Prompts flexíveis] O filme foi absolutamente fantástico!
Neste exemplo, suponhamos que inicializemos 20 tokens de prompts flexíveis para uma tarefa de análise de sentimento. Após o treinamento, a entrada pode ter esta aparência internamente:
[<v1>, <v2>, <v3>, ... <v20>, The, movie, was, absolutely, fantastic, !]
Aqui, cada v1 é um vetor de prompt aprendido de alta dimensão. O objetivo do treinamento é encontrar os valores ideais para os vetores que orientam o modelo congelado a classificar corretamente o sentimento do texto subsequente.
Treine apenas os prompts flexíveis: o processo de treinamento é iniciado ao utilizar um conjunto de dados rotulado de avaliações de filmes. Por meio da retropropagação, o gradiente de erro é calculado, mas a etapa de otimização atualiza apenas os parâmetros das embeddings de prompts flexíveis. Essa abordagem envolve o ajuste de apenas alguns milhares de parâmetros, em vez dos 175 bilhões de pesos do modelo.5
Implemente com modularidade: após a conclusão do treinamento, o conjunto resultante de 20 vetores constitui toda a adaptação específica da tarefa. Para adaptar o mesmo modelo de base para uma tarefa diferente, como detecção de spam, basta treinar um novo conjunto de prompts em um conjunto de dados de spam e trocá-los no momento da inferência
Essa técnica oferece benefícios substanciais de eficiência. Em vez de armazenar uma cópia completa e separada do modelo para cada tarefa (um modelo com 175 bilhões de parâmetros pode exigir até 350 GB), é preciso armazenar os parâmetros de prompts específicos da tarefa, que podem ter apenas alguns kB de tamanho.1 Essa modularidade torna o ajuste de prompts uma solução prática e econômica para adaptação de modelos em grande escala.2