L'utilità del tuning delle istruzioni, come quella della maggior parte delle tecniche di ottimizzazione, sta nel fatto che gli LLM preaddestrati non sono ottimizzati per le conversazioni o per seguire le istruzioni. In senso letterale, gli LLM non rispondono a un prompt: vi aggiungono solo del testo. Il tuning delle istruzioni contribuisce a rendere più utile il testo aggiunto.
Il processo di pre-addestramento per i modelli linguistici autoregressivi, modelli LLM utilizzati per generare testo, come Llama 2 di Meta, GPT di OpenAI, Gemini di Google o Granite di IBM, ottimizza questi modelli LLM semplicemente per prevedere le parole successive in una determinata sequenza fino al completamento.
I modelli LLM sono pre-addestrati utilizzando l'apprendimento auto-supervisionato su un enorme corpus di contenuto scritto. Nel pre-addestramento, ai modelli autoregressivi viene fornito l'inizio di un campione di testo e viene ripetutamente chiesto loro di prevedere la parola successiva nella sequenza fino alla fine del testo. Per ogni previsione, la parola successiva della frase campione originale fa da "verità fondamentale". Attraverso algoritmi di ottimizzazione come la discesa del gradiente che regolano in modo iterativo i parametri del modello, i diversi pesi e pregiudizi applicati alle operazioni matematiche che avvengono in ogni nodo di una rete neurale, in modo da avvicinare le previsioni del modello al testo originale, il modello "apprende" gli schemi linguistici nei suoi dati di addestramento (e, per estensione, la "conoscenza" trasmessa in quegli schemi linguistici).
Sebbene questo processo di preaddestramento conferisca un'impressionante capacità di generare testo linguisticamente coerente, non è necessario allineare le prestazioni del modello con le esigenze pratiche degli utenti umani. Senza una messa a punto, un modello base potrebbe rispondere a un prompt di "insegnami a cuocere il pane" con "in un forno domestico". È un modo grammaticalmente valido per completare la frase, ma non è allineato con l'obiettivo dell'utente.
Tuttavia, il preaddestramento di un LLM per scopi specifici (come seguire delle istruzioni) non è una procedura pratica. Il "grande" in "modelli linguistici di grandi dimensioni" si riferisce al fatto che questi modelli hanno spesso miliardi di parametri: l'addestramento di questi enormi modelli da zero comporta un'enorme quantità di energia, tempo, risorse computazionali e dati di addestramento. Al contrario, la messa a punto di un LLM già addestrato richiede molti meno dati e, soprattutto quando si utilizzano metodi di parameter efficient fine-tuning (PEFT) come il fine-tuning parziale o il low rank adaptation (LoRA), una frazione delle richieste computazionali.
Sebbene la messa a punto possa essere ottenuta attraverso quasi tutti i paradigmi di apprendimento automatico, tra cui l'apprendimento per rinforzo, l'apprendimento semi-supervisionato o l'apprendimento auto-supervisionato aggiuntivo, l'ottimizzazione delle istruzioni comporta l'apprendimento supervisionato su coppie etichettate (input, output). Quello che distingue l'ottimizzazione delle istruzioni da altre forme di messa a punto supervisionata (SFT) è che i campioni di input in un set di dati di istruzioni sono costituiti interamente da attività che assomigliano alle richieste che gli utenti potrebbero fare nei loro prompt; i risultati dimostrano risposte desiderabili a tali richieste. Regolando i pesi del modello per far sì che i risultati del modello LLM assomiglino agli esempi nel set di dati delle istruzioni, l'LLM "impara" a rispondere a una richiesta come "insegnami a cuocere il pane" aggiungendo un testo che contiene consigli effettivi su come cuocere il pane.
L'ottimizzazione delle istruzioni aiuta quindi a colmare il divario tra l'obiettivo fondamentale del modello, la previsione della parola successiva, e l'obiettivo dell'utente di far sì che il modello segua le istruzioni ed esegua attività specifiche. Questo rende il comportamento del modello più utile e prevedibile.