Lassen Sie uns die Aufgabe der Stimmungsanalyse verstehen, die eine klare Erklärung der Mechanismen und Vorteile des Prompt-Tunings liefert. Angenommen, das Ziel besteht darin, ein Modell mit 175 Milliarden Parametern anzupassen, um Film-Reviews als „positiv“ oder „negativ“ zu klassifizieren. Eine vollständige Feinabstimmung wäre unverhältnismäßig teuer und langsam. Beim Prompt-Tuning sieht der Prozess wie folgt aus:
Beginnen Sie mit einem eingefrorenen, vortrainierten Modell: Das 175B-Parameter-Backbone bleibt völlig unangetastet und bewahrt seinen umfangreichen Bestand an allgemeinem Wissen, das während des Vortrainings erlernt wurde.5
Soft Prompts hinzufügen: Ein kleiner Satz trainierbarer Vektoren (z. B. 20 virtuelle Token) wird an die Eingabeeinbettungen von jedem Film-Review angehängt. Diese Vektoren sind kein für Menschen lesbarer Text; sie sind kontinuierliche Einbettungen, die im selben hochdimensionalen Raum wie das Vokabular des Modells existieren (z. B. ein 12.288-dimensionaler Raum für ein Modell dieser Größenordnung). Durch Optimierung lernen diese Vektoren, ein kontinuierliches, aufgabenspezifisches Signal zu kodieren, das das Verhalten des Modells steuert.
Geben Sie die Eingabe ein: Zum Beispiel
[Soft Prompt] Der Film war absolut fantastisch!
In diesem Beispiel nehmen wir an, dass wir 20 Soft-Prompt-Token für eine Stimmungsanalyseaufgabe initialisieren. Nach dem Training könnte die Eingabe intern so aussehen:
[<v1>, <v2>, <v3>, ... <v20>, The, movie, was, absolutely, fantastic, !]
Hier ist jedes v1 ein erlernter, hochdimensionaler Prompt-Vektor. Das Ziel des Trainings ist es, die optimalen Werte für die Vektoren zu finden, die das eingefrorene Modell dazu bringen, die Stimmung des nachfolgenden Textes korrekt zu klassifizieren.
Nur die Soft Prompts trainieren: Durch die Verwendung eines gekennzeichneten Datensatzes von Film-Reviews wird der Trainingsprozess eingeleitet. Durch Backpropagation wird der Fehlergradient berechnet, aber der Optimierungsschritt aktualisiert nur die Parameter der weichen Prompt-Einbettungen. Bei diesem Ansatz werden nur wenige tausend Parameter anstelle der 175 Milliarden Gewichte des Modells abgestimmt.5
Mit Modularität bereitstellen: Sobald das Training abgeschlossen ist, stellt der resultierende Satz von 20 Vektoren die gesamte aufgabenspezifische Anpassung dar. Um dasselbe Basismodell für eine andere Aufgabe, z. B. die Spam-Erkennung, anzupassen, trainiert man einfach einen neuen Satz von Soft Prompts auf einen Spam-Datensatz und tauscht sie zur Inferenzzeit ein.
Diese Technik bietet erhebliche Effizienzvorteile. Anstatt für jede Aufgabe eine separate, vollständige Kopie des Modells zu speichern – ein 175B-Parametermodell kann bis zu 350 GB benötigen –, muss man die aufgabenspezifischen Prompt-Parameter speichern, die möglicherweise nur wenige KB groß sind.1 Diese Modularität macht Prompt-Tuning zu einer praktischen und kostengünstigen Lösung für groß angelegte Modellanpassungen.2