Herkömmliche Methoden zur vollständigen Feinabstimmung beinhalten geringfügige Anpassungen aller Parameter in vortrainierten LLMs, um sie auf bestimmte Aufgaben abzustimmen. Da die Entwicklungen im Bereich der künstlichen Intelligenz (KI) und des Deep Learning jedoch zu größeren und komplexeren Modellen geführt haben, ist der Prozess der Feinabstimmung in Bezug auf Rechenressourcen und Energie zu anspruchsvoll geworden.
Außerdem hat jedes feinabgestimmte Modell die gleiche Größe wie das Original. All diese Modelle nehmen erhebliche Mengen an Speicherplatz in Anspruch, was die Kosten für die Unternehmen, die sie nutzen, weiter in die Höhe treibt. Während Feinabstimmung effizienteres maschinelles Lernen (ML) ermöglicht, ist der Prozess der Feinabstimmung von LLMs selbst ineffizient geworden.
PEFT passt die wenigen Parameter an, die für den beabsichtigten Anwendungsfall des Modells am relevantesten sind, um eine spezielle Modellleistung zu erzielen und gleichzeitig die Modellgewichtungen zu reduzieren, was zu erheblichen Rechenkosten- und Zeiteinsparungen führt.