Unabhängige Einbettungsmodelle können vorab trainiert sein oder von Grund auf für bestimmte Aufgaben oder Trainingsdaten trainiert werden. Jede Datenform zieht in der Regel einen Vorteil aus einer bestimmten neuronalen Netzarchitektur, bei der Verwendung eines bestimmten Algorithmus für eine bestimmte Aufgabe handelt es sich aber meist eher um eine Best Practice als um eine explizite Regel.
Manchmal ist der Einbettungsprozess ein integrierter Bestandteil eines größeren neuronalen Netzwerks. Zum Beispiel werden in Encoder-Decoder konvolutionalen neuronalen Netzen (CNNs), die für Aufgaben wie die Bildsegmentierung verwendet werden, durch die Optimierung des gesamten Netzwerks für genaue Vorhersagen die Encoder-Schichten darauf trainiert, effektive Vektoreinbettungen von Eingabebildern auszugeben.
Vortrainierte Modelle
Für viele Anwendungsfälle und Studienbereiche können vortrainierte Modelle nützliche Einbettungen bereitstellen, die als Input für benutzerdefinierte Modelle oder Vektordatenbanken dienen können. Solche Open-Source-Modelle werden in der Regel mit einer großen und breiten Palette von Trainingsdaten trainiert, um Einbettungen zu erlernen, die für viele nachgelagerte Aufgaben wie Few-Shot Learning oder Zero-Shot Learning nützlich sind.
Für Textdaten können grundlegende Open-Source-Modelle zur Worteinbettung wie Google Word2Vec oder Global Vectors (GloVe) der Stanford University von Grund auf neu trainiert werden, werden aber auch in Varianten angeboten, die auf öffentlichen Textdaten wie Wikipedia und Common Crawl vortrainiert sind. Ebenso werden große Sprachmodelle (LLMs) für Encoder-Decoder, die häufig für Einbettungen verwendet werden, wie BERT und seine zahlreichen Varianten, auf einer riesigen Menge an Textdaten vorab trainiert.
Für Aufgaben im Bereich Computer Vision können vorab trainierte Bildklassifizierungsmodelle wie ImageNet, ResNet oder VGG an die Ausgabe von Einbettungen angepasst werden, indem einfach ihre letzte, vollständig verbundene Vorhersageschicht entfernt wird.
Benutzerdefinierte Einbettungsmodelle
Einige Anwendungsfälle, insbesondere solche, die komplexe Konzepte oder neuartige Datenklassen beinhalten, profitieren von der Feinabstimmung vorab trainierter Modelle oder dem Training vollständig benutzerdefinierter Einbettungsmodelle.
Die Bereiche Recht und Medizin sind prominente Beispiele für Fachgebiete, die sich oft auf komplexe und hochspezialisiertes Vokabular, Wissensdatenbanken oder Bildmaterial stützen, das wahrscheinlich nicht in den Trainingsdaten von allgemeineren Modellen enthalten ist. Die Ergänzung des Basiswissens vortrainierter Modelle durch weiteres Training an domänenspezifischen Beispielen kann dazu beitragen, dass das Modell effektivere Einbettungen generiert.
Dies kann zwar auch durch die Entwicklung einer maßgeschneiderten neuronalen Netzwerkarchitektur oder das Training einer bekannten Architektur von Grund auf erreicht werden, erfordert jedoch Ressourcen und institutionelles Wissen, die für die meisten Unternehmen oder Hobbyanwender möglicherweise unerreichbar sind.