Die Übersetzung mittels neuronaler Netze (NMT) ermöglicht eine flexiblere Übersetzung, die Eingaben und Ausgaben variabler Länge berücksichtigt. Ähnlich wie SMT-Systeme können NMT-Ansätze in zwei allgemeine Schritte unterteilt werden. Zunächst liest ein Modell den Eingabetext und kontextualisiert ihn innerhalb einer Datenstruktur, die die Eingabe zusammenfasst. Diese kontextuelle Darstellung ist häufig ein Vektormodell – wie bei Bag-of-Words-Modellen –, kann jedoch auch andere Formen annehmen, beispielsweise Tensoren. Ein rekurrentes oder konvolutionales Neuronales Netz liest diese Darstellung und generiert einen Satz in der Zielsprache.8 In jüngerer Zeit haben sich Forscher den Transformer-Architekturen für NMT zugewandt. Ein wichtiges Beispiel hierfür ist mBART, ein Transformer, der auf mehrsprachigen Daten für die Wiederherstellung künstlicher Lücken trainiert und anschließend für die Übersetzung feinabgestimmt wurde.9
NMT-Ansätze haben auch große Sprachmodelle (LLMs) übernommen. Insbesondere haben Forscher, anstatt ein neuronales Netzwerk oder einen Transformer für die Übersetzung zu optimieren, die Verwendung generativer großer Sprachmodelle für die Übersetzung untersucht. Eine dieser Studien untersucht GPT-Modelle für die maschinelle Übersetzung. NMT-Systeme bestehen aus der zuvor beschriebenen Encoder-Decoder-Architektur, die anhand großer Mengen mehrsprachiger Daten trainiert wurde. Im Gegensatz dazu bestehen GPT-Modelle ausschließlich aus Decoder-Konfigurationen, die hauptsächlich mit englischen Daten trainiert wurden. Die Studie, die mehrere Sprachen umfasst – darunter Englisch, Französisch, Spanisch, Deutsch, Chinesisch und Russisch –, legt nahe, dass hybride Ansätze aus NMT- und GPT-Modellen hochwertige Übersetzungen auf dem neuesten Stand der Technik liefern.10
Dies deutet darauf hin, dass NMT-Systeme, insbesondere in Kombination mit LLMs und generativen Modellen, idiomatische Ausdrücke und Begriffe außerhalb des Vokabulars besser verarbeiten können als SMT-Methoden. Außerdem verarbeiten NMTs den gesamten Quellsatz, während SMTs n-Gramme verarbeiten. Daher behandelt es sprachliche Merkmale wie Diskontinuität, die eine Betrachtung von Sätzen als Einheiten erfordern, besser. Mehrdeutigkeiten in Pronomen können jedoch ein Problem für NMTs bleiben.11