Was ist maschinelle Übersetzung?

Autor

Jacob Murel Ph.D.

Senior Technical Content Creator

Joshua Noble

Data Scientist

Definition der maschinellen Übersetzung

Maschinelle Übersetzung ist eine Aufgabe der natürlichen Sprachverarbeitung (Natural Language Processing, NLP), bei der Texte zwischen verschiedenen Sprachen übersetzt werden. Übersetzungsmethoden reichen von einfachen Heuristiken bis hin zu großen Sprachmodellen (Large Language Models, LLMs).

Die Forschung im Bereich des maschinellen Lernens betrachtet maschinelle Übersetzung häufig als stochastischen Prozess.1 Seit ihrer Entstehung Mitte des 20. Jahrhunderts haben sich maschinelle Übersetzungssysteme von einfachen heuristischen Algorithmen zu Deep-Learning-Ansätzen entwickelt, die auf neuronalen Netzen basieren.

Computergestützte Übersetzung

Die maschinelle Übersetzung unterscheidet sich von der computergestützten Übersetzung (Computer-Assisted Translation, CAT). Letztere bezieht sich auf den Einsatz von maschineller Übersetzungssoftware oder anderen digitalen Übersetzungstools zur Unterstützung menschlicher Übersetzer. Bei diesen Tools kann es sich um ein digitales Wörterbuch, eine Grammatikprüfung oder ein Translation-Memory-Tool handeln, z. B. eine Datenbank mit Sprachpaaren für gängige Wörter. Der Hauptunterschied zwischen CAT- und maschineller Übersetzung besteht darin, dass bei der ersteren die eigentliche Aufgabe der Übersetzung von Menschen übernommen wird.

Automatisierte Übersetzung

Der Unterschied zwischen maschineller und automatisierter Übersetzung ist nicht eindeutig. Einige Quellen verwenden maschinelle Übersetzung und automatische Übersetzung synonym, unterscheiden sie aber von der automatisierten Übersetzung, während andere die erste von den beiden letzteren unterscheiden. Im Allgemeinen wird unter maschineller Übersetzung jede Übersetzungsmethode verstanden, die maschinelle Lernwerkzeuge – insbesondere künstliche Intelligenz – einbezieht, also auch CAT.

Die automatisierte Übersetzung hingegen ist eine Form der maschinellen Übersetzung, die Schritte in einem Workflow automatisiert, wie z. B. die Vorbearbeitung des Quelltexts oder die Nachbearbeitung der Textausgabe. Content-Management-Systeme können häufig Übersetzungsmanagement-Tools enthalten, um gängige Übersetzungsaufgaben zu automatisieren. Quellen, die diese Methode unterscheiden, stimmen die automatisierte Übersetzung und CAT ab.

Die neuesten KI-Trends, präsentiert von Experten

Erhalten Sie kuratierte Einblicke in die wichtigsten – und faszinierendsten – KI-Neuheiten. Abonnieren Sie unseren wöchentlichen Think-Newsletter. Weitere Informationen in der IBM Datenschutzerklärung.

Vielen Dank! Sie haben ein Abonnement abgeschlossen.

Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.

Probleme bei der Übersetzung

Maschinelle Übersetzungstools sind mit vielen der gleichen Probleme konfrontiert wie menschliche Übersetzungen. Die Entwicklungen in der maschinellen Übersetzung beinhalten immer ausgefeiltere Methoden zur Lösung dieser Probleme. Ein Überblick über einige zentrale Probleme ist hilfreich, um den Kontext zu verstehen.

Ein Kernproblem ist die Mehrdeutigkeit von Wörtern. Ein klassisches Beispiel hierfür ist der Satz: Das Huhn ist bereit zum Verzehr. Hier könnte sich Huhn auf das lebende Tier oder sein gekochtes Fleisch beziehen. Dies ist ein Beispiel dafür, wie sich polyseme und synonyme Wörter auf die Übersetzung auswirken. Ein weiteres bemerkenswertes Beispiel für eine solche Mehrdeutigkeit sind idiomatische Ausdrücke. Der Ausdruck „um den heißen Brei herumreden“ hat beispielsweise nichts mit Brei zu tun. Pronomen können in vielen Sätzen mehrdeutig bleiben, insbesondere wenn sie isoliert betrachtet werden.2

Änderungen in den sprachlichen Regeln, wie Syntax und Grammatik, zwischen verschiedenen Sprachen wirken sich ebenfalls auf die Übersetzung aus. Beispielsweise können deutsche Verben häufig am Ende eines Satzes stehen, während sie im Englischen oft in der Mitte des Satzes erscheinen. Im Lateinischen hingegen ist die Wortstellung nicht von Bedeutung. Dies erklärt die Unterschiede in den Übersetzungsmethoden zwischen professionellen Übersetzern. In einigen Fällen erfolgt die Sprachübersetzung wortwörtlich, während andere Ansätze darauf abzielen, den Sinn und die kulturelle Bedeutung des Textes durch freie Übersetzungen wiederzugeben.3

Poetische Texte stellen eine besondere Herausforderung für das Erstellen präziser Übersetzungen dar. Metrum, Reim und Alliteration sind alles Aspekte, die sich auf einzigartige Weise auf die Qualität der poetischen Übersetzung auswirken.4 Maschinelle Übersetzungsforschung konzentriert sich in der Regel auf Prosatext. In diesem Überblick werden einige der Problemstellungen vorgestellt, die beim menschlichen Übersetzungsprozess auftreten und die es auch in der maschinellen Übersetzungstechnologie gibt.

Mixture of Experts | 12. Dezember, Folge 85

KI entschlüsseln: Wöchentlicher Nachrichtenüberblick

Schließen Sie sich unserer erstklassigen Expertenrunde aus Ingenieuren, Forschern, Produktführern und anderen an, die sich durch das KI-Rauschen kämpfen, um Ihnen die neuesten KI-Nachrichten und Erkenntnisse zu liefern.

Arten der maschinellen Übersetzung

Es gibt keinen einheitlichen Prozess für alle Arten der maschinellen Übersetzung. Wie ein System Text übersetzt, hängt von der Art der maschinellen Übersetzung ab. Während Forscher eine Vielzahl von Systemen untersuchen, gehören die folgenden drei zu den beliebtesten:

Regelbasierte maschinelle Übersetzung

Wie der Name schon sagt, bietet die regelbasierte maschinelle Übersetzung (RBMT) eine Reihe von Regeln, die festlegen, wie gespeicherte linguistische Informationen für die Übersetzung genutzt werden können. Dies kann beispielsweise eine Liste von Sprachpaaren auf Wortebene und Wortart-Tags umfassen, die dem Computer dabei helfen, Wörter zu grammatikalisch kohärenten Strukturen zu kombinieren. Der Benutzer kann dann eine Reihe von Regeln erstellen, die dem Computer mitteilen, wie Wörter und andere Textgruppen aus einer Sprache denen einer anderen Sprache zugeordnet werden.5

Die Komplexität von RBMT-Systemen hängt vom Grad der implementierten linguistischen Analyse ab. In der Literatur werden diese Ebenen der linguistischen Analyse häufig mit einem Diagramm veranschaulicht, das als Vauquois-Dreieck bezeichnet wird:

Diagramm verschiedener Ansätze für maschinelle Übersetzung

Dieses Diagramm veranschaulicht drei Ansätze für RBMT:

  • Direkte Übersetzung. Dieser Ansatz verwendet im Allgemeinen ein vordefiniertes Wörterbuch, um Wort-für-Wort-Übersetzungen des Quelltexts zu generieren. Nach diesem Schritt wird versucht, den Ausgangstext anhand einer Reihe von Regeln in die Wortstellung der Zielsprache umzuordnen. Diese Regeln beinhalten keine syntaktische Analyse der Quell- oder Zieltexte.

  • Transfer. Dieser Ansatz wendet einen begrenzten Grad an syntaktischer Analyse an. Zu den gängigen Methoden einer solchen Analyse gehören die Part-of-Speech-Tagging, die Wortbedeutungsdisambiguierung und die morphologische Analyse (wie sie bei der Lemmatisierung verwendet wird). Auf diese Weise kann das System linguistische Kenntnisse der Ausgangs- und Zielsprachen nutzen, um idiomatischere und weniger wörtliche Übersetzungen zu generieren als bei direkten Ansätzen.

  • Interlingua. Dieser Ansatz verwendet eine formalisierte und künstliche Zwischenrepräsentation zwischen dem Ausgangstext und dem übersetzten Text. Diese Zwischenrepräsentation ist im Wesentlichen eine noch abstraktere Version als die, die in Transfersystemen durch morphologische Analyse erzeugt wird. Das System kodiert den Quelltext in diese abstrakte künstliche Sprache, die es anschließend in die Zielsprache dekodiert.6

Um reale Fälle effektiv zu berücksichtigen, erfordern RBMT-Ansätze umfangreiche Wörterbücher. Darüber hinaus folgen natürliche Sprachen keinen unveränderlichen Regeln – was in einer Kultur, einer Zeitperiode oder einem Dialekt zulässig ist, gilt sprachlich nicht unbedingt auch für eine andere. Angesichts der stetig wachsenden und sich schnell verändernden Natur natürlicher Sprachen bietet RBMT keine umfassende Lösung für die maschinelle Übersetzung. Statistikbasierte Übersetzungsmethoden stellen einen Ansatz dar, um der sich ständig verändernden Natur der Sprache gerecht zu werden.

Statistische maschinelle Übersetzung

Statistische maschinelle Übersetzung (Statistical Machine Translation, SMT) ist ein Ansatz, bei dem aus Trainingsdaten von Sprachpaaren statistische Modelle erstellt werden. Ein SMT-Trainingsdatensatz besteht aus Wörtern oder N-Grammen in einer Sprache, die mit entsprechenden Wörtern und N-Grammen in einer oder mehreren Sprachen gepaart sind. Aus diesen Daten erstellen SMT-Ansätze zwei maschinelle Lernmodelle, die den Übersetzungsprozess in zwei Phasen unterteilen.

Das erste Modell ist ein Übersetzungsmodell. Es nutzt die Trainingsdaten, um Sprachpaare mit Wahrscheinlichkeitsverteilungen zu erlernen. Diese Werte geben die Wahrscheinlichkeit an, basierend auf den Erkenntnissen des Modells aus den Trainingsdaten, dass das Ziel-N-Gramm eine angemessene Übersetzung des Quell-N-Gramms darstellt. Diese Werte geben die Wahrscheinlichkeit an, basierend auf den Erkenntnissen des Modells aus den Trainingsdaten, dass das Ziel-N-Gramm eine angemessene Übersetzung des Quell-N-Gramms darstellt. Beispielsweise könnte ein Latein-Englisch-Übersetzungsmodell für das Quell-Tri-Gramm mihi canes placent folgende Ausgabe liefern:

Tabelle zum Vergleich der Übersetzung des lateinischen Ausdrucks „mihi canes placent“

In diesem hypothetischen Output prognostiziert das Modell mögliche englische Übersetzungen für den lateinischen Satz mihi canes placent. Das englische I like dogs hat den höchsten Wahrscheinlichkeitswert von 0,8. Dies bedeutet, dass das Modell auf der Grundlage der Erkenntnisse aus den Latein-Englisch-Paarungen mit einer Wahrscheinlichkeit von 80 % davon ausgeht, dass dies die beste englische Übersetzung ist.

Das zweite Modell ist ein einsprachiges Modell für die Zielsprache. Dieses Modell prognostiziert im Wesentlichen die Wahrscheinlichkeit, mit der die N-Gramm-Ausgaben des Übersetzungsmodells in der Zielsprache auftreten. Betrachten wir beispielsweise die hypothetische Ausgabe I like dogs aus unserem Übersetzungsmodell. Das einsprachige Modell prognostiziert die Wahrscheinlichkeit, dass dogs nach I like erscheint, basierend auf den bereitgestellten englischsprachigen Trainingsdaten. Auf diese Weise kann das einsprachige Modell als stochastischer Ansatz für das Post-Editing betrachtet werden, der darauf abzielt, den Sinn und die Angemessenheit einer Übersetzung zu bestätigen.7

SMT verbessert zwar regelbasierte Methoden, weist aber viele Probleme auf, die Modelle des maschinellen Lernens gemeinsam haben. Zum Beispiel Über- oder Unteranpassungen von Trainingsdaten. Besonders erstere können die Fähigkeit eines SMT-Systems beeinträchtigen, Begriffe außerhalb des Wortschatzes, idiomatische Ausdrücke und unterschiedliche Wortstellungen zu verarbeiten. SMT-Systeme sind für die Vorverarbeitung von Textsequenzen in festen Längen von n Wörtern ausgelegt.

Neuronale maschinelle Übersetzung

Die Übersetzung mittels neuronaler Netze (NMT) ermöglicht eine flexiblere Übersetzung, die Eingaben und Ausgaben variabler Länge berücksichtigt. Ähnlich wie SMT-Systeme können NMT-Ansätze in zwei allgemeine Schritte unterteilt werden. Zunächst liest ein Modell den Eingabetext und kontextualisiert ihn innerhalb einer Datenstruktur, die die Eingabe zusammenfasst. Diese kontextuelle Darstellung ist häufig ein Vektormodell – wie bei Bag-of-Words-Modellen –, kann jedoch auch andere Formen annehmen, beispielsweise Tensoren. Ein rekurrentes oder konvolutionales Neuronales Netz liest diese Darstellung und generiert einen Satz in der Zielsprache.8 In jüngerer Zeit haben sich Forscher den Transformer-Architekturen für NMT zugewandt. Ein wichtiges Beispiel hierfür ist mBART, ein Transformer, der auf mehrsprachigen Daten für die Wiederherstellung künstlicher Lücken trainiert und anschließend für die Übersetzung feinabgestimmt wurde.9

NMT-Ansätze haben auch große Sprachmodelle (LLMs) übernommen. Insbesondere haben Forscher, anstatt ein neuronales Netzwerk oder einen Transformer für die Übersetzung zu optimieren, die Verwendung generativer großer Sprachmodelle für die Übersetzung untersucht. Eine dieser Studien untersucht GPT-Modelle für die maschinelle Übersetzung. NMT-Systeme bestehen aus der zuvor beschriebenen Encoder-Decoder-Architektur, die anhand großer Mengen mehrsprachiger Daten trainiert wurde. Im Gegensatz dazu bestehen GPT-Modelle ausschließlich aus Decoder-Konfigurationen, die hauptsächlich mit englischen Daten trainiert wurden. Die Studie, die mehrere Sprachen umfasst – darunter Englisch, Französisch, Spanisch, Deutsch, Chinesisch und Russisch –, legt nahe, dass hybride Ansätze aus NMT- und GPT-Modellen hochwertige Übersetzungen auf dem neuesten Stand der Technik liefern.10

Dies deutet darauf hin, dass NMT-Systeme, insbesondere in Kombination mit LLMs und generativen Modellen, idiomatische Ausdrücke und Begriffe außerhalb des Vokabulars besser verarbeiten können als SMT-Methoden. Außerdem verarbeiten NMTs den gesamten Quellsatz, während SMTs n-Gramme verarbeiten. Daher behandelt es sprachliche Merkmale wie Diskontinuität, die eine Betrachtung von Sätzen als Einheiten erfordern, besser. Mehrdeutigkeiten in Pronomen können jedoch ein Problem für NMTs bleiben.11

Anwendungsfälle

Maschinelle Übersetzungsdienste sind weit verbreitet, und eine neuronale Engine für maschinelle Übersetzung ist der Watson Language Translator von IBM.

Ein wichtiger Bereich, in dem maschinelle Übersetzung helfen kann, Sprachbarrieren zu überwinden, ist die Sprache-zu-Sprache-Übersetzung, möglicherweise in Echtzeit. Jüngste Studien haben sich mit der gemeinsamen Anwendung von automatischer Spracherkennung und transformatorbasierten NMTs für die Sprach-zu-Sprach-Übersetzung befasst und positive Ergebnisse erzielt.12 Denn Sprachübersetzungssysteme erfordern in der Regel die Transkription von Sprache und die anschließende Übersetzung des resultierenden Textes. Eine aktuelle Studie untersucht die Verkettung von Sprache und Text während der Vorverarbeitung für multimodale Übersetzungen mit vielversprechenden Ergebnissen.13

Weitere Lösungen
IBM® watsonx™ Orchestrate®

Mit IBM® watsonx Orchestrate können Sie ganz einfach skalierbare KI-Assistenten und Agenten entwickeln, sich wiederholende Aufgaben automatisieren und komplexe Prozesse vereinfachen.

Entdecken Sie watsonx Orchestrate
Tools und APIs zur Verarbeitung natürlicher Sprache

Steigern Sie den Geschäftswert der künstlichen Intelligenz mit einem leistungsstarken und flexiblen Portfolio aus Bibliotheken, Diensten und Anwendungen.

NLP-Lösungen erkunden
KI-Beratung und -Services

Erfinden Sie kritische Workflows und Abläufe neu, indem Sie KI einsetzen, um Erfahrungen, Entscheidungsfindung in Echtzeit und den geschäftlichen Nutzen zu maximieren.

KI-Services entdecken
Machen Sie den nächsten Schritt

Mit IBM® watsonx Orchestrate können Sie ganz einfach skalierbare KI-Assistenten und Agenten entwickeln, sich wiederholende Aufgaben automatisieren und komplexe Prozesse vereinfachen.

Entdecken Sie watsonx Orchestrate NLP-Lösungen erkunden
Fußnoten

1 Miles Osborne, „Statistical Machine Translation“, Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

2 Philipp Koehn, Neural Machine Translation, Cambridge University Press, 2020.

3 Thierry Poibeau, Machine Translation, MIT Press, 2017.

4 Translating poetry essay

5 Dorothy Kenny, „Human and machine translation“, Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

6 Thierry Poibeau, Machine Translation, MIT Press, 2017.

7 Dorothy Kenny, „Human and machine translation“, Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

13 Ian Goodfellow, Yoshua Bengio und Aaron Courville, Deep Learning, MIT Press, 2016.

9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis und Luke Zettlemoyer, „Multilingual Denoising Pre-training for Neural Machine Translation“, Transactions of the Association for Computational Linguistics, Band 8, 2020, https://aclanthology.org/2020.tacl-1.47/ (Link befindet sich außerhalb von ibm.com).

10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify und Hany Hassan Awadalla, „How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation“, https://arxiv.org/abs/2302.09210 (Link befindet sich außerhalb von ibm.com).

11 Dorothy Kenny, „Human and machine translation“, Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, and Tie-Yan Liu, „SimulSpeech: End-to-End Simultaneous Speech to Text Translation“, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, https://aclanthology.org/2020.acl-main.350/ (Link befindet sich außerhalb von ibm.com). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov und Christian Herold, „Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University“, Proceedings of the 17th International Conference on Spoken Language Translation, 2020, https://aclanthology.org/2020.iwslt-1.3/ (Link befindet sich außerhalb von ibm.com).

13 Linlin Zhang, Kai Fan, Boxing Chen und Luo Si, „A Simple Concatenation can Effectively Improve Speech Translation“, Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, 2023, https://aclanthology.org/2023.acl-short.153/ (Link befindet sich außerhalb von ibm.com).