¿Qué es la traducción automática?

Autor

Jacob Murel Ph.D.

Senior Technical Content Creator

Joshua Noble

Data Scientist

Definición de traducción automática

La traducción automática es una tarea de procesamiento del lenguaje natural (PLN) para correlacionar texto entre idiomas. Los métodos de traducción van desde simples heurísticas hasta modelos de lenguaje de gran tamaño (LLM).

La investigación sobre machine learning a menudo aborda la traducción automática como un proceso estocástico.1 Desde sus inicios a mediados del siglo XX, los sistemas de traducción automática han pasado de simples algoritmos heurísticos a enfoques de deep learning impulsados por redes neuronales.

Traducción asistida por ordenador

La traducción automática es distinta de la traducción asistida por ordenador (TAO). Esta última se refiere al uso de software de traducción automática u otras herramientas de traducción digital para ayudar a los traductores humanos. Estas herramientas pueden ser un diccionario digital, un corrector gramatical o una herramienta de memoria de traducción, como una base de datos de pares de idiomas para palabras comunes. La diferencia clave entre la TAO y la traducción automática es que, en la primera, la tarea real de traducción la realizan humanos.

Traducción automatizada

La distinción entre traducción automática y automática es indefinida. Algunas fuentes utilizan la traducción automática y la traducción automática indistintamente, pero las distinguen de la traducción automatizada, mientras que otras distinguen la primera de las dos últimas. En general, estas distinciones tratan la traducción automática como cualquier metodología de traducción que incorpore herramientas de machine learning, específicamente inteligencia artificial, y por lo tanto incluye TAO.

La traducción automatizada, por el contrario, es una forma de traducción automática que automatiza los pasos de un flujo de trabajo de traducción, como la preedición del texto de origen o la posedición del texto de salida. Los sistemas de gestión de contenidos a menudo pueden incluir herramientas de gestión de traducciones para ayudar a automatizar las tareas de traducción comunes. Las fuentes que distinguen de esta manera alinean la traducción automatizada con TAO.

Las últimas tendencias en IA, presentadas por expertos

Obtenga conocimientos organizados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM.

¡Gracias! Está suscrito.

Su suscripción se enviará en inglés. Encontrará un enlace para darse de baja en cada boletín. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Problemas en la traducción

Las herramientas de traducción automática se enfrentan a muchos de los mismos problemas que la traducción humana. Los avances en la traducción automática implican métodos cada vez más sofisticados para abordarlos, por lo que resulta útil ofrecer una visión general de algunos de los problemas fundamentales para contextualizar.

Un problema fundamental es la ambigüedad de las palabras. Un ejemplo ilustrativo clásico es la frase El pollo está listo para comer. Aquí, pollo podría referirse al animal vivo o a su carne cocinada. Este es un ejemplo de cómo las palabras polisémicas y sinónimas afectan a la traducción. Otro ejemplo notable de tal ambigüedad son las expresiones idiomáticas. "Irse por las ramas", por ejemplo, no tiene nada que ver con los arbustos. Los pronombres también pueden permanecer ambiguos en muchas oraciones, especialmente cuando se tratan de forma aislada.2

Los cambios en las reglas lingüísticas, como la sintaxis y la gramática, entre diferentes idiomas también afectan a la traducción. Por ejemplo, los verbos alemanes a menudo pueden aparecer al final de la oración, mientras que en inglés aparecen frecuentemente en el medio, y por otra parte, el orden de las palabras es irrelevante en latín. Esto explica las diferencias en los métodos de traducción entre traductores profesionales. En algunos casos, la traducción lingüística se realiza palabra por palabra, mientras que otros enfoques pretenden captar el sentido y la importancia cultural del texto mediante traducciones sueltas.3

Los textos poéticos plantean un desafío único para crear traducciones precisas. La métrica, la rima y la aliteración son preocupaciones que afectan únicamente a la calidad de la traducción poética.4 La investigación de la traducción automática suele centrarse en el texto en prosa. Esta descripción general presenta algunas de las preocupaciones en el proceso de traducción humana que también existen en la tecnología de traducción automática.

Mixture of Experts | 12 de diciembre, episodio 85

Descifrar la IA: resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el bullicio de la IA para ofrecerle las últimas noticias y conocimientos al respecto.

Tipos de traducción automática

No existe un proceso único para todos los tipos de traducción automática. La forma en que un sistema traduce el texto depende del tipo de traducción automática. Aunque los investigadores examinan una amplia variedad de sistemas, los tres siguientes se encuentran entre los más populares

Traducción automática basada en reglas

Por su nombre, la traducción automática basada en reglas (RBMT) proporciona un conjunto de reglas que especifican cómo aprovechar la información lingüística almacenada para la traducción. Por ejemplo, esto puede implicar una lista de pares de idiomas a nivel de palabra y etiquetas de parte del discurso que ayudan al ordenador a combinar palabras en estructuras gramaticalmente coherentes. A continuación, el usuario puede crear un conjunto de reglas que indiquen al ordenador cómo las palabras y otros grupos textuales de un idioma se correlacionan con los de otro.5

La complejidad de los sistemas de RBMT depende del nivel de análisis lingüístico implementado. La bibliografía a menudo ilustra estos niveles de análisis lingüístico con un diagrama llamado triángulo de Vauquois:

diagrama de diferentes enfoques de la traducción automática

Este diagrama ilustra tres enfoques de RBMT:

  • Traducción directa. Este enfoque suele utilizar un diccionario predefinido para generar traducciones palabra por palabra del texto fuente. Después de este paso, una serie de reglas intentan reordenar el resultado en el orden de palabras del idioma de destino. Estas reglas no implican ningún análisis sintáctico de los textos de origen o de destino.

  • Transferencia. Este enfoque adopta un grado limitado de análisis sintáctico. Los métodos comunes de este tipo de análisis incluyen el etiquetado de partes del discurso, la desambiguación del sentido de las palabras y el análisis morfológico (como se utiliza en la lematización). A través de estos, el sistema puede utilizar el conocimiento lingüístico de los idiomas de origen y destino para generar traducciones más idiomáticas y menos literales que los enfoques directos.

  • Interlingua. Este enfoque utiliza una representación intermediaria formalizada y artificial entre los textos originales y los traducidos. Este intermediario es, en esencia, una versión aún más abstracta que la producida en los sistemas de transferencia mediante el análisis morfológico. El sistema codifica el texto de origen en esta lengua artificial abstracta que luego decodifica en el idioma de destino6.

Para adaptarse de manera eficaz a los casos del mundo real, los enfoques de RBMT requieren grandes diccionarios. Además, las lenguas naturales no siguen un conjunto de reglas inmutables: lo que está permitido en una cultura, época o dialecto no se aplica lingüísticamente a otra. Dada la naturaleza siempre creciente y voluble de las lenguas naturales, la RBMT no ofrece una solución integral a la traducción automática. Los métodos de traducción basados en estadísticas son un intento de adaptarse a la naturaleza siempre cambiante del lenguaje.

Traducción automática estadística

La traducción automática estadística (SMT) es un enfoque que crea modelos estadísticos a partir de datos de entrenamiento de pares de lenguas. Un conjunto de datos de entrenamiento SMT consiste en palabras o n-gramas en un idioma emparejados con palabras y n-gramas correspondientes en uno o más idiomas. A partir de estos datos, los enfoques SMT construyen dos modelos de machine learning que dividen el proceso de traducción en dos etapas.

El primer modelo es un modelo de traducción. Utiliza los datos de entrenamiento para aprender pares lingüísticos con distribuciones de probabilidad. Cuando se le proporciona un n-grama en la lengua de origen, el modelo emite n-gramas potenciales en la lengua de destino con valores de probabilidad. Estos valores indican la probabilidad, basada en lo que el modelo aprendió de los datos de entrenamiento, de que el n-grama de destino sea una traducción adecuada del n-grama de origen. Por ejemplo, un modelo de traducción latín-inglés podría producir este resultado para el trigrama fuente mihi canes placent:

tabla que compara la traducción del latín mihi canes placent

En este resultado hipotético, el modelo predice las posibles traducciones al inglés de la frase latina mihi canes placent. La inglesa I like dogs tiene el valor de probabilidad más alto, de 0,8. Esto significa que, basándose en lo que el modelo aprendió de los emparejamientos latín-inglés, es un 80 % probable que esta sea la mejor traducción al inglés.

El segundo modelo es un modelo monolingüe para la lengua de destino. Este modelo predice esencialmente la probabilidad de que los resultados de n-gramas del modelo de traducción aparezcan en la lengua de destino. Por ejemplo, tomemos el hipotético resultado I like dogs de nuestro modelo de traducción. El modelo monolingüe predice la probabilidad de que aparezcan dogs después de I like según los datos de entrenamiento proporcionados en lengua inglesa. De este modo, el modelo monolingüe puede considerarse como un enfoque estocástico de la posedición que pretende confirmar el sentido y la idoneidad de una traducción7.

Aunque la SMT mejora los métodos basados en reglas, tiene muchos problemas comunes a los modelos de machine learning. Por ejemplo, el ajuste excesivo o insuficiente datos de los entrenamiento. El primero puede obstaculizar especialmente la capacidad de un sistema SMT para abordar términos fuera de vocabulario, expresiones idiomáticas y diferentes órdenes de palabras. Los sistemas SMT preprocesan secuencias de texto en longitudes fijas de n palabras.

Traducción automática neuronal

La traducción de redes neuronales (NMT) proporciona una traducción más flexible que se adapta a entradas y resultados de longitudes variables. Al igual que los sistemas SMT, los enfoques NMT se pueden dividir en dos pasos generales. En primer lugar, un modelo lee el texto de entrada y lo contextualiza dentro de una estructura de datos que resume la entrada. Esta representación contextual suele ser un modelo vectorial (como en los modelos de bag of words), pero también puede adoptar otras formas, como los tensores. Una red neuronal recurrente o convolucional lee esta representación y genera una frase en la lengua de destino8. Más recientemente, los investigadores han recurrido a las arquitecturas de transformadores para la NMT. Un ejemplo clave es mBART, un transformador entrenado en datos multilingües para recuperar lagunas artificiales y luego afinado para la traducción9.

Los enfoques de NMT también han adoptado modelos de lenguaje de gran tamaño (LLM). En concreto, en lugar de afinar una red neuronal o un transformador para la traducción, los investigadores han explorado la posibilidad de impulsar modelos de lenguaje de gran tamaño generativos para la traducción. Uno de estos estudios examina los modelos GPT para la traducción automática. Los sistemas NMT consisten en la arquitectura de codificador-decodificador descrita anteriormente entrenada con grandes cantidades de datos multilingües. Los modelos GPT, por el contrario, consisten únicamente en configuraciones de decodificadores entrenadas principalmente con datos en inglés. Tras realizar pruebas en varios idiomas (incluidos inglés, francés, español, alemán, chino y ruso), el estudio sugiere que los enfoques híbridos de los modelos NMT y GPT producen traducciones de alta calidad y de última generación10.

Esto sugiere que los sistemas NMT, especialmente cuando se combinan con LLM y modelos generativos, son capaces de manejar mejor las expresiones idiomáticas y los términos fuera de vocabulario que los métodos SMT. Además, mientras que los SMT procesan n-gramas, los NMT procesan la oración fuente completa. Por lo tanto, maneja mejor características lingüísticas como la discontinuidad, que requieren abordar las oraciones como unidades. Sin embargo, la ambigüedad en los pronombres puede seguir siendo un problema para los NMT11.

Casos de uso

Los servicios de traducción automática están ampliamente disponibles, y un motor de traducción automática basado en neuronas es Watson Language Translator de IBM.

Un área clave en la que la traducción automática puede ayudar a superar las barreras lingüísticas es la traducción de voz a voz, potencialmente en tiempo real. Estudios recientes han explorado las aplicaciones conjuntas del reconocimiento automático del hablar y los NMT basados en transformadores para la traducción de voz a voz con resultados positivos12. Dado que los sistemas de traducción del habla requieren generalmente transcribir el habla y luego traducir el texto resultante. Un estudio reciente examina la concatenación de voz y texto durante el preprocesamiento para la traducción multimodal con resultados prometedores13.

Soluciones relacionadas
IBM watsonx Orchestrate

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate
Herramientas y API de procesamiento del lenguaje natural

Acelere el valor empresarial de la inteligencia artificial con una cartera potente y flexible de bibliotecas, servicios y aplicaciones.

Explore soluciones de PLN
Consultoría y servicios de IA

Reinvente las operaciones y flujos de trabajo críticos añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Explore los servicios de IA
Dé el siguiente paso

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate Explore soluciones de PLN
Notas a pie de página

1 Miles Osborne, “Statistical Machine Translation”. Encyclopedia of Machine Learning and Data Mining. Springer. 2017.

2 Philipp Koehn. Neural Machine Translation. Cambridge University Press. 2020.

3 Thierry Poibeau. Machine Translation. MIT Press. 2017.

4 Translating poetry essay

5 Dorothy Kenny. “Human and machine translation”. Machine translation for everyone: Empowering users in the age of artificial intelligence. Language Science Press. 2022.

6 Thierry Poibeau. Machine Translation. MIT Press. 2017.

7 Dorothy Kenny. “Human and machine translation”. Machine translation for everyone: Empowering users in the age of artificial intelligence. Language Science Press. 2022.

8 Ian Goodfellow, Yoshua Bengio y Aaron Courville. Deep Learning. MIT Press. 2016.

9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis y Luke Zettlemoyer. “Multilingual Denoising Pre-training for Neural Machine Translation”. Transactions of the Association for Computational Linguistics. Vol. 8. 2020. https://aclanthology.org/2020.tacl-1.47/ (enlace externo a ibm.com).

10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify y Hany Hassan Awadalla. “How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation”. https://arxiv.org/abs/2302.09210 (enlace externo a ibm.com).

11 Dorothy Kenny. “Human and machine translation”. Machine translation for everyone: Empowering users in the age of artificial intelligence. Language Science Press. 2022.

12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao y Tie-Yan Liu. “SimulSpeech: End-to-End Simultaneous Speech to Text Translation”. Actas de la 58ª reunión anual de la Association for Computational Linguistics. 2020. https://aclanthology.org/2020.acl-main.350/ (enlace es externo a ibm.com). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov y Christian Herold. “Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University”. Actas de la 17ª International Conference on Spoken Language Translation. 2020. https://aclanthology.org/2020.iwslt-1.3/ (enlace externo a ibm.com).

13 Linlin Zhang, Kai Fan, Boxing Chen y Luo Si. “A Simple Concatenation can Effectively Improve Speech Translation”. Actas de la 61ª reunión anual de la Association for Computational Linguistics. 2023. https://aclanthology.org/2023.acl-short.153/ (enlace externo a ibm.com).