¿Qué es la traducción automática?

Autor

Jacob Murel Ph.D.

Senior Technical Content Creator

Joshua Noble

Data Scientist

Definición de traducción automática

La traducción automática es una tarea de procesamiento de lenguaje natural (PLN) para mapear texto entre idiomas. Los métodos de traducción van desde heurísticas simples hasta modelos de lenguaje de gran tamaño (LLM).

La investigación de machine learning a menudo aborda la traducción automática como un proceso estocástico.1 Desde sus inicios a mediados del siglo XX, los sistemas de traducción automática han progresado desde simples algoritmos heurísticos hasta enfoques de aprendizaje profundo impulsados por neural networks.

Traducción asistida por computadora

La traducción automática es distinta de la traducción asistida por computadora (CAT). Este último se refiere al uso de software de traducción automática u otras herramientas de traducción digital para ayudar a los traductores humanos. Dichas herramientas pueden ser un diccionario digital, un corrector gramatical o una herramienta de memoria de traducción, como una base de datos de pares de idiomas para palabras comunes. La diferencia clave entre CAT y la traducción automática es que, en la primera, la tarea real de traducción la realizan los humanos.

Traducción automática

La distinción entre traducción automática y traducción automática es indefinida. Algunas fuentes utilizan la traducción automática y la traducción automática indistintamente, pero las distinguen de la traducción automática, mientras que otras distinguen la primera de las dos últimas. En general, estas distinciones consideran que la traducción automática abarca cualquier metodología de traducción que incorpore herramientas de machine learning y, porlo tanto, incluye CAT.

La traducción automática, por el contrario, es una forma de traducción automática que automatiza los pasos de un flujo de trabajo de traducción, como la preedición del texto de origen o la posedición del texto de salida. Los sistemas de gestión de contenido a menudo pueden incluir herramientas de gestión de traducción para ayudar a automatizar las tareas de traducción comunes. Las fuentes que distinguen de esta manera alinean la traducción automatizada junto con CAT.

Las últimas tendencias de IA presentadas por expertos

Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .

¡Gracias! Ya está suscrito.

Su suscripción se entregará en inglés. En cada boletín, encontrará un enlace para darse de baja. Puede gestionar sus suscripciones o darse de baja aquí. Consulte nuestra Declaración de privacidad de IBM para obtener más información.

Problemas en la traducción

Las herramientas de traducción automática enfrentan muchos de los mismos problemas que la traducción humana. Los avances en la traducción automática implican métodos cada vez más sofisticados para abordar estos problemas; una descripción general de algunos problemas centrales es útil para el contexto.

Un problema central es la ambigüedad de las palabras. Un ejemplo ilustrativo clásico es la oración, El pollo está listo para comer. Aquí, elpollo podría referirse al animal vivo o a su carne cocida. Este es un ejemplo de cómo las palabras polisémicas y sinónimas afectan la traducción. Otro ejemplo notable de tal ambigüedad son las expresiones idiomáticas. "Andarse con rodeos", por ejemplo, no tiene nada que ver con arbustos. Los pronombres también pueden permanecer ambiguos en muchas oraciones, particularmente cuando se tratan de forma aislada.2

Los cambios en las reglas lingüísticas, como la sintaxis y la gramática, entre diferentes idiomas también afectan la traducción. Por ejemplo, los verbos alemanes a menudo pueden aparecer al final de la oración, mientras que a menudo aparecen en el medio en inglés, mientras que el orden de las palabras es irrelevante en latín. Esto explica las diferencias en los métodos de traducción entre traductores profesionales. En algunos casos, la traducción de idiomas es palabra por palabra, mientras que otros enfoques tienen como objetivo capturar el sentido y la importancia cultural del texto a través de traducciones sueltas.3

Los textos poéticos plantean un desafío único para crear traducciones precisas. La métrica, la rima y la aliteración son preocupaciones que afectan de manera única a la calidad de la traducción poética.4 La investigación de la traducción automática suele centrarse en el texto en prosa. Esta descripción general presenta algunas de las preocupaciones en el proceso de traducción humana que también existen en la tecnología de traducción automática.

Mixture of Experts | 12 de diciembre, episodio 85

Decodificación de la IA: Resumen semanal de noticias

Únase a nuestro panel de ingenieros, investigadores, responsables de producto y otros profesionales de talla mundial que se abren paso entre el revuelo de la IA para ofrecerle las últimas noticias e insights al respecto.

Tipos de traducción automática

No existe un proceso único para todos los tipos de traducción automática. La forma en que un sistema traduce el texto depende del tipo de traducción automática. Si bien los investigadores examinan una amplia variedad de sistemas, los siguientes tres se encuentran entre los más populares

Traducción automática basada en reglas

Por su nombre, la traducción automática basada en reglas (RBMT) proporciona un conjunto de reglas que especifican cómo aprovechar la información lingüística almacenada para la traducción. Por ejemplo, esto puede implicar una lista de pares de idiomas a nivel de palabra y etiquetas de parte del discurso que ayudan a la computadora a combinar palabras en estructuras gramaticalmente coherentes. Luego, el usuario puede crear un conjunto de reglas que indiquen a la computadora cómo las palabras y otros grupos textuales de un idioma se asignan a los de otro.5

La complejidad de los sistemas RBMT depende del nivel de análisis lingüístico implementado. La literatura a menudo ilustra estos niveles de análisis lingüístico con un diagrama llamado triángulo de Vauquois:

diagrama de diferentes enfoques de la traducción automática

Este diagrama ilustra tres enfoques de RBMT:

  • Traducción directa. Este enfoque generalmente utiliza un diccionario predefinido para generar traducciones palabra por palabra del texto fuente. Después de este paso, una serie de reglas intentan reordenar el texto de salida en el orden de las palabras del idioma de destino. Estas reglas no implican ningún análisis sintáctico de los textos de origen o de destino.

  • Transferencia. Este enfoque adopta un grado limitado de análisis sintáctico. Los métodos comunes de dicho análisis incluyen el etiquetado de partes del discurso, la desambiguación del sentido de las palabras y el análisis morfológico (como se usa en la lematización). A través de estos, el sistema puede utilizar el conocimiento lingüístico de los idiomas de origen y de destino para generar traducciones más idiomáticas y menos literales que los enfoques directos.

  • Interlingua. Este enfoque utiliza una representación intermediaria formalizada y artificial entre el texto original y el traducido. Este intermediario es, esencialmente, una versión aún más abstracta que la producida en los sistemas de transferencia a través del análisis morfológico. El sistema codifica el texto de origen en este lenguaje artificial abstracto que luego decodifica en el idioma de destino.6

Para adaptarse de manera efectiva a los casos del mundo real, los enfoques de RBMT requieren diccionarios grandes. Además, los lenguajes naturales no siguen un conjunto inmutable de reglas: uno está permitido en una cultura, período de tiempo o dialecto no se aplica lingüísticamente a otro. Dada la naturaleza cada vez mayor y cambiante de los lenguajes naturales, la RBMT no ofrece una solución integral para la traducción automática. Los métodos de traducción basados en estadísticas son un intento de adaptarse a la naturaleza siempre cambiante del lenguaje.

Traducción automática estadística

La traducción automática estadística (SMT) es un enfoque que crea modelos estadísticos a partir de datos de entrenamiento de pares de idiomas. Un conjunto de datos de entrenamiento SMT consta de palabras o n-gramas en un idioma emparejados con palabras y n-gramas correspondientes en uno o más idiomas. A partir de estos datos, los enfoques de SMT construyen dos modelos de machine learning que dividen el proceso de traducción en dos etapas.

El primer modelo es un modelo de traducción. Utiliza los datos de entrenamiento para aprender pares lingüísticos con distribuciones de probabilidad. Cuando se proporciona un n-grama en el idioma de origen, el modelo da resultados posibles n-gramas en el idioma de destino con valores de probabilidad. Estos valores indican la probabilidad, en función de lo que el modelo aprendió de los datos de entrenamiento, de que el n-grama de destino sea una traducción adecuada del n-grama de origen. Por ejemplo, un modelo de traducción latín-inglés podría producir este resultado para el trigrama fuente mihi canes placent:

tabla que compara la traducción del latín mihi canes placent

En este resultado hipotético, el modelo predice posibles traducciones al inglés de la frase latina mihi canes placent. El inglés I like dogs tiene el valor de probabilidad más alto de .8. Esto significa que, según lo que el modelo aprendió de los emparejamientos latín-inglés, es 80 % probable que esta sea la mejor traducción al inglés.

El segundo modelo es un modelo monolingüe para el idioma de destino. Este modelo predice esencialmente la probabilidad de que los resultados de n-gramas del modelo de traducción aparezcan en el idioma de destino. Por ejemplo, tomemos el resultado hipotético Me gustan los perros de nuestro modelo de traducción. El modelo monolingüe predice la probabilidad de que los perros aparezcan después de Me gusta de acuerdo con los datos de entrenamiento proporcionados en inglés. De esta manera, el modelo monolingüe puede considerarse como un enfoque estocástico de la posedición que tiene como objetivo confirmar el sentido y la idoneidad de una traducción.7

Si bien SMT mejora los métodos basados en reglas, tiene muchos problemas comunes a los modelos de machine learning. Por ejemplo, sobreajuste o subajuste de datos de entrenamiento. Lo primero puede obstaculizar particularmente la capacidad de un sistema SMT para dirigirse a términos fuera de vocabulario, expresiones idiomáticas y diferentes órdenes de palabras. Los sistemas SMT preprocesan secuencias de texto en longitudes fijas de n palabras.

Traducción automática neuronal

La traducción de Neural networks (NMT) proporciona una traducción más flexible que se adapta a entradas y resultados de longitudes variables. Al igual que los sistemas SMT, los enfoques de NMT se pueden dividir en dos pasos generales. Primero, un modelo lee el texto de entrada y lo contextualiza dentro de una estructura de datos que resume la entrada. Esta representación contextual suele ser un modelo vectorial, como en los modelos de bag of words, pero también puede adoptar otras formas, como tensores. Una Neural Networks recurrente o convolucional lee esta representación y genera una oración en el idioma de destino.8 Más recientemente, los investigadores han recurrido a las arquitecturas transformadoras para NMT. Un ejemplo clave es mBART, un transformador entrenado con datos multilingües para recuperar lagunas artificiales que luego se ajustan para la traducción.9

Los enfoques de NMT también han adoptado modelos de lenguaje grandes (LLM). Específicamente, en lugar de ajustar una Neural Networks o un transformador para la traducción, los investigadores han explorado la posibilidad de generar modelos de lenguaje generativos de gran tamaño para la traducción. Uno de estos estudios examina los modelos GPT para la traducción automática. Los sistemas NMT consisten en la arquitectura de codificador-decodificador descrita anteriormente entrenada en grandes cantidades de datos multilingües. Los modelos GPT, por el contrario, consisten solo en configuraciones de decodificador entrenadas principalmente con datos en inglés. Al realizar pruebas en varios idiomas, incluidos inglés, francés, español, alemán, chino y ruso, el estudio sugiere que los enfoques híbridos de los modelos NMT y GPT producen traducciones de alta calidad y de vanguardia.10

Esto sugiere que los sistemas NMT, particularmente cuando se combinan con LLM y modelos generativos, pueden manejar mejor las expresiones idiomáticas y los términos fuera del vocabulario que los métodos SMT. Además, mientras que las SMT procesan n-gramas, las NMT procesan la oración fuente completa. Por lo tanto, maneja mejor las características lingüísticas, como la discontinuidad, que requieren abordar las oraciones como unidades. Sin embargo, la ambigüedad en los pronombres puede seguir siendo un problema para los NMT.11

Casos de uso

Los servicios de traducción automática están ampliamente disponibles, y un motor de traducción automática basado en neuronas es Watson Language Translator de IBM.

Un área clave en la que la traducción automática puede ayudar a superar las barreras del idioma es la traducción de voz a voz, potencialmente en tiempo real. Estudios recientes han explorado aplicaciones conjuntas de reconocimiento automático de voz y NMT basadas en transformadores para la traducción de voz a voz con resultados positivos.12 Porque los sistemas de traducción de voz generalmente requieren transcribir el habla y luego traducir el texto resultante. Un estudio reciente examina la concatenación de voz y texto durante el preprocesamiento para la traducción multimodal con resultados prometedores.13

Soluciones relacionadas
IBM watsonx Orchestrate

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate
Herramientas y API de procesamiento de lenguaje natural

Acelere el valor de negocio de la inteligencia artificial con una cartera potente y flexible de bibliotecas, servicios y aplicaciones.

Explorar las soluciones de PLN
Consultoría y servicios de IA

Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.

Conozca los servicios de IA
Dé el siguiente paso

Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.

Descubra watsonx Orchestrate Explorar las soluciones de PLN
Notas de pie de página

1 Miles Osborne, “Statistical Machine Translation,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

2 Philipp Koehn, Neural Machine Translation, Cambridge University Press, 2020.

3 Thierry Poibeau, Traducción automática, MIT Press, 2017.

4 Traducir ensayo de poesía

5 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

6 Thierry Poibeau, Traducción automática, MIT Press, 2017.

7 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

<a id=" ">13 Ian Goodfellow, Yoshua Bengio y Aaron Courville, Deep Learning, MIT Press, 2016.

9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer, “Multilingual Denoising Pre-training for Neural Machine Translation,” Transactions of the Association for Computational Linguistics, vol. 8, 2020, https://aclanthology.org/2020.tacl-1.47/ (enlace externo a ibm.com).

10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify y Hany Hassan Awadalla, “How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation,” https://arxiv.org/abs/2302.09210 (enlace externo a ibm.com).

11 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, and Tie-Yan Liu, “SimulSpeech: End-to-End Simultaneous Speech to Text Translation,” Actas de la 58.ª reunión anual de la Association for Computational Linguistics, 2020, https://aclanthology.org/2020.acl-main.350/ (enlace externo a ibm.com). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov y Christian Herold, “Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University,” Actas del 17. Conferencia internacional sobre traducción de idiomas hablados, 2020, https://aclanthology.org/2020.iwslt-1.3/ (enlace externo a ibm.com).

13 Linlin Zhang, Kai Fan, Boxing Chen, and Luo Si, “A Simple Concatenation puede mejorar eficazmente la traducción del habla”, Actas de la 61.ª reunión anual de la Association for Computational Linguistics, 2023, https://aclanthology.org/2023. acl-short.153/ (enlace externo a ibm.com).