Las últimas tendencias de IA presentadas por expertos
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
La traducción automática es una tarea de procesamiento de lenguaje natural (PLN) para mapear texto entre idiomas. Los métodos de traducción van desde heurísticas simples hasta modelos de lenguaje de gran tamaño (LLM).
La investigación de machine learning a menudo aborda la traducción automática como un proceso estocástico.1 Desde sus inicios a mediados del siglo XX, los sistemas de traducción automática han progresado desde simples algoritmos heurísticos hasta enfoques de aprendizaje profundo impulsados por neural networks.
La traducción automática es distinta de la traducción asistida por computadora (CAT). Este último se refiere al uso de software de traducción automática u otras herramientas de traducción digital para ayudar a los traductores humanos. Dichas herramientas pueden ser un diccionario digital, un corrector gramatical o una herramienta de memoria de traducción, como una base de datos de pares de idiomas para palabras comunes. La diferencia clave entre CAT y la traducción automática es que, en la primera, la tarea real de traducción la realizan los humanos.
La distinción entre traducción automática y traducción automática es indefinida. Algunas fuentes utilizan la traducción automática y la traducción automática indistintamente, pero las distinguen de la traducción automática, mientras que otras distinguen la primera de las dos últimas. En general, estas distinciones consideran que la traducción automática abarca cualquier metodología de traducción que incorpore herramientas de machine learning y, porlo tanto, incluye CAT.
La traducción automática, por el contrario, es una forma de traducción automática que automatiza los pasos de un flujo de trabajo de traducción, como la preedición del texto de origen o la posedición del texto de salida. Los sistemas de gestión de contenido a menudo pueden incluir herramientas de gestión de traducción para ayudar a automatizar las tareas de traducción comunes. Las fuentes que distinguen de esta manera alinean la traducción automatizada junto con CAT.
Obtenga insights curados sobre las noticias más importantes e intrigantes de la IA. Suscríbase a nuestro boletín semanal Think. Consulte la Declaración de privacidad de IBM .
Las herramientas de traducción automática enfrentan muchos de los mismos problemas que la traducción humana. Los avances en la traducción automática implican métodos cada vez más sofisticados para abordar estos problemas; una descripción general de algunos problemas centrales es útil para el contexto.
Un problema central es la ambigüedad de las palabras. Un ejemplo ilustrativo clásico es la oración, El pollo está listo para comer. Aquí, elpollo podría referirse al animal vivo o a su carne cocida. Este es un ejemplo de cómo las palabras polisémicas y sinónimas afectan la traducción. Otro ejemplo notable de tal ambigüedad son las expresiones idiomáticas. "Andarse con rodeos", por ejemplo, no tiene nada que ver con arbustos. Los pronombres también pueden permanecer ambiguos en muchas oraciones, particularmente cuando se tratan de forma aislada.2
Los cambios en las reglas lingüísticas, como la sintaxis y la gramática, entre diferentes idiomas también afectan la traducción. Por ejemplo, los verbos alemanes a menudo pueden aparecer al final de la oración, mientras que a menudo aparecen en el medio en inglés, mientras que el orden de las palabras es irrelevante en latín. Esto explica las diferencias en los métodos de traducción entre traductores profesionales. En algunos casos, la traducción de idiomas es palabra por palabra, mientras que otros enfoques tienen como objetivo capturar el sentido y la importancia cultural del texto a través de traducciones sueltas.3
Los textos poéticos plantean un desafío único para crear traducciones precisas. La métrica, la rima y la aliteración son preocupaciones que afectan de manera única a la calidad de la traducción poética.4 La investigación de la traducción automática suele centrarse en el texto en prosa. Esta descripción general presenta algunas de las preocupaciones en el proceso de traducción humana que también existen en la tecnología de traducción automática.
No existe un proceso único para todos los tipos de traducción automática. La forma en que un sistema traduce el texto depende del tipo de traducción automática. Si bien los investigadores examinan una amplia variedad de sistemas, los siguientes tres se encuentran entre los más populares
Por su nombre, la traducción automática basada en reglas (RBMT) proporciona un conjunto de reglas que especifican cómo aprovechar la información lingüística almacenada para la traducción. Por ejemplo, esto puede implicar una lista de pares de idiomas a nivel de palabra y etiquetas de parte del discurso que ayudan a la computadora a combinar palabras en estructuras gramaticalmente coherentes. Luego, el usuario puede crear un conjunto de reglas que indiquen a la computadora cómo las palabras y otros grupos textuales de un idioma se asignan a los de otro.5
La complejidad de los sistemas RBMT depende del nivel de análisis lingüístico implementado. La literatura a menudo ilustra estos niveles de análisis lingüístico con un diagrama llamado triángulo de Vauquois:
Este diagrama ilustra tres enfoques de RBMT:
Para adaptarse de manera efectiva a los casos del mundo real, los enfoques de RBMT requieren diccionarios grandes. Además, los lenguajes naturales no siguen un conjunto inmutable de reglas: uno está permitido en una cultura, período de tiempo o dialecto no se aplica lingüísticamente a otro. Dada la naturaleza cada vez mayor y cambiante de los lenguajes naturales, la RBMT no ofrece una solución integral para la traducción automática. Los métodos de traducción basados en estadísticas son un intento de adaptarse a la naturaleza siempre cambiante del lenguaje.
La traducción automática estadística (SMT) es un enfoque que crea modelos estadísticos a partir de datos de entrenamiento de pares de idiomas. Un conjunto de datos de entrenamiento SMT consta de palabras o n-gramas en un idioma emparejados con palabras y n-gramas correspondientes en uno o más idiomas. A partir de estos datos, los enfoques de SMT construyen dos modelos de machine learning que dividen el proceso de traducción en dos etapas.
El primer modelo es un modelo de traducción. Utiliza los datos de entrenamiento para aprender pares lingüísticos con distribuciones de probabilidad. Cuando se proporciona un n-grama en el idioma de origen, el modelo da resultados posibles n-gramas en el idioma de destino con valores de probabilidad. Estos valores indican la probabilidad, en función de lo que el modelo aprendió de los datos de entrenamiento, de que el n-grama de destino sea una traducción adecuada del n-grama de origen. Por ejemplo, un modelo de traducción latín-inglés podría producir este resultado para el trigrama fuente mihi canes placent:
En este resultado hipotético, el modelo predice posibles traducciones al inglés de la frase latina mihi canes placent. El inglés I like dogs tiene el valor de probabilidad más alto de .8. Esto significa que, según lo que el modelo aprendió de los emparejamientos latín-inglés, es 80 % probable que esta sea la mejor traducción al inglés.
El segundo modelo es un modelo monolingüe para el idioma de destino. Este modelo predice esencialmente la probabilidad de que los resultados de n-gramas del modelo de traducción aparezcan en el idioma de destino. Por ejemplo, tomemos el resultado hipotético Me gustan los perros de nuestro modelo de traducción. El modelo monolingüe predice la probabilidad de que los perros aparezcan después de Me gusta de acuerdo con los datos de entrenamiento proporcionados en inglés. De esta manera, el modelo monolingüe puede considerarse como un enfoque estocástico de la posedición que tiene como objetivo confirmar el sentido y la idoneidad de una traducción.7
Si bien SMT mejora los métodos basados en reglas, tiene muchos problemas comunes a los modelos de machine learning. Por ejemplo, sobreajuste o subajuste de datos de entrenamiento. Lo primero puede obstaculizar particularmente la capacidad de un sistema SMT para dirigirse a términos fuera de vocabulario, expresiones idiomáticas y diferentes órdenes de palabras. Los sistemas SMT preprocesan secuencias de texto en longitudes fijas de n palabras.
La traducción de Neural networks (NMT) proporciona una traducción más flexible que se adapta a entradas y resultados de longitudes variables. Al igual que los sistemas SMT, los enfoques de NMT se pueden dividir en dos pasos generales. Primero, un modelo lee el texto de entrada y lo contextualiza dentro de una estructura de datos que resume la entrada. Esta representación contextual suele ser un modelo vectorial, como en los modelos de bag of words, pero también puede adoptar otras formas, como tensores. Una Neural Networks recurrente o convolucional lee esta representación y genera una oración en el idioma de destino.8 Más recientemente, los investigadores han recurrido a las arquitecturas transformadoras para NMT. Un ejemplo clave es mBART, un transformador entrenado con datos multilingües para recuperar lagunas artificiales que luego se ajustan para la traducción.9
Los enfoques de NMT también han adoptado modelos de lenguaje grandes (LLM). Específicamente, en lugar de ajustar una Neural Networks o un transformador para la traducción, los investigadores han explorado la posibilidad de generar modelos de lenguaje generativos de gran tamaño para la traducción. Uno de estos estudios examina los modelos GPT para la traducción automática. Los sistemas NMT consisten en la arquitectura de codificador-decodificador descrita anteriormente entrenada en grandes cantidades de datos multilingües. Los modelos GPT, por el contrario, consisten solo en configuraciones de decodificador entrenadas principalmente con datos en inglés. Al realizar pruebas en varios idiomas, incluidos inglés, francés, español, alemán, chino y ruso, el estudio sugiere que los enfoques híbridos de los modelos NMT y GPT producen traducciones de alta calidad y de vanguardia.10
Esto sugiere que los sistemas NMT, particularmente cuando se combinan con LLM y modelos generativos, pueden manejar mejor las expresiones idiomáticas y los términos fuera del vocabulario que los métodos SMT. Además, mientras que las SMT procesan n-gramas, las NMT procesan la oración fuente completa. Por lo tanto, maneja mejor las características lingüísticas, como la discontinuidad, que requieren abordar las oraciones como unidades. Sin embargo, la ambigüedad en los pronombres puede seguir siendo un problema para los NMT.11
Los servicios de traducción automática están ampliamente disponibles, y un motor de traducción automática basado en neuronas es Watson Language Translator de IBM.
Un área clave en la que la traducción automática puede ayudar a superar las barreras del idioma es la traducción de voz a voz, potencialmente en tiempo real. Estudios recientes han explorado aplicaciones conjuntas de reconocimiento automático de voz y NMT basadas en transformadores para la traducción de voz a voz con resultados positivos.12 Porque los sistemas de traducción de voz generalmente requieren transcribir el habla y luego traducir el texto resultante. Un estudio reciente examina la concatenación de voz y texto durante el preprocesamiento para la traducción multimodal con resultados prometedores.13
Diseñe asistentes y agentes de IA escalables con facilidad, automatice tareas repetitivas y simplifique procesos complejos con IBM watsonx Orchestrate.
Acelere el valor de negocio de la inteligencia artificial con una cartera potente y flexible de bibliotecas, servicios y aplicaciones.
Reinvente los flujos de trabajo y las operaciones críticas añadiendo IA para maximizar las experiencias, la toma de decisiones en tiempo real y el valor empresarial.
1 Miles Osborne, “Statistical Machine Translation,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.
2 Philipp Koehn, Neural Machine Translation, Cambridge University Press, 2020.
3 Thierry Poibeau, Traducción automática, MIT Press, 2017.
5 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.
6 Thierry Poibeau, Traducción automática, MIT Press, 2017.
7 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.
<a id=" ">13 Ian Goodfellow, Yoshua Bengio y Aaron Courville, Deep Learning, MIT Press, 2016.
9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer, “Multilingual Denoising Pre-training for Neural Machine Translation,” Transactions of the Association for Computational Linguistics, vol. 8, 2020, https://aclanthology.org/2020.tacl-1.47/ (enlace externo a ibm.com).
10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify y Hany Hassan Awadalla, “How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation,” https://arxiv.org/abs/2302.09210 (enlace externo a ibm.com).
11 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.
12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, and Tie-Yan Liu, “SimulSpeech: End-to-End Simultaneous Speech to Text Translation,” Actas de la 58.ª reunión anual de la Association for Computational Linguistics, 2020, https://aclanthology.org/2020.acl-main.350/ (enlace externo a ibm.com). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov y Christian Herold, “Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University,” Actas del 17. Conferencia internacional sobre traducción de idiomas hablados, 2020, https://aclanthology.org/2020.iwslt-1.3/ (enlace externo a ibm.com).
13 Linlin Zhang, Kai Fan, Boxing Chen, and Luo Si, “A Simple Concatenation puede mejorar eficazmente la traducción del habla”, Actas de la 61.ª reunión anual de la Association for Computational Linguistics, 2023, https://aclanthology.org/2023. acl-short.153/ (enlace externo a ibm.com).