O que é tradução automática?

Autora

Jacob Murel Ph.D.

Senior Technical Content Creator

Joshua Noble

Data Scientist

Definição de tradução automática

A tradução automática é uma tarefa de processamento de linguagem natural (NLP) para mapear texto entre idiomas. Os métodos de tradução variam de heurística simples a grandes modelos de linguagem (LLMs).

A pesquisa de aprendizado de máquina frequentemente aborda a tradução automática como um processo estocástico.1 Desde seu início, em meados do século XX, os sistemas de tradução automática progrediram de algoritmos heurísticos simples para abordagens de deep learning alimentadas por redes neurais.

Tradução assistida por computador

A tradução automática é diferente da tradução assistida por computador (CAT). Esta última refere-se ao uso de software de tradução automática ou outras ferramentas de tradução digital para auxiliar tradutores humanos. Essas ferramentas podem ser um dicionário digital, um verificador gramatical ou uma ferramenta de memória de tradução, como um banco de dados de pares de idiomas para palavras comuns. A principal diferença entre CAT e tradução automática é que, na primeira, a tarefa real de tradução é feita por seres humanos.

Tradução automatizada

A distinção entre tradução automática e automatizada é indefinida. Algumas fontes usam tradução automática (machine translation) e tradução automática (automatic translation) de forma intercambiável, mas as distinguem da tradução automatizada, enquanto outras distinguem a primeira das duas últimas. Geralmente, essas distinções tratam a tradução automática como abrangendo qualquer metodologia de tradução que incorpore ferramentas de aprendizado de máquina (especificamente, inteligência artificial) e, portanto, incluindo CAT.

A tradução automatizada, por outro lado, é uma forma de tradução automática que automatiza as etapas de um fluxo de trabalho de tradução, como a pré-edição do texto de origem ou a pós-edição do texto de saída. Os sistemas de gerenciamento de conteúdo frequentemente podem incluir ferramentas de gerenciamento de tradução para ajudar a automatizar tarefas comuns de tradução. As fontes que distinguem dessa forma alinham a tradução automatizada à CAT.

As mais recentes tendências em IA, trazidas a você por especialistas

Receba insights selecionados sobre as notícias mais importantes (e intrigantes) sobre IA. Inscreva-se no nosso boletim informativo semanal Think. Consulte a Declaração de privacidade da IBM.

Agradecemos a você! Você se inscreveu.

Sua assinatura será entregue em inglês. Você encontrará um link para cancelar a assinatura em cada boletim informativo. Você pode gerenciar suas assinaturas ou cancelar a assinatura aqui. Consulte nossa Declaração de privacidade da IBM para obter mais informações.

Problemas na tradução

As ferramentas de tradução automática enfrentam muitos dos mesmos problemas que a tradução humana. Os desenvolvimentos na tradução automática envolvem métodos cada vez mais sofisticados para lidar com essas questões; uma visão geral de alguns problemas centrais é útil para contextualizar.

Um problema central é a ambiguidade das palavras. Um exemplo ilustrativo clássico é a frase "O frango está pronto para comer". Aqui, frango pode se referir ao animal vivo ou à sua carne cozida. Esse é um exemplo de como palavras polissêmicas e sinônimas afetam a tradução. Outro exemplo notável dessa ambiguidade são as expressões idiomáticas. "Encher linguiça", por exemplo, não tem nada a ver com linguiça. Os pronomes também podem permanecer ambíguos em muitas frases, principalmente quando tratados de forma isolada.2

Mudanças nas regras linguísticas, como sintaxe e gramática, entre diferentes idiomas também afetam a tradução. Por exemplo, os verbos em alemão muitas vezes podem aparecer no final da frase, enquanto muitas vezes aparecem no meio em inglês, enquanto a ordem das palavras é irrelevante em latim. Isso explica as diferenças nos métodos de tradução entre tradutores profissionais. Em alguns casos, a tradução de idiomas é palavra por palavra, enquanto outras abordagens visam capturar o sentido e a importação cultural do texto por meio de traduções livres.3

Textos poéticos representam um desafio único para criar traduções precisas. Métrica, rima e aliteração são preocupações que afetam de forma exclusiva a qualidade da tradução poética.4 A pesquisa de tradução automática normalmente se concentra em textos em prosa. Essa visão geral apresenta algumas das preocupações no processo de tradução humana que também existem na tecnologia de tradução automática.

Mixture of Experts | 12 de dezembro, episódio 85

Decodificando a IA: resumo semanal das notícias

Participe do nosso renomado painel de engenheiros, pesquisadores, líderes de produtos e outros enquanto filtram as informações sobre IA para trazerem a você as mais recentes notícias e insights sobre IA.

Tipos de tradução automática

Não existe um único processo para todos os tipos de tradução automática. A forma como um sistema traduz o texto depende do tipo de tradução automática. Embora os pesquisadores examinem uma grande variedade de sistemas, os três a seguir estão entre os mais populares

Tradução automática baseada em regras

Pelo seu nome, a tradução automática baseada em regras (RBMT) fornece um conjunto de regras que especificam como aproveitar as informações linguísticas armazenadas para tradução. Por exemplo, isso pode envolver uma lista de pares de idiomas em nível de palavra e tags de classes gramaticais que ajudam o computador a combinar palavras em estruturas gramaticalmente coerentes. O usuário pode, então, criar um conjunto de regras que instruem o computador como palavras e outros grupos textuais de um idioma se mapeiam para os de outro.5

A complexidade dos sistemas de RBMT depende do nível de análise linguística implementada. A literatura frequentemente ilustra esses níveis de análise linguística com um diagrama chamado triângulo de Vauquois:

diagrama de diferentes abordagens para a tradução automática

Esse diagrama ilustra três abordagens para a RBMT:

  • Tradução direta. Essa abordagem geralmente usa um dicionário predefinido para gerar traduções palavra por palavra do texto de origem. Após essa etapa, uma série de regras tenta reordenar o texto de saída para a ordem das palavras do idioma de destino. Essas regras não envolvem nenhuma análise sintática dos textos de origem ou de destino.

  • Transferência. Essa abordagem adota um grau limitado de análise sintática. Os métodos comuns desse tipo de análise incluem a marcação de partes do discurso, a desambiguação do sentido das palavras e a análise morfológica (conforme usado na lematização). Por meio deles, o sistema pode utilizar o conhecimento linguístico dos idiomas de origem e destino para gerar traduções mais idiomáticas e menos literais do que abordagens diretas.

  • Interlíngua. Essa abordagem usa uma representação intermediária formalizada e artificial entre os textos de origem e traduzido. Esse intermediário é, essencialmente, uma versão ainda mais abstrata do que aquela produzida em sistemas de transferência por meio de análise morfológica. O sistema codifica o texto de origem nesse idioma artificial abstrato que, em seguida, o decodifica no idioma de destino.6

Para acomodar efetivamente casos do mundo real, as abordagens de RBMT exigem grandes dicionários. Além disso, os idiomas naturais não seguem um conjunto imutável de regras — um é permitido em uma cultura, período de tempo ou o dialeto não se aplica linguisticamente a outro. Dada a natureza cada vez maior e imprevisível dos idiomas naturais, a RBMT não oferece uma solução abrangente para tradução automática. Métodos baseados em estatísticas para tradução são uma tentativa de acomodar a natureza em constante mudança dos idiomas.

Tradução automática estatística

A tradução automática estatística (SMT) é uma abordagem que cria modelos estatísticos a partir de dados de treinamento de pares de idiomas. Um conjunto de dados de treinamento de SMT consiste em palavras ou n-gramas em um idioma emparelhado com palavras e n-gramas correspondentes em um ou mais idiomas. A partir desses dados, as abordagens de SMT constroem dois modelos de aprendizado de máquina que dividem o processo de tradução em dois estágios.

O primeiro modelo é um modelo de tradução. Ele usa os dados de treinamento para aprender pares linguísticos com distribuições de probabilidade. Quando fornecido um n-grama no idioma de origem, o modelo produz n-gramas em potencial no idioma de destino com valores de probabilidades. Esses valores indicam a probabilidade, com base no que o modelo aprendeu com os dados de treinamento, de que o n-grama de destino seja uma tradução apropriada do n-grama de origem. Por exemplo, um modelo de tradução de latim para inglês pode produzir essa saída para o tri-grama de origem mihi canes placent:

tabela comparando a tradução do latim mihi canes placent

Nessa saída hipotética, o modelo prevê possíveis traduções para o inglês da frase em latim mihi canes placent. A tradução em inglês Eu gosto de cães tem o valor de probabilidade mais alto, de 0,8. Isso significa que, com base no que o modelo aprendeu com os pares latim-inglês, há 80% de probabilidade de que essa seja a melhor tradução para o inglês.

O segundo modelo é um modelo monolíngue para o idioma de destino. Esse modelo essencialmente prevê a probabilidade das saídas dos n-gramas do modelo de tradução aparecerem no idioma de destino. Por exemplo, considere a saída hipotética Eu gosto de cães de nosso modelo de tradução. O modelo monolíngue prevê a probabilidade de cães aparecer depois de Eu gosto de, de acordo com os dados de treinamento em inglês fornecidos. Dessa forma, o modelo monolíngue pode ser considerado uma abordagem estocástica para a pós-edição que visa confirmar o sentido e a adequação de uma tradução.7

Embora a SMT melhore os métodos baseados em regras, ela tem muitos problemas comuns aos modelos de aprendizado de máquina. Por exemplo, overfitting ou underfitting dos dados de treinamento. O primeiro pode prejudicar particularmente a capacidade de um sistema de SMT de lidar com termos fora do vocabulário, expressões idiomáticas e diferentes ordens de palavras. Os sistemas de SMT pré-processam sequências de texto em comprimentos fixos de n palavras.

Tradução automática neural

A tradução de redes neurais (NMT) fornece uma tradução mais flexível, que acomoda entradas e saídas de comprimentos variáveis. Assim como os sistemas de SMT, as abordagens de NMT podem ser divididas em duas etapas gerais. Primeiro, um modelo lê o texto de entrada e o contextualiza em uma estrutura de dados que resume a entrada. Essa representação contextual geralmente é um modelo vetorial (como nos modelos de bag of words), mas também pode assumir outras formas, como tensores. Uma rede neural recorrente ou convolucional lê essa representação e gera uma frase no idioma de destino.8 Mais recentemente, os pesquisadores se voltaram para arquiteturas de transformação para a NMT. Um exemplo importante é o mBART, um transformador treinado com dados multilíngues para recuperar lacunas artificiais e, em seguida, realizar o ajuste fino para tradução.9

As abordagens de NMT também adotaram grandes modelos de linguagem (LLMs). Especificamente, em vez de realizar um ajuste fino de uma rede neural ou transformador para tradução, os pesquisadores exploraram o uso de grandes modelos de linguagem generativos para tradução. Um desses estudos examina os modelos do GPT para tradução automática. Os sistemas de NMT consistem na arquitetura de codificador-decodificador previamente descrita, treinada em grandes quantidades de dados multilíngues. Os modelos GPT, por outro lado, consistem apenas em configurações de decodificadores treinados com dados principalmente em inglês. Testando vários idiomas (incluindo inglês, francês, espanhol, alemão, chinês e russo), o estudo sugere que a abordagem híbrida dos modelos de NMT e GPT produz traduções de alta qualidade e de última geração.10

Isso sugere que os sistemas de NMT, particularmente quando combinados com LLMs e modelos generativos, são capazes de lidar melhor com expressões idiomáticas e termos fora do vocabulário do que os métodos de SMT. Além disso, enquanto as SMTs processam n-gramas, as NMTs processam a frase de origem completa. Portanto, lidam melhor com funcionalidades linguísticas, como descontinuidade, que exigem a abordagem de frases como unidades. A ambiguidade dos pronomes, no entanto, pode continuar sendo um problema para as NMTs.11

Casos de uso

Os serviços de tradução automática estão amplamente disponíveis, e um mecanismo de tradução automática baseado em redes neurais é o Watson Language Translator da IBM.

Uma área fundamental na qual a tradução automática pode ajudar a superar barreiras linguísticas é a tradução de fala para fala, potencialmente em tempo real. Estudos recentes exploraram aplicações conjuntas de reconhecimento automático de fala e NMTs baseadas em transformadores para tradução de fala em fala com resultados positivos.12 Porque os sistemas de tradução de fala geralmente exigem a transcrição da fala e, em seguida, a tradução do texto resultante. Um estudo recente examina a concatenação de fala e texto durante o pré-processamento para tradução multimodal, com resultados promissores.13

Soluções relacionadas
IBM watsonx Orchestrate

Projete assistentes e agentes de IA escaláveis com facilidade, automatize tarefas repetitivas e simplifique processos complexos com o IBM® watsonx Orchestrate.

Conheça o watsonx Orchestrate
Ferramentas e APIs de processamento de linguagem natural

Acelere o valor comercial da inteligência artificial com um portfólio poderoso e flexível de bibliotecas, serviços e aplicativos.

Explore as soluções de PNL
Consultoria e serviços em IA

Reinvente os fluxos de trabalho e operações críticos adicionando IA para maximizar experiências, tomadas de decisão em tempo real e valor de negócios.

Explore os serviços de IA
Dê o próximo passo

Projete assistentes e agentes de IA escaláveis com facilidade, automatize tarefas repetitivas e simplifique processos complexos com o IBM® watsonx Orchestrate.

Conheça o watsonx Orchestrate Explore as soluções de PLN
Notas de rodapé

1 Miles Osborne, “Statistical Machine Translation,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017.

2 Philipp Koehn, Neural Machine Translation, Cambridge University Press, 2020.

3 Thierry Poibeau, Machine Translation, MIT Press, 2017.

4 Translating poetry essay

5 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

6 Thierry Poibeau, Machine Translation, MIT Press, 2017.

7 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

8 Ian Goodfellow, Yoshua Bengio e Aaron Courville, Deep Learning, MIT Press, 2016.

9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis e Luke Zettlemoyer, “Multilingual Denoising Pre-training for Neural Machine Translation,” Transactions of the Association for Computational Linguistics, Vol. 8, 2020, https://aclanthology.org/2020.tacl-1.47/ (link externo a ibm.com).

10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify e Hany Hassan Awadalla, “How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation,” https://arxiv.org/abs/2302.09210 (link externo a ibm.com).

11 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022.

12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao e Tie-Yan Liu, “SimulSpeech: End-to-End Simultaneous Speech to Text Translation,” Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, https://aclanthology.org/2020.acl-main.350/ (link externo a ibm.com). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov e Christian Herold, “Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University,” Proceedings of the 17th International Conference on Spoken Language Translation, 2020, https://aclanthology.org/2020.iwslt-1.3/ (link externo a ibm.com).

13 Linlin Zhang, Kai Fan, Boxing Chen e Luo Si, “A Simple Concatenation can Effectively Improve Speech Translation,” Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, 2023, https://aclanthology.org/2023.acl-short.153/ (link externo a ibm.com).