La traduzione con reti neurali (NMT) fornisce una traduzione più flessibile che si adatta testi di partenza e arrivo di lunghezza variabile. Proprio come i sistemi SMT, gli approcci NMT possono essere suddivisi in due fasi generali. Innanzitutto, un modello legge il testo di partenza e lo contestualizza all'interno di una struttura di dati che lo riepiloga. Questa rappresentazione contestuale è spesso un modello vettoriale, come nei modelli bag of words, ma può anche assumere altre forme, come i tensori. Una rete neurale ricorrente o convoluzionale legge questa rappresentazione e genera una frase nella lingua di arrivo.8 Più recentemente, i ricercatori si sono rivolti alle architetture trasformative per NMT. Un esempio chiave è mBART, un trasformatore addestrato su dati multilingue per il recupero di lacune artificiali e poi messo a punto per la traduzione.9
Gli approcci NMT hanno anche adottato modelli linguistici di grandi dimensioni (LLM). Nello specifico, anziché mettere a punto una rete neurale o un trasformatore per la traduzione, i ricercatori hanno esplorato la possibilità di ricorrere a modelli linguistici generativi di grandi dimensioni per la traduzione. Uno di questi studi esamina i modelli GPT per la traduzione automatica. I sistemi NMT sono costituiti dall'architettura encoder-decoder descritta in precedenza addestrata su grandi quantità di dati multilingue. I modelli GPT, al contrario, sono costituiti solo da configurazioni di decodifica addestrate principalmente su dati inglesi. Lo studio, condotto in diverse lingue, tra cui inglese, francese, spagnolo, tedesco, cinese e russo, suggerisce che gli approcci ibridi dei modelli NMT e GPT producono traduzioni di alta qualità e all'avanguardia.10
Ciò suggerisce che i sistemi NMT, in particolare se combinati con LLM e modelli generativi, sono in grado di gestire meglio espressioni idiomatiche e termini non presenti nel vocabolario rispetto ai metodi SMT. Inoltre, mentre gli SMT elaborano gli n-grammi, gli NMT elaborano l'intera frase del testo di partenza. Quindi gestisce meglio le caratteristiche linguistiche come la discontinuità che richiedono l'approccio delle frasi come unità. L'ambiguità nei pronomi, tuttavia, può rimanere un problema per gli NMT.11