업계 뉴스레터
전문가가 전하는 최신 AI 트렌드
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
머신 러닝 연구는 기계 번역을 확률적 프로세스로 접근하곤 합니다.1 20세기 중반에 등장한 기계 번역 시스템은 단순한 휴리스틱 알고리즘에서 신경망 기반 딥 러닝 접근 방식으로 발전해 왔습니다.
기계 번역은 컴퓨터 지원 번역(CAT)과는 다릅니다. 후자는 인간 번역가를 지원하는 기계 번역 소프트웨어 또는 기타 디지털 번역 도구를 사용하는 것을 의미합니다. 이러한 도구는 디지털 사전, 문법 검사기 또는 일반적인 단어에 대한 언어 쌍 데이터베이스와 같은 번역 메모리 도구일 수 있습니다. CAT와 기계 번역의 주요 차이점은 전자의 경우 실제 번역 작업이 인간이 수행한다는 것입니다.
기계 번역과 자동화된 번역의 구분은 명확하지 않습니다. 일부 소스는 기계 번역과 자동화된 번역을 혼용하여 사용하지만 자동 번역과 구별하는 경우도 있고, 다른 소스에서는 전자와 두 개의 후자를 구별합니다. 일반적으로 이러한 구분은 기계 번역을 머신 러닝 도구, 특히 인공 지능을 통합하는 모든 번역 방법론을 포괄하는 것으로 간주하므로 CAT도 여기에 포함됩니다.
반면 자동화된 번역은 소스 텍스트의 사전 편집 또는 아웃풋 텍스트의 사후 편집과 같은 워크플로의 단계를 자동화하는 기계 번역의 한 형태입니다. 콘텐츠 관리 시스템에는 일반적인 번역 작업을 자동화하는 데 도움이 되는 번역 관리 도구가 포함되는 경우가 많습니다. 이러한 방식을 구별하는 소스에서는 자동화된 번역을 CAT와 함께 정렬합니다.
업계 뉴스레터
가장 중요하고 흥미로운 AI 뉴스에 대한 선별된 인사이트를 확인하세요. 주간 Think 뉴스레터를 구독하세요. IBM 개인정보 보호정책을 참조하세요.
구독은 영어로 제공됩니다. 모든 뉴스레터에는 구독 취소 링크가 있습니다. 여기에서 구독을 관리하거나 취소할 수 있습니다. 자세한 정보는 IBM 개인정보 보호정책을 참조하세요.
기계 번역 도구는 인간 번역과 동일한 많은 문제에 직면해 있습니다. 기계 번역의 발전에는 이러한 문제를 해결하기 위한 점점 더 정교해지는 방법이 포함되며, 몇 가지 핵심 문제에 대한 개요는 맥락에 도움이 됩니다.
한 가지 핵심 문제는 단어 모호성입니다. 고전적인 예는 The chicken is ready to eat이라는 문장입니다. 여기서 chicken은 살아있는 동물인 닭이나 익힌 닭고기를 의미할 수 있습니다. 이는 다의어와 동의어가 번역에 어떤 영향을 미치는지 보여주는 한 가지 예입니다. 이러한 모호함의 또 다른 주목할 만한 예는 관용적 표현입니다. 예를 들어, 'Beat around the bush(변죽을 울리다)'라는 말은 덤불과 아무 관련이 없습니다. 또한 대명사가 많은 문장에서 모호하게 유지될 수 있으며, 특히 단독으로 처리할 때 더욱 그렇습니다.2
서로 다른 언어 간의 구문 및 문법과 같은 언어 규칙의 변경도 번역에 영향을 미칩니다. 예를 들어, 독일어 동사는 종종 문장 끝에 나타날 수 있으나, 영어에서는 중간에 나타나는 경우가 많고, 라틴어에서는 어순이 관련이 없습니다. 이는 전문 번역가 간의 번역 방법의 차이가 있음을 설명합니다. 어떤 경우에는 언어 번역이 단어 대 단어인 반면, 다른 접근 방식은 느슨한 번역을 통해 텍스트의 의미와 문화적 중요성을 포착하는 것을 목표로 합니다.3
시적인 텍스트는 정확한 번역을 만드는 데 특별한 어려움이 있습니다. 박자, 운율, 두운은 모두 시적 번역 품질에 고유한 영향을 미치는 문제입니다.4 기계 번역 연구는 일반적으로 산문 텍스트에 중점을 둡니다. 이 개요에서는 기계 번역 기술에도 존재하는 인간 번역 프로세스의 몇 가지 문제를 소개합니다.
모든 유형의 기계 번역을 처리하는 하나의 단일 프로세스가 존재하지는 않습니다. 시스템이 텍스트를 번역하는 방식은 기계 번역 유형에 따라 다릅니다. 다양한 시스템에 대한 연구가 이루어지지만 그 중 가장 인기 있는 시스템 세 가지를 소개합니다.
규칙 기반 기계 번역(RBMT)은 이름 그대로 저장된 언어 정보를 번역에 활용하는 방법을 지정하는 일련의 규칙을 제공합니다. 예를 들어, 여기에는 컴퓨터가 단어를 문법적으로 일관된 구조로 결합하는 데 도움이 되는 단어 수준 언어 쌍 목록과 품사 태그가 포함될 수 있습니다. 그런 다음 사용자는 한 언어의 단어 및 기타 텍스트 그룹이 다른 언어의 단어 및 기타 텍스트 그룹에 매핑하는 방법을 컴퓨터에 지시하는 일련의 규칙을 만들 수 있습니다.5
RBMT 시스템의 복잡성은 구현된 언어 분석 수준에 따라 다릅니다. 문헌에서는 Vauquois의 삼각형이라는 다이어그램으로 이러한 수준의 언어 분석을 설명하는 경우가 많습니다.
이 다이어그램은 RBMT에 대한 세 가지 접근 방식을 보여줍니다.
실제 사례를 효과적으로 수용하려면 RBMT 접근 방식에는 대규모 사전이 필요합니다. 또한 자연어는 변하지 않는 규칙을 따르지 않기 때문에 한 문화권이나 시대, 방언에서 허용되는 언어가 다른 문화권이나 시대에는 언어적으로 적용되지 않습니다. 자연어의 끊임없이 성장하고 변화하는 특성을 고려할 때 RBMT는 기계 번역에 대한 포괄적인 솔루션을 제공하지 않습니다. 통계 기반 번역 방법은 끊임없이 변화하는 언어의 특성을 수용하려는 시도 중 하나입니다.
통계적 기계 번역(SMT)은 언어 쌍의 학습 데이터에서 통계 모델을 구축하는 접근 방식입니다. SMT 학습 데이터 세트는 한 언어의 단어 또는 n-gram과 하나 이상의 언어로 된 해당 단어 및 n-gram이 쌍을 이루는 것으로 구성됩니다. 이 데이터에서 SMT 접근 방식은 번역 프로세스를 두 단계로 나누는 두 가지 머신 러닝 모델을 구성합니다.
첫 번째 모델은 번역 모델입니다. 훈련 데이터를 사용하여 확률 분포가 있는 언어 쌍을 학습합니다. 소스 언어로 n-gram이 제공되면 모델은 확률 값과 함께 잠재적인 대상 언어 n-gram을 아웃풋합니다. 이러한 값은 모델이 학습 데이터에서 학습한 내용을 기반으로 대상 n-gram이 원본 n-gram의 적절한 변환일 가능성을 나타냅니다. 예를 들어 라틴어-영어 번역 모델은 소스 삼음문 mihi canes placent라는 원문에 대해 다음과 같은 아웃풋을 생성할 수 있습니다.
이 아웃풋에서 모델은 라틴어 구문 mihi canes placent에 대한 잠재적인 영어 번역을 예측합니다. 영어 I like dogs의 확률 값은 0.8로 가장 높습니다. 즉, 라틴어-영어 쌍에서 모델이 학습한 내용에 따라 이것이 최상의 영어 번역일 확률이 80%라는 뜻입니다.
두 번째 모델은 대상 언어에 대한 단일 언어 모델입니다. 이 모델은 기본적으로 번역 모델의 n-gram 아웃풋이 대상 언어로 나타날 가능성을 예측합니다. 예를 들어, 번역 모델에서 I like dogs라는 가상의 아웃풋을 생각해 보겠습니다. 단일 언어 모델은 제공된 영어 학습 데이터에 따라 dogs가 I like 뒤에 나타날 확률을 예측합니다. 이러한 방식으로 단일 언어 모델은 번역의 의미와 적절성을 확인하는 것을 목표로 하는 사후 편집에 대한 확률론적 접근 방식으로 생각할 수 있습니다.7
SMT는 규칙 기반 방식보다 개선되었지만, 머신 러닝 모델에 공통적으로 나타나는 많은 문제를 가지고 있습니다. 예를 들어, 훈련 데이터를 과적합 또는 과소적합 등이 있습니다. 전자는 특히 어휘에서 벗어난 용어, 관용적 표현 및 다양한 단어 순서를 처리하는 SMT 시스템의 능력을 방해할 수 있습니다. SMT 시스템은 텍스트 시퀀스를 n개 단어의 고정된 길이로 전처리합니다.
신경망 변환(NMT)은 다양한 길이의 인풋과 아웃풋을 수용하는 좀 더 유연한 변환 방식입니다. SMT 시스템과 마찬가지로, 주로 두 가지 단계로 진행됩니다. 첫째, 모델이 입력된 텍스트를 읽고, 인푸을 요약하는 데이터 구조 안에서 맥락을 구성합니다. 이 문맥 표현은 bag of words 모델에서와 같이 벡터 모델인 경우가 많지만, 텐서와 같은 다른 형태를 취할 수도 있습니다. 순환 신경망이나 합성 신경망이 이 표현을 읽고 도착어로 문장을 생성합니다.8 최근 연구자들은 NMT를 위한 트랜스포머 아키텍처로 눈을 돌렸습니다. 중요한 예로 들 수 있는 mBART는 인위적인 공백을 복구하기 위한 다국어 데이터 훈련을 한 다음에 번역을 할 수 있도록 미세 조정해서 만드는 트랜스포머입니다.9
NMT도 대규모 언어 모델(LLM) 접근법을 채택했습니다. 특히 연구자들은 번역을 위해 신경망이나 트랜스포머를 미세 조정하는 대신, 번역을 위한 생성형 대규모 언어 모델을 프롬프팅하는 방법을 모색해 왔습니다. 그 중에는 기계 번역을 위해 GPT 모델을 검토한 연구도 있었습니다. NMT 시스템은 앞서 설명한, 대량의 다국어 데이터로 훈련된 인코더-디코더 아키텍처로 구성됩니다. 반면 GPT 모델은 주로 영어 데이터로 훈련된 디코더 설정으로만 구성됩니다. 여러 언어에 대한 테스트(영어, 프랑스어, 스페인어, 독일어, 중국어, 러시아어 등) 결과, NMT와 GPT 모델을 혼합하는 방식이 고품질의 최첨단 번역을 생성한다는 것으로 나타났습니다.10
이는 NMT 시스템, 특히 LLM 및 생성 모델과 결합될 때 SMT 방법보다 관용적 표현과 어휘에서 벗어난 용어를 더 잘 처리할 수 있음을 시사합니다. 또한 SMT는 n-gram을 처리하는 반면, NMT는 전체 소스 문장을 처리합니다. 따라서 문장을 단위로 접근해야 하는 불연속성과 같은 언어적 특징을 더 잘 처리합니다. 그러나 대명사의 모호함은 NMT의 문제로 남을 수 있습니다.11
기계 번역 서비스는 보편적으로 이용 가능하며, 신경망 기반 기계 번역 엔진 중 하나로 IBM의 Watson Language Translator가 있습니다.
기계 번역이 언어 장벽을 극복하는 데 도움이 될 수 있는 핵심 영역은 음성 대 음성 번역입니다. 이는 앞으로 실시간으로 이루어질 가능성도 있습니다. 최근 연구들은 음성 대 음성 번역을 위한 자동 음성 인 식 및 트랜스포머 기반 NMT의 공동 애플리케이션을 탐구해 긍정적인 결과를 얻었습니다.12 음성 번역 시스템은 일반적으로 음성을 전사하고 그 결과물인 글자를 번역해야 하기 때문입니다. 최근의 한 연구는 다중 모드 번역을 위한 전처리 중에 음성과 텍스트를 연결하는 방법을 조사하여 유망한 결과를 얻었습니다.13
IBM watsonx Orchestrate를 사용하여 확장 가능한 AI 어시스턴트 및 에이전트를 쉽게 설계하고, 반복적인 작업을 자동화하고, 복잡한 프로세스를 간소화합니다.
강력하고 유연한 라이브러리, 서비스 및 애플리케이션 포트폴리오로 인공 지능의 비즈니스 가치를 가속화합니다.
AI 추가를 통해 중요한 워크플로와 운영을 혁신함으로써 경험, 실시간 의사 결정 및 비즈니스 가치를 극대화합니다.
1 Miles Osborne, “Statistical Machine Translation,” Encyclopedia of Machine Learning and Data Mining, Springer, 2017년.
2 Philipp Koehn, Neural Machine Translation, Cambridge University Press, 2020년
3 Thierry Poibeau, Machine Translation, MIT Press, 2017년
5 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022년
6 Thierry Poibeau, Machine Translation, MIT Press, 2017년.
7 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022년
8 Ian Goodfellow, Yoshua Bengio, and Aaron Courville, Deep Learning, MIT Press, 2016년
9 Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer, “Multilingual Denoising Pre-training for Neural Machine Translation,” Transactions of the Association for Computational Linguistics, Vol. 8, 2020년, https://aclanthology.org/2020.tacl-1.47/ (ibm.com 외부 링크)
10 Amr Hendy, Mohamed Abdelrehim, Amr Sharaf, Vikas Raunak, Mohamed Gabr, Hitokazu Matsushita, Young Jin Kim, Mohamed Afify, and Hany Hassan Awadalla, “How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation,” https://arxiv.org/abs/2302.09210(ibm.com 외부 링크).
11 Dorothy Kenny, “Human and machine translation,” Machine translation for everyone: Empowering users in the age of artificial intelligence, Language Science Press, 2022년
12 Yi Ren, Jinglin Liu, Xu Tan, Chen Zhang, Tao Qin, Zhou Zhao, and Tie-Yan Liu, “SimulSpeech: End-to-End Simultaneous Speech to Text Translation,” Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020년, https://aclanthology.org/2020.acl-main.350/ (ibm.com 외부 링크). Parnia Bahar, Patrick Wilken, Tamer Alkhouli, Andreas Guta, Pavel Golik, Evgeny Matusov, and Christian Herold, “Start-Before-End and End-to-End: Neural Speech Translation by AppTek and RWTH Aachen University,” Proceedings of the 17th International Conference on Spoken Language Translation, 2020년, https://aclanthology.org/2020.iwslt-1.3/ (ibm.com 외부 링크)
13 Linlin Zhang, Kai Fan, Boxing Chen, and Luo Si, “A Simple Concatenation can Effectively Improve Speech Translation,” Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, 2023년, https://aclanthology.org/2023.acl-short.153/ (ibm.com 외부 링크)