캠브리지 대학의 기계 번역 아키텍처 개요 Slack 번역 앱 Kiara

소개



2019년의 기계 번역의 진화가 매우 잘 정리된 케임브리지 대학의 논문이 있었으므로 소개합니다.

당사는 자사에서 Slack용 번역 Chatbot Plugin, Kiara를 개발하고 있으며,
일본 최초의 Slack Developer Chapter Leader로서 리드 엔지니어 하라다가 노력하고 있습니다.
htps : // 키아라 아 p. 코m/ (무료 평가판 있음)
Slack과 일하는 방법 혁명에 대한 열정에서 앞으로도 개발자 커뮤니티를 북돋워 갑니다.

추상



Neural Machine Translation: A Review



(Submitted on 4 Dec 2019)
The field of machine translation (MT), the automatic translation of written text from one natural language into another, has experienced a major paradigm shift in recent years. Statistical MT, which mainly relies on various count-based models and which used to dominate MT research for decades, has largely been superseded by neural machine translation (NMT), which tackles translation with a single neural network. In this work we will trace back the origins of modern NMT architectures to word and sentence embeddings and earlier example decoder network family. We will conclude with a survey of recent trends in the field.

기계 번역 (MT), 한 자연 언어에서 다른 자연 언어로의 문장의 자동 번역 분야는 최근 몇 년 동안 큰 패러다임 변화를 경험하고 있습니다. 주로 다양한 카운트 기반 모델에 의존하고 수십 년 동안 MT 연구를 지배하고 있던 통계 MT는 단일 신경망으로 번역에 종사하는 신경 기계 번역 (NMT)을 대체했습니다. 이 작업은 최신 NMT 아키텍처의 기원을 단어와 문장 포함, 인코더/디코더 네트워크 패밀리의 이전 예제로 거슬러 올라갑니다. 마지막으로 이 분야의 최근 추세를 조사합니다.

Conclusion



Neural machine translation (NMT) has become the de facto standard for large-scale machine translation in a very short period of time. This article traced back the origin of NMT to word and sentence embeddings and neural language models. We reviewed the most commonly used building blocks of NMT architectures – recurrence, convolution, and attention – and discussed popular concrete architectures such as RNNsearch, GNMT, ConvS2S, and the Transformer.
We discussed the advantages and disadvantages of several important design choices that have to be made to design a good NMT system with respect to decoding, training, and segmentation. We then explored advanced topics in
NMT research such as explainability and data sparsity.

주요 장소 Main Topic



NMT=Neural Machine Translation



Word Embeddings

Phrase Embeddings

Sentence Embeddings

Encoder-Decoder Networks

Attentional Encoder-Decoder Networks

Recurrent NMT

Convolutional NMT

Self attention based NMT

Search problem in NMT

Greedy and beam search

Decoding direction

Generating diverse translation

Simultaneous translation

Open vocabulary NMT

NMT 모델 오류

Reinforcement learning

Adversarial training

Explainable NMT

Multilingual NMT







좋은 웹페이지 즐겨찾기