Chainer로 간단한 구마모토 밸브 번역

2025 단어 ChainerDeepLearning

배경



어느 날 나는 기계 번역에 관심이 있었다.
(영어에 시달리는 일본의 연구자의 목소리를 들었기 때문일지도 모르고, 공부회의 준비에 쫓기고 있었기 때문일지도 모른다.)
그러나 나는 문외 한이기 때문에 encoder-decoder 모델의 "그"그림을 읽을 수 없었다.
요전날 기분을 잡을 수 있었으므로, 나름대로 씹은 것을 기록·공유하기 위해서 이 기사를 썼다.

선인의 자세한 기사
h tp : 작은 m/출처_t/있어 MS/아1베 7C4964f베어6아116화

RNN 다이어그램 번역



번역까지의 흐름을 다른 관점에서 그렸다.
encoder-decoder 모델에 의해 "그는 달린다"를 "He runs"로 번역하기까지의 흐름은 다음과 같다.




encode측의 그림에 있어서, 일본어의 등장 순서가 odashi_t씨의 그림과는 반대로 되어 있다.
역순으로 입력하면 실험적으로 좋은 결과를 얻을 수있는 것 같기 때문에 실험을 할 때는 odashi_t 씨의 예를 따르면 좋을 것 같다.

이해할 수있는 것처럼 느껴지면 Chainer를 사용하여 구현되었습니다.
- TensorFlow 샘플 프로그램에는 기계 번역이 포함되어있는 것 같습니다.
- Chainer에도 간단한 Seq2Seq 샘플이 있으면 좋습니까?

구현



htps : // 기주 b. 이 m/g329/세 q2세 q/bぉb/마s r/세 q2세 q. py
가능한 한 encoder-decoder의 기분이 전해지도록 썼다.
선인의 기사를 읽으면서 소스 코드를 바라보고 싶다.
python seq2seq.py

그리고 잠시 후 다음과 같은 출력을 얻을 수 있습니다.
teacher :  黄昏に天使の声響く時,聖なる泉の前にて待つ
->  5時に 噴水の前で 待ってます 

구마모토 사투리에서 일본어로의 번역 외에 영어에서 일본어 등 다양한 응용이 효과가 있다.
학습의 모습을 관찰하고 있으면, 순식간에 시간이 지나 버리므로 주의해 주었으면 한다.
데이터가 많이 있으면 "A Neural Conversational Model"에 실려있는 것도 가능한 것 같다. 꿈이 퍼진다.

기타



Seq2Seq는 조금 어레인지하는 것만으로 다양한 재미있는 움직임을 보여준다.
그 근처에 대해서는 LT의 준비가 끝난 곳에 다시 쓸 생각이다.

좋은 웹페이지 즐겨찾기