Chainer로 간단한 구마모토 밸브 번역
2025 단어 ChainerDeepLearning
배경
어느 날 나는 기계 번역에 관심이 있었다.
(영어에 시달리는 일본의 연구자의 목소리를 들었기 때문일지도 모르고, 공부회의 준비에 쫓기고 있었기 때문일지도 모른다.)
그러나 나는 문외 한이기 때문에 encoder-decoder 모델의 "그"그림을 읽을 수 없었다.
요전날 기분을 잡을 수 있었으므로, 나름대로 씹은 것을 기록·공유하기 위해서 이 기사를 썼다.
선인의 자세한 기사
h tp : 작은 m/출처_t/있어 MS/아1베 7C4964f베어6아116화
RNN 다이어그램 번역
번역까지의 흐름을 다른 관점에서 그렸다.
encoder-decoder 모델에 의해 "그는 달린다"를 "He runs"로 번역하기까지의 흐름은 다음과 같다.
encode측의 그림에 있어서, 일본어의 등장 순서가 odashi_t씨의 그림과는 반대로 되어 있다.
역순으로 입력하면 실험적으로 좋은 결과를 얻을 수있는 것 같기 때문에 실험을 할 때는 odashi_t 씨의 예를 따르면 좋을 것 같다.
이해할 수있는 것처럼 느껴지면 Chainer를 사용하여 구현되었습니다.
- TensorFlow 샘플 프로그램에는 기계 번역이 포함되어있는 것 같습니다.
- Chainer에도 간단한 Seq2Seq 샘플이 있으면 좋습니까?
구현
htps : // 기주 b. 이 m/g329/세 q2세 q/bぉb/마s r/세 q2세 q. py
가능한 한 encoder-decoder의 기분이 전해지도록 썼다.
선인의 기사를 읽으면서 소스 코드를 바라보고 싶다.
python seq2seq.py
그리고 잠시 후 다음과 같은 출력을 얻을 수 있습니다.
teacher : 黄昏に天使の声響く時,聖なる泉の前にて待つ
-> 5時に 噴水の前で 待ってます
구마모토 사투리에서 일본어로의 번역 외에 영어에서 일본어 등 다양한 응용이 효과가 있다.
학습의 모습을 관찰하고 있으면, 순식간에 시간이 지나 버리므로 주의해 주었으면 한다.
데이터가 많이 있으면 "A Neural Conversational Model"에 실려있는 것도 가능한 것 같다. 꿈이 퍼진다.
기타
Seq2Seq는 조금 어레인지하는 것만으로 다양한 재미있는 움직임을 보여준다.
그 근처에 대해서는 LT의 준비가 끝난 곳에 다시 쓸 생각이다.
Reference
이 문제에 관하여(Chainer로 간단한 구마모토 밸브 번역), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/_329_/items/1d5de7b8213b112a3df7텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)