【논문 시리즈】음성 인식의 심층 학습 이론(DBN+HMM)
1638 단어 DeepLearning기계 학습음성 인식
원문
다중 어휘 음성 인식을 위한 문맥 의존적이고 사전 학습된 심층 신경망 George E. Dahl, Dong Yu, Senior Member, IEEE, Li Deng, Fellow, IEEE, and Alex Acero, Fellow, IEEE (2012)
1. 요약/배경
2. 골자의 이론
(1) DBN에 의한 사전 학습
적층 RBM의 학습으로 표현한다. 음성 데이터는 실수 연속 값을 취하기 때문에 Gaussian RBM을 사용합니다.
P({\bf v}|{\bf h}) = N({\bf v}; {\bf b} + {\bf h}^T{\bf W}^T, I)
(2) HMM에 의한 신호의 배열 예측
(1)의 사전 학습으로 추출된 특징량은 반복적으로 상기된 확률 모델에 적용된다(Generative Model; 생성 모델). 적용된 확률 분포 중 우도가 좋은 것은 학습 결과에 의해 결정됩니다.
확률 분포의 유형은 숨겨진 마르코프 모델에 기초한다.
HMM으로 표현하고 있는 것은, 3음소(Senone)가 「어떤 천이 확률」로 제어되어 변이하는 거동이다.
true가 좋을 때의 파라미터 w가 새로운 파라미터로서 갱신된다;
\hat w = \arg\max_w p(w|{\bf x}) = \arg\max_w p({\bf x}|w)p(w)/p({\bf x})
3. 모델 적용 예
5층의 숨겨진 층 2000개 이상의 유닛을 갖춘 DNN과 GMM에 의한 성능의 차이를 확인했다.
눈부신 변화가 있다고는 말할 수 없지만, 약간의 변화는 인정되었다.
과제는 계산 시간이다.
병렬 처리가 어려운 구조이기 때문에 시간 절약화가 어렵다.
Reference
이 문제에 관하여(【논문 시리즈】음성 인식의 심층 학습 이론(DBN+HMM)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/To_Murakami/items/0919eae7ad19872be937텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)