[논문 시리즈] 겹겹이 쌓인 소음 제거 인코더
2247 단어 DeepLearningAutoencoder
원문
소음 제거 레이어 인코더: 국부 소음 제거 표준을 사용하는 심층 네트워크에서 유용한 특징량을 학습한다
Pascal Vincent (2010)
1. 요약
2. 뼈 이론
~ 소음의 종류~
· 고스 잡음 → 표준 정적 분포에 기반한 무작위 수를 입력값에 추가
· 노이즈 마스킹(MN) → 입력 요소 중 일부를 마스킹하여 인코더를 사용할 수 없게 함
· 소금 및 후추 노이즈(SP) → 입력 값 중 일부를 최대값 또는 최소값으로 변환(대부분 0과 1)(흑백 이미지와 같은 2값 데이터를 처리할 때 유효)
인코더의 평가 함수는 소음 상황에서도 포함된 모델링이다.우선 제곱 오차 함수를 평가하는 상황에서.
L_{2,\alpha}({\bf x},{\bf z}) = \alpha\Bigl(\sum_{j\in J(\tilde{\bf x})}({\bf x}_j - {\bf z}_j)^2\Bigr) + \beta\Bigl(\sum_{j\notin J(\tilde{\bf x})}({\bf x}_j - {\bf z}_j)^2\Bigr)
$J (\tilde{\bfx}) $는 잡음 항목의 집합을 나타냅니다.교차 엔트로피를 평가 함수에 놓을 때 다음과 같다.
L_{{\bf H},\alpha}({\bf x},{\bf z}) = \alpha\Bigl(-\sum_{j\in J(\tilde{\bf x})}[{\bf x}_j\log{\bf z}_j - (1-{\bf x}_j)\log(1-{\bf z}_j)]\Bigr) + \beta\Bigl(-\sum_{j\notin J(\tilde{\bf x})}[{\bf x}_j\log{\bf z}_j - (1-{\bf x}_j)\log(1-{\bf z}_j)]\Bigr)
α리본에서 를 클릭합니다.β매개변수 설정입니다.SDAE의 다이어그램은 다음과 같습니다.이 그림에서는 소음을 감추는 상태를 보여 준다.
3. 모델 적용 예
① 정방향 전파형 NN, DBN과의 비교
NIST에 다양한 발색 샘플을 적용하여 성능을 비교했습니다.
기대대로 3 계층 SDAE의 성능이 가장 좋습니다.
② 테스트 데이터의 잡음량과의 관계
소음이 적은 지역에서는 식별 능력이 겹쳐진 수량에 따라 높아진다.그러나 소음의 정도가 클수록 레이어드 효과의 차이는 적다.
③ SVM과 같은 NN 이외의 인식기 병용 정보
결론은 성능이 향상되었다는 것이다.
Reference
이 문제에 관하여([논문 시리즈] 겹겹이 쌓인 소음 제거 인코더), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/To_Murakami/items/f32125832327a92870c6텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)