13일차: TWO ONC: Enhanking Learning and Generation Capacities via IBN-Net
읽은 논문
Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net
Xingang Pan • Ping Luo • Jianping Shi • Xiaoou Tang
https://arxiv.org/abs/1807.09441v2
상술한 논문을 읽고 나는 간단하게 총결하였다.
삼행으로 총결하다
제안 수법
BN (Batch Normalization) 1
Batch Normalization은 Ioffe 등이 2015년 발표한 기법으로 현재 주류인 CNN 모델에서 대부분 사용되는 기술이다. 쉽게 말해 미니 벌크 단위로 정규화할 뿐, 내부 공변량 편향을 방지하고,학수의 수렴 고속화와 과학 방지 등등. 상세한 내용여기 기사.도 언급되어 생략합니다.
IN (Instance Normalization) 2 3
인스타그램 정규화는 BN을 겨냥해 실례대로 정규화할 뿐이다. 또 최근에는 레이어 정규화, 그룹 정규화 등의 방안도 제시했다해설문도 있으니 제가 소개하겠습니다..
BN과 차이점 중 하나는 BN이 훈련할 때와 추론할 때 다른 변환을 하고 IN은 같은 변환을 한다는 것이다.
제안 모델
Fig.3.제시된 IN 가져오기 모드. IN을 가져올 때 두 가지를 주의해야 한다. 첫째, Deep층의 내용 간의 차이를 피하기 위해 CNN에서 마지막으로 IN을 가져오지 않는다. 다른 하나는 BN의 일부 기능을 보존하는 것이다.
Fig.3(a)은 기본 ResNet의 Residual Block입니다.
기타 Fig.4이렇게 여러 가지 IN의 도입 방법을 비교 검증했다. (그림의 identity는 어떤 수법으로 논문에서 읽을 수 없지만 연결된 정보를 건너뛰는 것(x)을 통해 그렇게 통과하고 Conv의 정보 IN을 통해 이렇게 해석했다(다르면 알려주세요).
평가 실험
다양한 실험이 있었지만 특히 흥미로운 결과는 위 그림에서 보듯이 시티캡스와 GTA 5 데이터 세트를 이용해 평가하고 한쪽으로 훈련해 양측이 평가할 때의 정밀도를 검증하고 있다.
결과에서 알 수 있듯이 훈련할 때와 추론할 때 같은 구역에서 정밀도를 높일 뿐만 아니라 구역에서도 정밀도를 높일 수 있다
총결산
주관자
대충 읽은 지 두 시간도 안 되어 다 읽었다. 역시 하루에 이렇게 많은 시간이 부담스러웠다. 매일 하기가 힘들다고 생각했지만 새로운 지식의 증가를 기대하며 복잡한 감정 속에서 기사를 썼다.
Ioffe, Sergey and Szegedy, Christian. Batch normalization: Accelerating deep network training byreducing internal covariate shift.arXiv preprint arXiv:1502.03167, 2015. ↩
Ulyanov, D., Vedaldi, A., Lempitsky, V.: Instance normal-ization: The missing ingredient for fast stylization.arXivpreprint arXiv:1607.08022, 2016. ↩
Reference
이 문제에 관하여(13일차: TWO ONC: Enhanking Learning and Generation Capacities via IBN-Net), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/himatya/items/e946d9c169282ad855f3텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)