13일차: TWO ONC: Enhanking Learning and Generation Capacities via IBN-Net

Twoat Once: Enhaning Learning and Generation Capacities via IBN-Net 개요
읽은 논문
Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net
Xingang Pan • Ping Luo • Jianping Shi • Xiaoou Tang
https://arxiv.org/abs/1807.09441v2
상술한 논문을 읽고 나는 간단하게 총결하였다.
삼행으로 총결하다
  • 기존 모델 구조는 단역 단일 작업 성능을 향상시키는 것으로 설계되었다
  • .
  • 가 제시한 방법(IBN-Net)은 특정 영역(e.g.Citycapes)의 모델링 능력을 향상시켰을 뿐만 아니라 다른 영역(e.g.GTA5)의 일반화 능력을 향상시켰을 뿐만 아니라Fine-tuning도 없었다.
  • ResNet 등 기존 방법과 병용할 수 있는 방법으로 IN(Instance Normalization)과 BN(Batch Normalization)을 고도로 집적하는 방법
  • 을 제시한다.
    제안 수법
    BN (Batch Normalization) 1
    Batch Normalization은 Ioffe 등이 2015년 발표한 기법으로 현재 주류인 CNN 모델에서 대부분 사용되는 기술이다. 쉽게 말해 미니 벌크 단위로 정규화할 뿐, 내부 공변량 편향을 방지하고,학수의 수렴 고속화와 과학 방지 등등. 상세한 내용여기 기사.도 언급되어 생략합니다.
    IN (Instance Normalization) 2 3
    인스타그램 정규화는 BN을 겨냥해 실례대로 정규화할 뿐이다. 또 최근에는 레이어 정규화, 그룹 정규화 등의 방안도 제시했다해설문도 있으니 제가 소개하겠습니다..
    BN과 차이점 중 하나는 BN이 훈련할 때와 추론할 때 다른 변환을 하고 IN은 같은 변환을 한다는 것이다.
    제안 모델

    Fig.3.제시된 IN 가져오기 모드. IN을 가져올 때 두 가지를 주의해야 한다. 첫째, Deep층의 내용 간의 차이를 피하기 위해 CNN에서 마지막으로 IN을 가져오지 않는다. 다른 하나는 BN의 일부 기능을 보존하는 것이다.
    Fig.3(a)은 기본 ResNet의 Residual Block입니다.

    기타 Fig.4이렇게 여러 가지 IN의 도입 방법을 비교 검증했다. (그림의 identity는 어떤 수법으로 논문에서 읽을 수 없지만 연결된 정보를 건너뛰는 것(x)을 통해 그렇게 통과하고 Conv의 정보 IN을 통해 이렇게 해석했다(다르면 알려주세요).
    평가 실험

    다양한 실험이 있었지만 특히 흥미로운 결과는 위 그림에서 보듯이 시티캡스와 GTA 5 데이터 세트를 이용해 평가하고 한쪽으로 훈련해 양측이 평가할 때의 정밀도를 검증하고 있다.
    결과에서 알 수 있듯이 훈련할 때와 추론할 때 같은 구역에서 정밀도를 높일 뿐만 아니라 구역에서도 정밀도를 높일 수 있다
    총결산
  • BN과 IN을 조합하는 방법으로 표현력을 높이는 방법을 제시했다.
  • 이 방법은 전통적인 모델 구조에도 사용할 수 있기 때문에 응용의 폭이 매우 넓은 것 같다
  • 한편으로는 Group Normalization 등의 수법도 등장했고 저도 가보고 싶어요.
    주관자
    대충 읽은 지 두 시간도 안 되어 다 읽었다. 역시 하루에 이렇게 많은 시간이 부담스러웠다. 매일 하기가 힘들다고 생각했지만 새로운 지식의 증가를 기대하며 복잡한 감정 속에서 기사를 썼다.
    Ioffe, Sergey and Szegedy, Christian. Batch normalization: Accelerating deep network training byreducing internal covariate shift.arXiv preprint arXiv:1502.03167, 2015.  
  • Ulyanov, D., Vedaldi, A., Lempitsky, V.: Improved texture networks: Maximiz-ing quality and diversity in feed-forward stylization and texture synthesis. CVPR(2017)  
    Ulyanov, D., Vedaldi, A., Lempitsky, V.: Instance normal-ization: The missing ingredient for fast stylization.arXivpreprint arXiv:1607.08022, 2016.  

    좋은 웹페이지 즐겨찾기