논문 요약: ANOMALY DETECTION WITH GENERATIVE ADVERSARIAL NETWORKS

2238 단어 GANsCNNDeepLearning

소개



ICLR 2018에서 다음 논문
[1] L. Deecke, et. al. "ANOMALY DETECTION WITH GENERATIVE ADVERSARIAL NETWORKS"
요약

논문 페이지
htps : //오페렌ゔぃ에w. 네 t/흠 m? 아니 d = S1에 fylZ0Z

관련 기사로 GANs를 사용한 모델 anoGAN 요약
htps : // 이 m / 설마 46 / ms / 09 에 4 13 097 68174cd

특히 anoGAN과의 차이라는 관점에서 정리

개요



우선 anoGAN과 같은 점.
  • GANs를 사용한 이상 감지 모델
  • GAN이 정상 데이터를 생성하도록 학습 한 후 주어진 이미지에 해당하는 노이즈를 탐색하여 이미지가 정상인지 비정상인지를 결정합니다
  • .

    다음 anoGAN과 다른 점.
  • 노이즈 검색 단계에서 $ z $의 초기 값을 여러 개 취하고 비정상적인 점수를 계산할 때 평균값을 사용합니다
  • .
  • 노이즈 탐색 단계에서 생성기 매개 변수 업데이트
  • 노이즈 검색 및 비정상적인 점수 계산에 discriminator 출력 (또는 중간 레이어 출력)을 사용하지 않음

  • 노이즈 탐색 단계의 알고리즘



    다음 ([1] algorithm 1)은 노이즈 탐색 단계에서의 알고리즘입니다.



    손실: $l$
    generator 매개변수: $\theta$
    소음: $z$

    노이즈 탐색 학습



    anoGAN과 마찬가지로 노이즈 $ z $를 그라디언트 강하 방법으로 업데이트합니다.
    z_{j,l} \leftarrow z_{j,l-1} - \gamma \cdot \nabla_{z_{j,l-1}} l (g_{\theta_{j,l-1}} (z_{j,l-1}), x)
    

    anoGAN과 달리 generator의 파라미터도 갱신한다.
    \theta_{j,l} \leftarrow \theta_{j,l-1} - \gamma_{\theta} \cdot \nabla_{\theta_{j,l-1}} l (g_{\theta_{j,l-1}} (z_{j,l-1}), x)
    

    generator의 파라미터까지 갱신해 버려 괜찮습니까? 라는 의문이 솟을 것이다. 갱신된 $g'(z)$ 는 정상치로 학습한 $g(z)$ 와는 다르므로, 그러면 정상·이상의 판정을 할 수 있을까? 그리고.

    그 근처, Bojanowski [2] 라든지에 쓰여져있는 것 같지만, 제대로 읽지 않습니다.

    비정상적인 점수 계산



    anoGAN과 달리 검색은 $z$의 초기값을 바꾸어 $n_{seed}$회 실시한다. 비정상적인 점수는 이러한 평균값입니다.
    A(x) = \frac{1}{n_{seed}} \sum^{n_{seed}}_{j=1} {l}(g_{\theta_{j,l-1}} (z_{j,l-1}), x)
    

    참조



    [2] P. Bojanowski, et. al."Optimizing the Latent Space of Generative Networks"

    좋은 웹페이지 즐겨찾기