Adversarial Latent Autoencoders
2075 단어 Autoencoder
Lane Department of Computer Science and Electrical Engineering
GAN의 그림은 매우 아름답지만 화면을 제어할 수 없다.AE계는 화면을 제어할 수 있지만 화면이 망가질 수 있다는 게 예전의 문제로, AE와 GAN의 장점으로 잘 처리됐다.확실히 그것은 획기적인 아름다운 그림처럼 보인다.
개요
전주
일반적인 VAE에서는 숨겨진 변수 공간이 고정된 사전 확률 분포에 가깝다.
한편, GAN의 연구는 입력에서 충분히 멀리 떨어진 중간층이 잘 disentangle되었다는 것을 증명했다.
A) 데이터에서 숨겨진 공간의 분포를 배워서 disentangle를 할 수 있다.
B) 출력 분포를adversarial에 훈련한다.
C) AE 상호 혜택 유지
C의 뜻은 모르지만 x->z->x가 성립한다는 뜻인 것 같아요.
수법
하는 일은 의외로 간단하고 훈련은 기본적으로 GAN에서 진행되며 그때 사용했던 인코더와 디코더를 사용하여 이미지를 재구성하는 등이다.
그림의 맨 위에 있는 F->w->G가 GAN에서 말한 생성 네트워크.오른쪽 E->D 섹션은 Discriminator 네트워크에 해당합니다.요점
- 생성 네트워크, Discriminator 네트워크를 각각 두 부분으로 나누고 그 중 일부는 인코더(E), 디코더(G)로 사용한다.
-F와 G 사이의 w와 E와 D 사이의 관계는 Representation에 해당하며 이 두 가지를 동일하게 하기 위해 최적화되었다.
평점
7.1 평가에서는 MNIST를 1차원 배열로 설정한 장치를 활용한다.CNN이 아니라 MLP야.
7.2 StyleAL AE와 StyleGAN을 비교합니다.
https://arxiv.org/abs/1812.04948 StyleGAN의 논문에서 제시한 PPL Perceptual path length로 비교
Reference
이 문제에 관하여(Adversarial Latent Autoencoders), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/hidemotoNakada/items/1ec98a56f77b01845024텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)