GAN의 어려움은 어디에 있습니까?

3222 단어 심층 학습

① GAN의 성능 평가의 어려움



GAN에는 명시적인 손실 함수가 없습니다. 그럼 도대체 어떻게 GAN의 성능의 좋은 점을 평가하면 좋을까.

생성된 샘플의 품질을 통계적으로 평가할 수 있는 두 가지 성능 평가 척도를 소개합니다.

1. Inception Score(IS)



이 분의 기사를 알기 쉽습니다. 그리고 이 분이 사용하고 있다 구체적인 예
이하에서는, 이 분의 기사 가 간결하게 정리되어 있었으므로 인용했습니다.

---이하 인용---
IS는 GAN의 성능을 어떤 관점에서 측정하고 있는가 하면,
1. 이미지 식별자가 식별하기 쉬운지 여부
2. 식별처의 클래스의 변이가 다양화인가
의 두 가지 관점이다.

xi 를 생성한 이미지(i는 이미지의 인덱스로 총수는 N으로 한다), y 를 라벨(클래스)로 하면, 위의 1. 은 조건부 분포 p(y|xi)의 엔트로피가 작아지는 것을 의미 한다. 반면에 2.는 i에 대해 p (y | xi)가 적분 된 주변 분포 p (y)의 엔트로피가 커짐을 의미합니다. 따라서 두 분포 사이의 거리를 측정하기 위해 KL 다이버 젠스를 사용하고 이것을 i에 대해 평균화 한 후 exp를 취한 것이 inception score입니다.




--- 인용 종료---

단지 이 IS라면, 생성되는 화상의 바리에이션이 적은 경우에서도, 생성기가 고성능이라고 판단되어 버릴 가능성이 있습니다.

2. Frechet Inception Distance(FID)



여기도 GAN을 평가할 때 사용되는 평가 지표이다. GAN에서 생성한 이미지의 분포를 A1, GAN에서 생성하고 싶은 이미지의 분포 A2의 거리를 계산한 것이 FID. FID는 값이 작을수록 생성 된 이미지가 좋은 이미지로 평가됩니다.

화상의 분포 A1, A2의 평균 벡터를 μ1, μ2, 공분산 행렬을 Σ1, Σ2로 하면, FID는 이하에 나타낸다.


② 훈련의 어려움



참고 기사

GAN은 명확한 목적함수가 없기 때문에 에서처럼 훈련하면 좋을지가 어렵다.
이하에서는 3개의 목적함수를 소개한다.

· MinMax GAN




형식적으로 정해진 것이며 실제로는 잘 움직이지 않는다.

・NS GAN



수학적 보증은 없지만 실용적인 성능을 발휘합니다.

· Wasserstein GAN



수학적 근거도 있고 성능도 우수하다.
JSD 차이, 파라미터의 최적점 부근에서도 그라디언트가 소실되지 않는다.
GAN의 손실 함수를 다시 설계하고 JS 다이버전스를 사용한 곳을 Wasserstein 거리로 변경함으로써 학습을 가속화하고 안정시킬 수 있었다
여기 기사 알기 쉽습니다.

③훈련에서의 궁리



1. 입력 정규화



2. 배치 정규화



생성기에 사용하면 가끔 악영향을 미칠

3. 식별자를 더 훈련



생성기가 아무것도 생성하지 않는 동안 식별자를 잘 훈련시킵니다.
훈련주기 내에서 식별자를 더 많이 훈련

4. ReLU가 아닌 Leaky ReLU, max pooling보다 ave pooling



정보 손실을 최소화하고 정보 흐름이 정확하고 이상한 오류 역전파를 피합니다.

좋은 웹페이지 즐겨찾기