GAN의 어려움은 어디에 있습니까?
3222 단어 심층 학습
① GAN의 성능 평가의 어려움
GAN에는 명시적인 손실 함수가 없습니다. 그럼 도대체 어떻게 GAN의 성능의 좋은 점을 평가하면 좋을까.
생성된 샘플의 품질을 통계적으로 평가할 수 있는 두 가지 성능 평가 척도를 소개합니다.
1. Inception Score(IS)
이 분의 기사를 알기 쉽습니다. 그리고 이 분이 사용하고 있다 구체적인 예
이하에서는, 이 분의 기사 가 간결하게 정리되어 있었으므로 인용했습니다.
---이하 인용---
IS는 GAN의 성능을 어떤 관점에서 측정하고 있는가 하면,
1. 이미지 식별자가 식별하기 쉬운지 여부
2. 식별처의 클래스의 변이가 다양화인가
의 두 가지 관점이다.
xi 를 생성한 이미지(i는 이미지의 인덱스로 총수는 N으로 한다), y 를 라벨(클래스)로 하면, 위의 1. 은 조건부 분포 p(y|xi)의 엔트로피가 작아지는 것을 의미 한다. 반면에 2.는 i에 대해 p (y | xi)가 적분 된 주변 분포 p (y)의 엔트로피가 커짐을 의미합니다. 따라서 두 분포 사이의 거리를 측정하기 위해 KL 다이버 젠스를 사용하고 이것을 i에 대해 평균화 한 후 exp를 취한 것이 inception score입니다.
--- 인용 종료---
단지 이 IS라면, 생성되는 화상의 바리에이션이 적은 경우에서도, 생성기가 고성능이라고 판단되어 버릴 가능성이 있습니다.
2. Frechet Inception Distance(FID)
여기도 GAN을 평가할 때 사용되는 평가 지표이다. GAN에서 생성한 이미지의 분포를 A1, GAN에서 생성하고 싶은 이미지의 분포 A2의 거리를 계산한 것이 FID. FID는 값이 작을수록 생성 된 이미지가 좋은 이미지로 평가됩니다.
화상의 분포 A1, A2의 평균 벡터를 μ1, μ2, 공분산 행렬을 Σ1, Σ2로 하면, FID는 이하에 나타낸다.
② 훈련의 어려움
참고 기사
GAN은 명확한 목적함수가 없기 때문에 에서처럼 훈련하면 좋을지가 어렵다.
이하에서는 3개의 목적함수를 소개한다.
· MinMax GAN
형식적으로 정해진 것이며 실제로는 잘 움직이지 않는다.
・NS GAN
수학적 보증은 없지만 실용적인 성능을 발휘합니다.
· Wasserstein GAN
수학적 근거도 있고 성능도 우수하다.
JSD 차이, 파라미터의 최적점 부근에서도 그라디언트가 소실되지 않는다.
GAN의 손실 함수를 다시 설계하고 JS 다이버전스를 사용한 곳을 Wasserstein 거리로 변경함으로써 학습을 가속화하고 안정시킬 수 있었다
여기 기사 알기 쉽습니다.
③훈련에서의 궁리
1. 입력 정규화
2. 배치 정규화
생성기에 사용하면 가끔 악영향을 미칠
3. 식별자를 더 훈련
생성기가 아무것도 생성하지 않는 동안 식별자를 잘 훈련시킵니다.
훈련주기 내에서 식별자를 더 많이 훈련
4. ReLU가 아닌 Leaky ReLU, max pooling보다 ave pooling
정보 손실을 최소화하고 정보 흐름이 정확하고 이상한 오류 역전파를 피합니다.
Reference
이 문제에 관하여(GAN의 어려움은 어디에 있습니까?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/merry1221/items/8bddb1c483201873fe92
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
참고 기사
GAN은 명확한 목적함수가 없기 때문에 에서처럼 훈련하면 좋을지가 어렵다.
이하에서는 3개의 목적함수를 소개한다.
· MinMax GAN
형식적으로 정해진 것이며 실제로는 잘 움직이지 않는다.
・NS GAN
수학적 보증은 없지만 실용적인 성능을 발휘합니다.
· Wasserstein GAN
수학적 근거도 있고 성능도 우수하다.
JSD 차이, 파라미터의 최적점 부근에서도 그라디언트가 소실되지 않는다.
GAN의 손실 함수를 다시 설계하고 JS 다이버전스를 사용한 곳을 Wasserstein 거리로 변경함으로써 학습을 가속화하고 안정시킬 수 있었다
여기 기사 알기 쉽습니다.
③훈련에서의 궁리
1. 입력 정규화
2. 배치 정규화
생성기에 사용하면 가끔 악영향을 미칠
3. 식별자를 더 훈련
생성기가 아무것도 생성하지 않는 동안 식별자를 잘 훈련시킵니다.
훈련주기 내에서 식별자를 더 많이 훈련
4. ReLU가 아닌 Leaky ReLU, max pooling보다 ave pooling
정보 손실을 최소화하고 정보 흐름이 정확하고 이상한 오류 역전파를 피합니다.
Reference
이 문제에 관하여(GAN의 어려움은 어디에 있습니까?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/merry1221/items/8bddb1c483201873fe92
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(GAN의 어려움은 어디에 있습니까?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/merry1221/items/8bddb1c483201873fe92텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)