"Discover Cross-Domain Relations with Generative Adversarial Networks."대충 소개하다
                                            
                                                
                                                
                                                
                                                
                                                
                                                 2828 단어  DeepLearning기계 학습Python
                    
Discover Cross-Domain "Relations with Generative Adversarial Networks 
최근에 머신러닝을 공부하다가 최근에 재미있는 논문을 발표했는데 제가 소개해 드릴게요.
오늘은 unsupervised image to image의 일종입니다.
"Discover Cross-Domain "Relations with Generative Adversarial Networks"
https://arxiv.org/abs/1703.05192 
대충 소개하다.
※ GAN에 대한 설명을 생략할 수 있습니다. *일
지금까지 교사로서의 image to image.
"Image-to-Image Translation with Conditional Adversarial Networks"
https://phillipi.github.io/pix2pix/ 
사회가 떠들썩하다.
하지만 이 녀석은 문제가 하나 있다. 표기와 번거로움에 대응하는 이미지로만 배울 수 있기 때문에 데이터 집합을 준비하기가 어렵다.
이번에 소개된 GAN은 unsupervised(교사가 없어도 상당히 높은 정밀도를 낼 수 있으니 꼭 소개해 주세요.
전체 네트워크는 다음과 같습니다.
 
 
이 GAN의 소스는 Gab과 Gba를 교차 학습시켜 두 이미지 사이에서 식별하고 싶은 영역을 배울 수 있다.
새로운 난이론은 결코 나타나지 않았다.
주의해야 할 것은Generator의loss 함수는 원시 이미지와 복구 이미지 사이의 거리를 고려했다.
이전에 나타난 unsupervised계보다 통용성이 높다*2.
발표 3일 후, torchpy에 설치가 발표되었기 때문에 나도 한번 움직여 보았다.
(21000 iteration)
https://github.com/carpedm20/DiscoGAN-pytorch 
 
 
 
 
교사가 없는 상황에서 이렇게 높은 정밀도를 낼 수 있다는 것은 정말 감동적이다.
총결산 
이것을 사용하면 거친 그림 to선 그림 같은 데이터 집합도 간단하게 준비할 수 있다.
앞으로도 unsupevised의 image to image에 관심을 갖고 싶습니다.
*1GAN의 다음 논문도 수학적 배경을 적어 이해하기 쉽다.
https://arxiv.org/pdf/1406.2661.pdf 
*2unsupervised image to image 학과에서 유명한 곳은 다음과 같은 논문을 들 수 있습니다.
1,"Learning from Simulated and Unsupervised Images through Adversarial Training"
https://arxiv.org/abs/1612.07828 
2,"Unsupervised Image-to-Image Translation with Generative Adversarial Networks"
https://arxiv.org/abs/1701.02676 
1 원본 이미지와refine 이미지의 거리이기 때문에 비슷한 이미지 사이에서만 어렵다고 생각합니다.
2의 통용성도 매우 높지만 나는 단지 유한한 범위 내에 있다고 생각한다.
                
                    
        
    
    
    
    
    
                
                
                
                
                    
                        
                            
                            
                            Reference
                            
                            이 문제에 관하여("Discover Cross-Domain Relations with Generative Adversarial Networks."대충 소개하다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
                                
                                https://qiita.com/latte_zero/items/e4cb957fa82bd6279500
                            
                            
                            
                                텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
                            
                            
                                
                                
                                 우수한 개발자 콘텐츠 발견에 전념
                                (Collection and Share based on the CC Protocol.)
                                
                                
                                우수한 개발자 콘텐츠 발견에 전념
                                (Collection and Share based on the CC Protocol.)
                            
                            
                        
                    
                
                
                
            
이것을 사용하면 거친 그림 to선 그림 같은 데이터 집합도 간단하게 준비할 수 있다.
앞으로도 unsupevised의 image to image에 관심을 갖고 싶습니다.
*1GAN의 다음 논문도 수학적 배경을 적어 이해하기 쉽다.
https://arxiv.org/pdf/1406.2661.pdf
*2unsupervised image to image 학과에서 유명한 곳은 다음과 같은 논문을 들 수 있습니다.
1,"Learning from Simulated and Unsupervised Images through Adversarial Training"
https://arxiv.org/abs/1612.07828
2,"Unsupervised Image-to-Image Translation with Generative Adversarial Networks"
https://arxiv.org/abs/1701.02676
1 원본 이미지와refine 이미지의 거리이기 때문에 비슷한 이미지 사이에서만 어렵다고 생각합니다.
2의 통용성도 매우 높지만 나는 단지 유한한 범위 내에 있다고 생각한다.
Reference
이 문제에 관하여("Discover Cross-Domain Relations with Generative Adversarial Networks."대충 소개하다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/latte_zero/items/e4cb957fa82bd6279500텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
                                
                                
                                
                                
                                
                                우수한 개발자 콘텐츠 발견에 전념
                                (Collection and Share based on the CC Protocol.)