pix2pix 모델을 사용해보기

소개



이번은 최근 떡으로 소문의 pix2pix 모델을 인스톨 해, 사용해 본다. 라벨에서 이미지를 생성하거나 항공 사진에서 지도를 생성하는 등 여러가지 할 수 있는 것 같다.

논문은 P. Isola 등의 Image-to-Image Translation Using Conditional Adversarial Networks.
htps : // / r ぃ v. rg / pdf / 1611. 07004v1. pdf

소스 코드는 이쪽.
htps : // 기주 b. 코 m/p 히피/피 x2 피 x

저자들의 홈페이지는 이쪽.
htps: //p 히피. 기주 b. 이오/피 x2 피 x/

환경



OS:Ubuntu14.04
GPU:GTX1070
CUDA:8.0 RC
cuDNN:5.1
python2.7.6


Torch 관련 설치



Torch는 이미 설치되어 있습니다.
ぃ tp // 코 m / 설마 46 / ms / 41f9 후 c011590f3cd4f1
torch 관련 패키지의 nngraphとdesplay를 설치한다.
luarocks install nngraph
luarocks install https://raw.githubusercontent.com/szym/display/master/display-scm-0.rockspec

잘 된 것 같다.

Image-to-image 모델을 설치합니다.



모델을 git clone 한다.
git clone https://github.com/phillipi/pix2pix.git

그런 다음 데이터를 가져옵니다.
cd pix2pix
bash ./datasets/download_dataset.sh facades

배워보자



다음에 다운로드한 데이터 세트로 학습시켜 보자.
DATA_ROOT=./datasets/facades name=facades_generation which_direction=BtoA th train.lua

2시간 반으로 200회의 학습이 종료되었다.

학습한 모델로 테스트하기



마지막으로 학습한 모델로 테스트한다.
DATA_ROOT=./datasets/facades name=facades_generation which_direction=BtoA phase=val th test.lua

결과는 ./results/facades_generation/latest_net_G_val/index.html에 저장되었다. 다음 이미지는 출력 결과의 일부입니다.


Output으로서 생성된 이미지는 GroundTruth와는 다르지만, 이런 건물은 확실히 있을 것 같기 때문에, 이것은 이것으로 좋다고 생각한다. 학습용 데이터에 영향을 받고 있을 것이다.

좋은 웹페이지 즐겨찾기