AWS GPU 환경에서 스타일 변환을 시도했습니다.

3626 단어 StyleTransferGPUAWS

■ 검증 환경(AWS)


  • 지역: 미국 동부(버지니아 북부):
  • AMI: Deep Learning AMI (Ubuntu) Version 23.0 - ami-0bc213dc857866046
  • 인스턴스: p2.xlarge(NVIDIA K80 GPU)
  • 스토리지: 100GB(범용 SSD(gp2))

  • ■ 환경 설정


  • Deep Learning AMI에는 심층 학습 프레임 워크 등이 사전 설치되어 있으므로 사용자 설정이 필요하지 않습니다
  • ⇒ 프레임워크를 선택하면 사용 가능
  • 이번에는 TensorFlow(python2계)를 이용

  • $ source activate tensorflow_p27
    

    ■ 스타일 변환의 동작 검증


  • 사용한 소스 코드: htps : // 기주 b. 코 m / ぇ gst 로 m / 훗 st-sty ぇ t ran s fu r

  • 〇STEP.1 모델 작성


  • 부족 패키지 도입
  • $ pip install moviepy
    
  • 소스 코드 다운로드
  • $ git clone https://github.com/lengstrom/fast-style-transfer.git
    $ cd fast-style-transfer/
    
  • 학습용 이미지 다운로드
  • data/train2014에 저장

  • $ ./setup.sh
    
  • 모델링
  • style은 example 폴더에서 the_scream.jpg를 사용합니다
  • 계산시간은 7시간 정도

  • $ python style.py --style example/style/the_scream.jpg \
       --train-path data/train2014 \
       --checkpoint-dir checkpoint/ \
       --test examples/content/chicago.jpg \
       --test-dir examples/content
    
  • 출력 파일:
  • checkpoint
  • fns.ckpt.index
  • fns.ckpt.meta
  • fns.ckpt.data-00000-of-00001


  • 〇 STEP.2 스타일 변환


  • STEP.1에서 계산 된 모델을 사용하여 변환 처리를 수행합니다.
    $ python evaluate.py --checkpoint-dir checkpoint --in-path input.jpg --out-path output.jpg
    
  • 동영상을 변환하려면 다음을 수행하십시오.
    $ python transform_video.py --checkpoint-dir checkpoint --in-path input.mp4 --out-path output.mp4
    
  • 학습된 모델은 다음으로부터 취득할 수도 있다.
  • h tps://d ゔぇ. 오, ぇ. 이 m/d ゔぇ/후ぉl에서 rs/0B9j는 T37ydSyRk9우 X0~wX3BpMzQ

  • 계산 시간은 몇 초 정도
  • 변환 처리는 비 GPU 환경에서도 가능


  • ■ 스타일 변환 결과


  • 원본 이미지:



  • 스타일 변환 후:










  • 좋은 웹페이지 즐겨찾기