DeepLearning으로 이미지의 모자이크 위치를 감지합니다.

이전에 이하에서 OpenCV등을 구사해 역기로 모자이크 검지를 했지만, 이번은 기계 학습으로 해 본다.
  • htps : // 이 m / sum r4 an / ms / 306 c5d38169f880ba 8
  • htps : // 기주 b. 코 m / sum r4 an / 모사이 c_에서 c와 r

  • 이용한 코드는 아래에.
    - htps : // 기주 b. 코 m / すめ r4 앙 / 모사이 c_에서 c와 r_ ぃth_DL

    Deep Learning CNN의 semantic segmentation을 사용했다.
    semantic segmentation에 대해서는 이하 등 참조.
  • htp : //포std. C / Semanchi C - S g 멘들 온 - 데에 p p ぇ 아 r n g - re w w /
  • htps //w w. s에서 멋지다. 네 t / 타k 민 / 세만 치 c 세 g 민들

  • FCN이나 DeepLab등 여러가지 네트워크가 있지만, TensorFlow에서의 구현이 있어 동작 되었다
    SegNet의 것을 이용한다.
    SegNet의 전 논문은 이것.
  • htps : // / r ぃ v. rg/bs/1511.00561

  • 아래 코드를 빌려.
  • htps : // 기주 b. 코 m / t 쿠안 350 / 천식 rf ぉ w-g t

  • 이미지 데이터는 타겟 모자이크를 포함하는 png 파일과,
    모자이크의 위치를 ​​나타내는 답변 PNG 파일이 필요합니다.

    대답의 png는 semantic segmentation에서는 일반적인 (?) 형식으로,
    라벨 부분(라벨의 순서로 #000000, #010101, #020202…)에 칠해진 것.

    이번 경우, 모자이크가 아닌 부분은 #000000으로, 모자이크 부분만 #010101로 바르고 학습시켜 보았지만,
    잘 판별할 수 없어(개발 도중이었기 때문에 이것이 원인이 아닐지도).
    배경은 #010101, 모자이크 부분은 #020202로 바른 곳 잘 됐다.

    절차.
  • 원본 이미지 준비. train, valid, test용으로 각각 500장 정도.
  • 001_mosaic_kakeru.sh 를 사용해 모자이크를 곱한 것과 곱한 부분을 나타내는 대답 png를 만든다.
  • 100_list_maker.sh 로 파일 리스트를 작성.
  • 101_gakusyuu.sh에서 학습. NVIDIA GTX 1060을 사용하여 20000 반복에서 5 시간 정도.
  • 로그 디렉토리에 생긴 연속번호명 첨부의 ckpt 파일을 201_move_model.sh 로 연속번호 없음.
  • 202_hantei.sh로 test용의 파일을 판정. 원본 이미지와 동일한 디렉토리에 생성됩니다.

  • 다음이 실제로 판별시킨 것.
    (이미지는 htp://가 g. 네 t / 011032- 또는 t-sun f u r s m l / 보다 배차)





    정밀도는 완전하다고는 말할 수 없지만 뭐 뭐?

    좋은 웹페이지 즐겨찾기