Google AutoML의 NASNet에서 ObjectDetection

Google사의 AutoML로 자동 학습된 NASNet이, 인간이 구축해 온 모델보다 정밀도가 높다고 하는 것으로, 조속히 시험해 보았습니다.

실행 환경


  • AWS EC2 p3.2xlarge
  • Ubuntu16.04
  • cuda-9.0, cuDNN-7.0
  • tensorflow r1.4 (소스 빌드)
  • 파이썬 3.5.2

  • 정확도와 실행 속도는 아래를 참조하십시오 (테스트 이미지와는 독립적 인 벤치 마크 결과).
    htps : // 기주 b. 코 m / 천사 rf ぉ w / 모로 ls / b ぉ b / 마스 r / 레세아 rch / 오 b ct ct_에서 c chion / g3 또는 c / l_조오. md

    faster_rcnn_nas(1833ms, mAP=43%)







    faster_rcnn_nas_lowproposals_coco(540ms, mAP=NaN)



    이쪽은 region proposal수를 떨어뜨려, 총 국소 분류수를 줄여 고속화한 모델이 되고 있는 것 같습니다.
    테스트 이미지에서 거의 차이는 보이지 않았다.




    참고로 다른 모델의 결과도

    faster_rcnn_inception_resnet_v2_atrous_coco(620ms, mAP=37%)







    faster_rcnn_resnet101_coco(106ms, mAP=32%)







    rfcn_resnet101_coco(92ms, mAP=30%)







    ssd_inception_v2_coco(42ms, mAP=24%)







    ssd_mobilenet_v1_coco(30ms, mAP=21%)







    NASNet은 정밀도가 높다(특히 resion proposal에서의 false positive의 저감이 현저)이지만, 네트워크의 규모가 크고 추론 속도가 느리기 때문에, 2017년 11월 현재는 Jetson(TegraX2,X1)과 같은 디바이스(SoC )에의 탑재나, 리얼타임 물체 인식 용도에는 아직도 엄격하다고 생각되는군요.
    NASNet의 에지측에서의 응용에는, 추가 프로세서의 고성능화, 네트워크의 축소, 처리의 최적화(목적에 따른 region proposal수의 조정 등)등이 바람직하다고 생각합니다.

    한편, 리얼타임성의 요건이 거기까지 엄격하지 않은 것에 대해서, 이미지 인식 WebAPI의 추론 엔진으로서의 응용은 적성이 높을까 생각했습니다.

    참고:
    htps : // 아 rぃ v. rg / pdf / 1707.07012. pdf
    htps : // 기주 b. 코 m / 천사 rf ぉ w / 만약 ls / t ree / ma s r / resea rch / b b ct_에서 c chion
    htps : // 기주 b. 코 m / 천사 rf ぉ w / 모로 ls / b ぉ b / 마스 r / 레세아 rch / 오 b ct ct_에서 c chion / g3 또는 c / l_조오. md

    좋은 웹페이지 즐겨찾기