Google AutoML의 NASNet에서 ObjectDetection
실행 환경
정확도와 실행 속도는 아래를 참조하십시오 (테스트 이미지와는 독립적 인 벤치 마크 결과).
htps : // 기주 b. 코 m / 천사 rf ぉ w / 모로 ls / b ぉ b / 마스 r / 레세아 rch / 오 b ct ct_에서 c chion / g3 또는 c / l_조오. md
faster_rcnn_nas(1833ms, mAP=43%)
faster_rcnn_nas_lowproposals_coco(540ms, mAP=NaN)
이쪽은 region proposal수를 떨어뜨려, 총 국소 분류수를 줄여 고속화한 모델이 되고 있는 것 같습니다.
테스트 이미지에서 거의 차이는 보이지 않았다.
참고로 다른 모델의 결과도
faster_rcnn_inception_resnet_v2_atrous_coco(620ms, mAP=37%)
faster_rcnn_resnet101_coco(106ms, mAP=32%)
rfcn_resnet101_coco(92ms, mAP=30%)
ssd_inception_v2_coco(42ms, mAP=24%)
ssd_mobilenet_v1_coco(30ms, mAP=21%)
NASNet은 정밀도가 높다(특히 resion proposal에서의 false positive의 저감이 현저)이지만, 네트워크의 규모가 크고 추론 속도가 느리기 때문에, 2017년 11월 현재는 Jetson(TegraX2,X1)과 같은 디바이스(SoC )에의 탑재나, 리얼타임 물체 인식 용도에는 아직도 엄격하다고 생각되는군요.
NASNet의 에지측에서의 응용에는, 추가 프로세서의 고성능화, 네트워크의 축소, 처리의 최적화(목적에 따른 region proposal수의 조정 등)등이 바람직하다고 생각합니다.
한편, 리얼타임성의 요건이 거기까지 엄격하지 않은 것에 대해서, 이미지 인식 WebAPI의 추론 엔진으로서의 응용은 적성이 높을까 생각했습니다.
참고:
htps : // 아 rぃ v. rg / pdf / 1707.07012. pdf
htps : // 기주 b. 코 m / 천사 rf ぉ w / 만약 ls / t ree / ma s r / resea rch / b b ct_에서 c chion
htps : // 기주 b. 코 m / 천사 rf ぉ w / 모로 ls / b ぉ b / 마스 r / 레세아 rch / 오 b ct ct_에서 c chion / g3 또는 c / l_조오. md
Reference
이 문제에 관하여(Google AutoML의 NASNet에서 ObjectDetection), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/algopia/items/6235775d4f9d1f71bcae텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)