【Semantic Segmentation】DeepLab(v3+) : DeepLab(v3)와의 차이는?
배경
DeepLab(v1) , DeepLab(v2) , DeepLab(v3) 를 조사했으니 마지막으로 DeepLab(v3+)를 요약하고 update에 대해 비교해 나가고 싶다.
모두 읽는 것이 힘들었다 (T_T)
version3에서 update
DeepLabv3에서는 (a)의 Encoder만으로 1/8 사이즈의 Semantic Map을 8배로 interpolation하여 최종 출력으로 했다.
그러나, 그것이라고 1/8의 거칠기의 정밀도 밖에 나오지 않기 때문에, Decoder를 일부 도입하는 것으로 한 것 같다.
MobileNet에서 나온 Depthwise, Pointwise Conv, 공간 방향과 Channel 방향으로 나누어 2회 컨벌루션하는 편이, 보통의 Convolution보다 계산량이 작아진다.
자세한 것은 이 근처를 참고로 해 주세요
htps : // 이 m / 오미타 / ms / 77 d5 a 7b16 a 104 df83
Dilated(Atrous) Conv에도 같은 것을 적용하여 계산량을 낮추었다.
또 다른 차이는 ResNet을 Xception로 바꾼 것.
결론
새로운 update는 다음 3가지
· 디코더 추가
· Depthwise Separable Convolution을 Dilated (Atrous) Convolution에 응용
· ResNet->Xception
DeepLabV1에서 DeepLabV3+까지 쫓아봤지만, Dilated(atrous) Conv를 사용하여 효율적으로 Global Feature를 취하러 갈 것인지에 대해 이 연구의 메인 테마였다고 느꼈다.
참고문헌
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
htps : // 아 rぃ v. rg / pdf / 1802.02611. pdf
Reference
이 문제에 관하여(【Semantic Segmentation】DeepLab(v3+) : DeepLab(v3)와의 차이는?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/minh33/items/8f05c0a76d14f0977898
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
htps : // 아 rぃ v. rg / pdf / 1802.02611. pdf
Reference
이 문제에 관하여(【Semantic Segmentation】DeepLab(v3+) : DeepLab(v3)와의 차이는?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/minh33/items/8f05c0a76d14f0977898텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)