【Semantic Segmentation】DeepLab(v3+) : DeepLab(v3)와의 차이는?

배경



DeepLab(v1) , DeepLab(v2) , DeepLab(v3) 를 조사했으니 마지막으로 DeepLab(v3+)를 요약하고 update에 대해 비교해 나가고 싶다.
모두 읽는 것이 힘들었다 (T_T)

version3에서 update





DeepLabv3에서는 (a)의 Encoder만으로 1/8 사이즈의 Semantic Map을 8배로 interpolation하여 최종 출력으로 했다.

그러나, 그것이라고 1/8의 거칠기의 정밀도 밖에 나오지 않기 때문에, Decoder를 일부 도입하는 것으로 한 것 같다.



MobileNet에서 나온 Depthwise, Pointwise Conv, 공간 방향과 Channel 방향으로 나누어 2회 컨벌루션하는 편이, 보통의 Convolution보다 계산량이 작아진다.
자세한 것은 이 근처를 참고로 해 주세요
htps : // 이 m / 오미타 / ms / 77 d5 a 7b16 a 104 df83

Dilated(Atrous) Conv에도 같은 것을 적용하여 계산량을 낮추었다.

또 다른 차이는 ResNet을 Xception로 바꾼 것.

결론



새로운 update는 다음 3가지
· 디코더 추가
· Depthwise Separable Convolution을 Dilated (Atrous) Convolution에 응용
· ResNet->Xception

DeepLabV1에서 DeepLabV3+까지 쫓아봤지만, Dilated(atrous) Conv를 사용하여 효율적으로 Global Feature를 취하러 갈 것인지에 대해 이 연구의 메인 테마였다고 느꼈다.

참고문헌



Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation
htps : // 아 rぃ v. rg / pdf / 1802.02611. pdf

좋은 웹페이지 즐겨찾기