【StereoDepth】StereoNet : 고속 Stereo Matching!

StereoNet이 GC-Net 보다 메척차 빠르기 때문에 그 이유를 보고 싶다.
Feature Extraction
Feature Map 해상도 감소
1. 큰 receptive field=>texture less의 장소에 도움이 된다
2. feature vector를 컴팩트하게 할 수 있다.
Cost Volume

대부분의 계산 시간이 3D convolution에 사용된다.
입력의 화상을 작게 하는 것으로 거칠지만 빨리 Disparity를 요구할 수 있다.
Hierarchical Refinement: Edge-Aware Upsampling
Cost Volume에서 얻은 거친 Disparity를 출력 해상도까지 upsampling한다.
color 이미지와 upsample한 Disparity Map을 결합하고 네트워크에서 Disparity를 다시 추정합니다.
color 이미지에서 edge 등을 찾아서 refine 해준다.

결과

k=8에서 0.015s의 속도가 나왔다. 그러나 정확도는 거기까지 떨어지지 않았습니다.
결론
Cost Volume의 3D Convolution을 작게 하면 계산은 빨라진다.
참고문헌
StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction
htps : // 오페나세스 s.ぇ cvf. 코 m / 콘텐 t_엣 cV_2018 / 파페 rs / 사메 h_K 하미 s_S 테레오네 t_ 구이로 d_ 히라 r 치카 l_엣 cV_2018_ 파페 r. pdf
Reference
이 문제에 관하여(【StereoDepth】StereoNet : 고속 Stereo Matching!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/minh33/items/1131c843e4dea9ccec01
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)

대부분의 계산 시간이 3D convolution에 사용된다.
입력의 화상을 작게 하는 것으로 거칠지만 빨리 Disparity를 요구할 수 있다.
Hierarchical Refinement: Edge-Aware Upsampling
Cost Volume에서 얻은 거친 Disparity를 출력 해상도까지 upsampling한다.
color 이미지와 upsample한 Disparity Map을 결합하고 네트워크에서 Disparity를 다시 추정합니다.
color 이미지에서 edge 등을 찾아서 refine 해준다.

결과

k=8에서 0.015s의 속도가 나왔다. 그러나 정확도는 거기까지 떨어지지 않았습니다.
결론
Cost Volume의 3D Convolution을 작게 하면 계산은 빨라진다.
참고문헌
StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction
htps : // 오페나세스 s.ぇ cvf. 코 m / 콘텐 t_엣 cV_2018 / 파페 rs / 사메 h_K 하미 s_S 테레오네 t_ 구이로 d_ 히라 r 치카 l_엣 cV_2018_ 파페 r. pdf
Reference
이 문제에 관하여(【StereoDepth】StereoNet : 고속 Stereo Matching!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/minh33/items/1131c843e4dea9ccec01
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)

k=8에서 0.015s의 속도가 나왔다. 그러나 정확도는 거기까지 떨어지지 않았습니다.
결론
Cost Volume의 3D Convolution을 작게 하면 계산은 빨라진다.
참고문헌
StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction
htps : // 오페나세스 s.ぇ cvf. 코 m / 콘텐 t_엣 cV_2018 / 파페 rs / 사메 h_K 하미 s_S 테레오네 t_ 구이로 d_ 히라 r 치카 l_엣 cV_2018_ 파페 r. pdf
Reference
이 문제에 관하여(【StereoDepth】StereoNet : 고속 Stereo Matching!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/minh33/items/1131c843e4dea9ccec01
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
StereoNet: Guided Hierarchical Refinement for Real-Time Edge-Aware Depth Prediction
htps : // 오페나세스 s.ぇ cvf. 코 m / 콘텐 t_엣 cV_2018 / 파페 rs / 사메 h_K 하미 s_S 테레오네 t_ 구이로 d_ 히라 r 치카 l_엣 cV_2018_ 파페 r. pdf
Reference
이 문제에 관하여(【StereoDepth】StereoNet : 고속 Stereo Matching!), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/minh33/items/1131c843e4dea9ccec01텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)