[3D OD LiDAR 편] Point Pillars: Voxel에서 Pillar까지의 시대?!

PointPillars: Fast Encoders for Object Detection from Point Clouds



이전VoxelNet과 달리 공간은 Voxel로 포착된 것이 아니라 Pillar로 포착된 것이다!
그것에 따라 대폭 고속화되었다.

계산법


입력(Point cloud to Stacked Pillar)


다음과 같은 9개의 특징으로 구성되어 있다
점의 위치 및 반사 강도
Xc, yc, zc=>pillar 내 Point의 평균값과 거리
pillar의 중심 위치의offset

이로써 tensor size는 size(D, P, N)가 됩니다.
DxPxN = 단점이 가지고 있는 비트 (9) x점에 존재하는 pillar의 수량 x pillar에 존재하는 점의 수량

특징량 학습(Stacked Pillar to Learned Feature)


Point Net에서 (D(9개 피쳐), P, N) 학습(C, P, N)의 피쳐 양
Pillar 내에서 Channel-wise 키를 눌러 최대값을 얻으면 받기(C, P)

shape 변환(Learned Feature to Pseudo Image)


Pillar를 원래의 Height와 width로 복원하면(C, H, W) Pseudo Image를 받을 수 있다.
*3D 높이 정보가 채널에서 축소됨

Backbone


2D Detection의 Backbone(추출된 피쳐의 Module)과 동일

Detection Head


2D Detection의 SSD Head 사용(얻은 피쳐에 따라 최종 Detection의 Module)

결실



SECOND보다 정밀도가 조금 더 좋은데, 스피드가 3배 정도 빨라요!
*Speed의 경우 Detection 영역이 축소되었으므로 주의하십시오.

결론


·Voxel 대신 Pillar를 사용해 고속화했다.

참고 문헌


PointPillars: Fast Encoders for Object Detection from Point Clouds
https://arxiv.org/pdf/1812.05784.pdf

좋은 웹페이지 즐겨찾기