Curriculum (*더 추가할 예정)
모두의 연구소 풀잎스쿨을 통해 Tesla 자율주행 기술을 공부하고 있다. 시작한 지 3주차지만 따라가지 못해 지금 벅차다..! 그래도 차근히 정리해보려고 한다. 부족한 부분이 많지만 계속해서 보완해가면서 정리할 생각이다.
-> 위의 한글자막 풀버전 3편을 통해 어떻게 풀잎이 진행되는 지 알 수 있다.
1.자율주행 비전편
1) Objection Detection Structure
- backbone:RegNet+ResNet
- neck:BiFPN
- head:HydraNet
정리
- 8대의 카메라로 1280*960 해상도의 input을 받는다
- NN 처리
-> ResNet : feature extrator를 구체화한다.
-> RegNet : 매우 좋은 디자인 공간을 만들어주고, output으로 서로 다른 해상도와 스케일의 여러 feature를 제공'
-> BiFEN : feature pyramid 네트워크로 프로세싱한다.
-> YOLO : 사물인식 과정
-> HydraNets : 차량, 신호등, 차선 등 여러가지를 예측할 때 사용(Multi-Task Learning)
2) Vector space
정리
- 차량에서의 물체인식 결과로는 실제 자율주행을 할 수 없기 때문에 이를 Real world coordinate로 바꿔준다
- Transformer : 이미지 공간을 벡터 공간으로 만들어준다.
Author And Source
이 문제에 관하여(Curriculum (*더 추가할 예정)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@pke0730/Curriculum더-추가할-예정저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)