문헌 『Machine learning for embedded deep dive』 읽기
목적
표제 문헌
Machine learning for embedded deep dive
Presented By
Andy Luo Sr. Product Marketing Manager
2018-10-0
는
XILINX DEVELOPER FORUM 사이트
( htps //w w.ぃぃ x. 이 m/p 로즈 cts/에서 해 응-와 ls/로 HTML )
에서 액세스 (다운로드) 할 수 있습니다.
다른 기사에도 비슷한 것을 썼지만,
딥 러닝 모델의 처리량을 알고 싶을 수 있습니다.
처리량으로서는, G-Ops 등으로 나타내어지고 있는 것이, 취급하기 쉽다.
처리량이 기재된 문서나 사이트는 많이 있지만, 어느 것이, 어폐가 없는 수치가 쓰여져 있는지, 판단할 수 없는 때가 있다.
조금, 정보를 모으고 싶었습니다.
우선, 이 문헌은, 많은 정보가 있어, 이하의 분에게 도움이 된다고 생각한다.
・딥 러닝의 모델의 처리량(GOPS등)을 알고 싶은 사람
물체 검출 처리량
아래 그림에서 물체 검출 처리량을 먼저 알 수 있습니다.
(세로축의 조건이 쓰여져 있지 않습니다, 찾아도,,,,zu9라든지입니까?)
(출처: htps //w w.ぃぃ x. 코 m / 콘텐 t / da m / ぃぃ x / ㅎㅎㅎㅎぇぺぺr ふぉる m / 2018 니 ー ー ー ー ー ー m 베데 d 에 에 p ぢ ょ ぇ. pdf )
그래프의 숫자를 표로 하면 다음과 같다.
모델
Gop
비고
Inception v1
3.2
Tiny Yolov3
5.6
Tiny Yolov2
7
ResNet50
7.7
VGG16
30
Yolov2
36
Yolov3
65
SSD
117
pruned했을 경우의 수치도 나타내고 있다.
(출처: htps //w w.ぃぃ x. 코 m / 콘텐 t / da m / ぃぃ x / ㅎㅎㅎㅎぇぺぺr ふぉる m / 2018 니 ー ー ー ー ー ー m 베데 d 에 에 p ぢ ょ ぇ. pdf )
DPU Scalability
이 정보도 알고 싶었다.
(출처:)
요약
이 문헌은 정보가 잘 집계되어 있다고 생각한다.
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『Machine learning for embedded deep dive』 읽기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/d9c015eddb0d48d5128f
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
아래 그림에서 물체 검출 처리량을 먼저 알 수 있습니다.
(세로축의 조건이 쓰여져 있지 않습니다, 찾아도,,,,zu9라든지입니까?)
(출처: htps //w w.ぃぃ x. 코 m / 콘텐 t / da m / ぃぃ x / ㅎㅎㅎㅎぇぺぺr ふぉる m / 2018 니 ー ー ー ー ー ー m 베데 d 에 에 p ぢ ょ ぇ. pdf )
그래프의 숫자를 표로 하면 다음과 같다.
모델
Gop
비고
Inception v1
3.2
Tiny Yolov3
5.6
Tiny Yolov2
7
ResNet50
7.7
VGG16
30
Yolov2
36
Yolov3
65
SSD
117
pruned했을 경우의 수치도 나타내고 있다.
(출처: htps //w w.ぃぃ x. 코 m / 콘텐 t / da m / ぃぃ x / ㅎㅎㅎㅎぇぺぺr ふぉる m / 2018 니 ー ー ー ー ー ー m 베데 d 에 에 p ぢ ょ ぇ. pdf )
DPU Scalability
이 정보도 알고 싶었다.
(출처:)
요약
이 문헌은 정보가 잘 집계되어 있다고 생각한다.
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『Machine learning for embedded deep dive』 읽기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/d9c015eddb0d48d5128f
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
이 문헌은 정보가 잘 집계되어 있다고 생각한다.
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『Machine learning for embedded deep dive』 읽기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/d9c015eddb0d48d5128f
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『Machine learning for embedded deep dive』 읽기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/enoughspacefor/items/d9c015eddb0d48d5128f텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)