문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다.
목적
Kaiyuan Guo, Lingzhi Sui, Jiantao Qiu, Song Yao, Song Han, Yu Wang, Huazhong Yang1.
From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration.
2016 IEEE Hot Chips 28 Symposium (HCS)
이 문헌은 이하에 공개된다.
https://www.hotchips.org/wp-content/uploads/hc_archives/hc28/HC28.22-Monday-Epub/HC28.22.40-Vision-Image-Epub/HC28.22.411-Neural-Net-Accleration-Yao- DeePhi-0821.pdf
딥 러닝 모델의 처리량을 알고 싶을 수 있습니다.
처리량으로서는, G-Ops 등으로 나타내어지고 있는 것이, 취급하기 쉽다.
처리량이 기재된 문서나 사이트는 많이 있지만, 어느 것이, 어폐가 없는 수치가 쓰여져 있는지, 판단할 수 없는 때가 있다.
조금, 정보를 모으고 싶었습니다.
이 문서는 딥 러닝의 FPGA 구현 (xillinx)을 고려할 때 유용합니다.
다만, 약간 낡은 정보 때문에, 이것을 베이스로, 한층 더, 새로운 정보를 찾아낼 수 있으면 좋다고 생각합니다.
우선, 이 문헌은, 서적으로부터도 참조되고 있었으므로, 어느 정도, 신뢰할 수 있다고 생각했다. 다음 분에게 도움이 될 것입니다.
・딥 러닝의 모델의 처리량(GOPS등)을 알고 싶은 사람
자주 보는 정보
(적절히, 추기합니다. 우선은, 이 문헌의 존재의 소개가 주된 의도입니다.)
모델
Gop
비고
VGG16Image classification
30.68
13 Conv 레이어
YOLO TinyGeneral object detection
5.54
9 Conv 레이어
Customized NetworkFace alignment
0.1046 ※1
9 Conv 레이어
※1 자료에서는 104.6 Mop이라고 기재.
요약
이 문헌은 잘 보입니다.
아래의 서적에서도 인용되었습니다.
"GPU를 지원하는 기술 초병렬 하드웨어의 쾌진격 [기술 기초]"
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/7de477dc3c1a50d36f2e
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
(적절히, 추기합니다. 우선은, 이 문헌의 존재의 소개가 주된 의도입니다.)
모델
Gop
비고
VGG16Image classification
30.68
13 Conv 레이어
YOLO TinyGeneral object detection
5.54
9 Conv 레이어
Customized NetworkFace alignment
0.1046 ※1
9 Conv 레이어
※1 자료에서는 104.6 Mop이라고 기재.
요약
이 문헌은 잘 보입니다.
아래의 서적에서도 인용되었습니다.
"GPU를 지원하는 기술 초병렬 하드웨어의 쾌진격 [기술 기초]"
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/7de477dc3c1a50d36f2e
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/7de477dc3c1a50d36f2e
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(문헌 『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』을 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/enoughspacefor/items/7de477dc3c1a50d36f2e텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)