문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.
3489 단어 Network-modelTOPSCNNGOPSDNN
목적
Alfredo Canziani & Eugenio Culurciello, Adam Paszke.
AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS.
arXiv : 1605.07678v4.
이 문헌은 이하에 공개된다.
htps : // 아 rぃ v. rg / pdf / 1605. 07678. pdf
딥 러닝 모델의 처리량을 알고 싶을 수 있습니다.
처리량으로서는, G-Ops 등으로 나타내어지고 있는 것이, 취급하기 쉽다.
처리량이 기재된 문서나 사이트는 많이 있지만, 어느 것이, 어폐가 없는 수치가 쓰여져 있는지, 판단할 수 없는 때가 있다.
조금, 정보를 모으고 싶었습니다.
우선, 이 문헌은, 많은 정보가 있어, 이하의 분에게 도움이 된다고 생각한다.
・딥 러닝의 모델의 처리량(GOPS등)을 알고 싶은 사람
자주 보는 정보
아래 그림을 잘 본다.
개인적으로는, 지금의 단계에서는, 횡축의 값만이 관심사입니다만.
(이 문헌을 잘 보는 이유는 많은 모델에 관한 정보가 있기 때문에,
개별의 정보도 바르고, 어폐가 없는 기재가 되어 있다고 기대할 수 있기 때문에. )
(적절히, 추기합니다. 우선은, 이 문헌의 존재의 소개가 주된 의도입니다.)
사진 : 견적
그림 2: Top1 vs. operations, size ∝ parameters.
다음 페이지에서 업데이트 된 정보가 공개됩니다.
htps : // 메이 m. 코 m / @ 쿠 r 시에 ぉ / 아나 lys s-o f에 에 p 네 우라 l 네와 rks-dcf398 에 71 아
견적:
분량으로 그래프의 값을 읽습니다.
결과는 다음과 같습니다.
모델
Gop
비고
MobileNet-v1
1.4
※눈 분량의 정밀도 나쁨
MobileNet-v2
0.7
※눈 분량의 정밀도 나쁨
AlexNet
2.2
※눈 분량의 정밀도 나쁨
GoogleNet
2.5
※눈 분량의 정밀도 나쁨
ResNet-50
8.0
※눈 분량의 정밀도 나쁨
VGG19
39
※눈 분량의 정밀도 나쁨
VGG19
31
※눈 분량의 정밀도 나쁨
요약
이 문헌은 잘 보입니다.
잘 참조되는 것이 아닐까요?
(어디에서 이 문헌에 도착했는지는 잊었습니다.)
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
↓ 꽤, 뒤에 추가 (2021/3/19)
심층 학습. Gops와 Accuracy의 관계 그래프 (2 계통).
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ea5a3225c6c54c469326
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
아래 그림을 잘 본다.
개인적으로는, 지금의 단계에서는, 횡축의 값만이 관심사입니다만.
(이 문헌을 잘 보는 이유는 많은 모델에 관한 정보가 있기 때문에,
개별의 정보도 바르고, 어폐가 없는 기재가 되어 있다고 기대할 수 있기 때문에. )
(적절히, 추기합니다. 우선은, 이 문헌의 존재의 소개가 주된 의도입니다.)
사진 : 견적
그림 2: Top1 vs. operations, size ∝ parameters.
다음 페이지에서 업데이트 된 정보가 공개됩니다.
htps : // 메이 m. 코 m / @ 쿠 r 시에 ぉ / 아나 lys s-o f에 에 p 네 우라 l 네와 rks-dcf398 에 71 아
견적:
분량으로 그래프의 값을 읽습니다.
결과는 다음과 같습니다.
모델
Gop
비고
MobileNet-v1
1.4
※눈 분량의 정밀도 나쁨
MobileNet-v2
0.7
※눈 분량의 정밀도 나쁨
AlexNet
2.2
※눈 분량의 정밀도 나쁨
GoogleNet
2.5
※눈 분량의 정밀도 나쁨
ResNet-50
8.0
※눈 분량의 정밀도 나쁨
VGG19
39
※눈 분량의 정밀도 나쁨
VGG19
31
※눈 분량의 정밀도 나쁨
요약
이 문헌은 잘 보입니다.
잘 참조되는 것이 아닐까요?
(어디에서 이 문헌에 도착했는지는 잊었습니다.)
관련(본인)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
↓ 꽤, 뒤에 추가 (2021/3/19)
심층 학습. Gops와 Accuracy의 관계 그래프 (2 계통).
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ea5a3225c6c54c469326
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
DNN의 모델별 처리량(GOP) 요약
양서 「GPU를 지지하는 기술 초병렬 하드웨어의 쾌진격[기술 기초]」를 읽는다
『From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration』 읽기
↓ 꽤, 뒤에 추가 (2021/3/19)
심층 학습. Gops와 Accuracy의 관계 그래프 (2 계통).
미래
적절하게 정보를 더합니다.
코멘트 등 있으면 부탁드립니다.
Reference
이 문제에 관하여(문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ea5a3225c6c54c469326
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(문헌 『AN ANALYSIS OF DEEP NEURAL NETWORK MODELS FOR PRACTICAL APPLICATIONS』를 읽는다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/enoughspacefor/items/ea5a3225c6c54c469326텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)