자신의 데이터로 YOLO V3를 학습하여 유행하는 절출(Windows,visualstudio 2015) 물체 검측이 재미있다.GPU 설정 및 mAP 계산, 교사 데이터 부족.
얼굴은 이미 상관없게 잘랐다
(´,,…)ω・,,`)
mAP는 얼마입니까?알고 싶은 사람은 끝까지 읽어라.
과거에 시도했던 물체 식별 보도
https://qiita.com/mokoenator/items/4d106d682f1b4bc7d0e3
https://qiita.com/mokoenator/items/3268ec162658efe82fb6
물체 식별 교사 데이터 제작은 2018년 7월부터 처음 시작해 3개월이 됐다.
회사원이기 때문에 하루 평균 3시간 정도 잠을 자고 밤샘 근무를 반복하는 등 노력하고 있다.
솔직히 피곤해서 멈추고 싶지만, 자기가 만든 물건(사람의 모델이지만) 고리고리는 사람보다 훨씬 빠른 속도로 할 수 있는 쾌감으로 위험하다.
기계 학습은 시도하지 않으면 얼마나 재미있는지 모른다.
2019/07/09
나는 이 문장으로 쓴 것으로 만들었다패션 검색 서비스.핀넬의 mAP는 80%를 넘는다.
욜로 해봐.
물체 식별에서 시도한 것
https://github.com/pierluigiferrari/ssd_keras
열다
https://github.com/qqwweee/keras-yolo3
해보았어요.
여러 장의 GPU가 움직이지 않습니다.
결국
https://github.com/AlexeyAB/darknet
노력하기로 했어요.
교사의 데이터 제작은 귀신의 짐승, VoTT는 매우 빈약하다
VoTT 여기 있어요.
https://github.com/Microsoft/VoTT
주석을 만드는 작업은 가축 작업이다.
나는 VoTT가 아마도 가장 먼저 주석을 쓸 수 있을 것이라고 생각하지만, 매우 빈약하다.
JSON 편집, 뷰어 도구, 검사 도구를 만들지 않으면 시간이 지나갑니다.
VoTT를 통해서만 주석을 검증할 수 없다는 것은 상당히 고통스럽다.
결과가 이상하죠?이렇게 생각하면 많은 주석이 순조롭지 못하다.
공짜니까 부족한 부분은 스스로 메워라.
그나저나 VoTT의 형식을 yolo로 바꾸는 것은 매우 번거롭다
네가 직접 하는 것이 좋겠다.
2019/09/24 추가: VoTT(version1과)의 JSON 순서는 파일 이름의 순서이고, 습관이 되면 ASCII 순서입니다.
대소문자를 구분하지 않은 알파벳 순서에서 기호 (적어도 밑줄) 의 순서는 알파벳 순서보다 뒤에 있습니다.
PYTHON으로 맞추는 것은 상당히 힘들기 때문에 산열 코드를 사용하지 않고 파일 이름을 통일하면 매우 고통스럽다.
비결
교사 데이터를 잘못 만들지 않았다.
자세한 설정 방법은 Alexey AB/darknet의 README입니다.비결이 적혀 있다.
귀찮게 생각하지 말고 전부 읽어라.
읽지 않아도 순환하면...시간을 낭비하는 것을 알아차릴 수 있다.
여러 GPU를 더 잘 활용하기 위해
수중에 준비된 환경
ASUS Z270 EXTREME4
CPU i5 7500
메모리 24G
GPU GTX-1070ti*3(전문가용 및 Palit)
컴퓨터 사진
(푸른 빛이 반짝이는 Palit 2장과 외출하는 전문가의 포부 1장)
이런 상태에서 공부를 시작할 때.
레이저 카드로 PCIEx1을 연장했기 때문에 2대로 공부하는 것보다 늦었다.
왜 이런 상태인지 말하자면 마자파의 구조상 찔리지 않는다.
구입한 GPU는'Palit GeForce GTX170Ti Super JetStream'이기 때문에 슬롯 3개를 차지했다.
그래서 어떤 마자파를 사든 GPU 4장을 찌를 수는 없겠지... 아마.
그리고
나는 PCIEx16의 연장 케이블을 샀다.
이렇게 하면 메인보드의 x16 모양의 슬롯에 묶이게 됩니다.
CPUZ로 보면 x16으로 움직이지 않은 것 같아요.
x8, x8, x4로 이동합니다.
i5-7500의 PCI Express 구성싼 CPU를 사야 하기 때문이다.(´·ω・‘)
마자보도 안돼.
GPU를 잘 사용하기 위해서 cfg를 어떻게 하면 가장 빨리 배울 수 있습니까?
subdivisions의 값은 GPU에 영향을 미칠 수 있는 값이기 때문에 변화 측정을 실시했다.
그림 수 5000장 정도 100번(초)
P는 Palit입니다.
현 씨는 전문가의 포부이다.
sub는 cfg의subdivisions 값입니다.(batch=64 변경하지 않는 것이 좋습니다)
(각자 한 번만 측정하니까...믿음직하지 않아요)
결과에 따라 공부를 오래 하면...
CUDA Error(failure?)나오자마자 멈췄는데, 몇 번 더 실행해도 멈췄다.
CUDA Error Out Of memory, 커널 실행 시간 초과 오류도 있습니다.
내 생각에failure계의 오류는 아마도 PCIEx16의 연장 케이블 때문일 것이다.
내부 핵으로 시간 초과 대책을 집행하다
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/GraphicsDrivers
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/GraphicsDrivers/DCI
양자
3(복구) - TdrLevel(REG_DWORD)
TdrDdiDelay(REG_DWORD) 30(초)
TdrDelay(REG_DWORD) 30(초)
설정 및 재시작
또한 드라이브는 CUDA 설치 프로그램으로 삽입되지 않으므로 CUDA를 다시 삽입합니다.
그럼에도 불구하고 45000회 처리를 실행하면 CUDA Error Of memory가 나타납니다.
20000부 정도면 나오겠지.
왜냐하면 HOST 메모리가 24G밖에 없어서??
만약 통일된 메모리로 gangan을 전송하면 HOST도 먹나요??
그래서 CUDA Error Out Of memory?그래요?
YOLO의 메모리는 GPU <> HOST에서 동일한 데이터를 유지합니까?
시간이 있으면 통일된 메모리의 원본인지 확인해 보세요.
어?그래요?1
README.md의 How to train with multi-GPU: 블록에 쓰기
Then stop and by using partially-trained model /backup/yolov3-voc_1000.weights run training with multigpu (up to 4 GPUs): darknet.exe detector train data/voc.data cfg/yolov3-voc.cfg /backup/yolov3-voc_1000.weights -gpus 0,1,2,3
처음 1000번은 싱글 GPU에서 공부한 뒤 여러 장으로 노력한다는 뜻입니다.
자세한 내용은 여기 보시기 바랍니다.
https://groups.google.com/forum/#!msg/darknet/NbJqonJBTSY/Te5PfIpuCAAJ
하지만 우리의 환경에는 변화가 없기 때문에 처음부터 모든 힘이 된다.
→ 2018/11/19 추기는 거짓이다.1000번은 물건을 봐야 하는가.loss는 5 이하인 후에 바꾸는 것이 좋습니다.
실험 중!(^^)!
→ 2019/09/19 추기는 결국 TITAN RTX를 샀기 때문에 실행 도중에도 멈추지 않고 쉽게 공부하고 있습니다.
어?그래요?2
README.md의 How to improve object 검사: 블록에 쓰기
detector calc_anchors data/obj.data -num_of_clusters 9 -width 416 -height 416
이렇게 되면 다시 계산해야 할 것 같아서 cfg로 설정합니다.
그림을 추가하면 매번 변경하는 것이 좋습니다.소박하고 번거롭다.
사이즈를 606으로 정해서 공부하면 어떨까요?
원래 cfg의width,height는 학습과 관련이 있습니까?README.md에'관계'라고 해석할 수 있는 게 적혀있어요.
-width416-height416>여기를 바꾸지 않아도 될지 모르겠어요.
→ 2019/09/19 추가 기록 변경이 좋습니다.하지만... 원래 anchor를 다시 계산해도 정밀도의 변화를 체험할 수 없기 때문에 anchors 자체는 변하지 않았다.하지만 일반적인 물체를 식별하고 싶어서 가늘고 긴 봉을 힘껏 배우면 안 될 것 같다.
mAP를 만들어 봤어요.
45000번을 운행했다.
시간은 55시간이 걸렸다.
loss 차트
정밀도가 그다지 높지 않다.
여기서부터 mAP입니다.
CLASS 이름 오른쪽 숫자는 준비된 교사 개체 수입니다.
(beauty-man, beauty-woman은 단정한 얼굴의class)
이것만 보면 로스 도표는 의미가 없다
아래 도표는 단독으로 나온 도표이다
첫장
두 번째 장
먹이다
mAP 단일체만 보면 9000 정도가 최고치이고 이후에는 효과가 없다.
9000번의 학습이 최고조에 이르면 subdivisions도 줄어들 수 있다.(횟수와 오류가 관련되어 있는지 모르겠습니다)
교사 개체 수와 CLASS의 성격은?어느 정도 관계가 있는 것 같습니다.
아마도 부드럽고 단단한 것과 관련이 있을 것이다.
교사의 대상 수가 적은 것은 절망적이다.
이 도표를 통해 로스가 떨어지지 않는 이유를 알게 됐어요!
어떤 초상화가 필요한지 알기 때문에 이렇게 하면 노력할 수 있다!
지금은 기모노랑 수영복!
참, 교토로 가자!
(´,,…)ω・,,`)
Reference
이 문제에 관하여(자신의 데이터로 YOLO V3를 학습하여 유행하는 절출(Windows,visualstudio 2015) 물체 검측이 재미있다.GPU 설정 및 mAP 계산, 교사 데이터 부족.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/mokoenator/items/d84226dc40d38448322e
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
교사 데이터를 잘못 만들지 않았다.
자세한 설정 방법은 Alexey AB/darknet의 README입니다.비결이 적혀 있다.
귀찮게 생각하지 말고 전부 읽어라.
읽지 않아도 순환하면...시간을 낭비하는 것을 알아차릴 수 있다.
여러 GPU를 더 잘 활용하기 위해
수중에 준비된 환경
ASUS Z270 EXTREME4
CPU i5 7500
메모리 24G
GPU GTX-1070ti*3(전문가용 및 Palit)
컴퓨터 사진
(푸른 빛이 반짝이는 Palit 2장과 외출하는 전문가의 포부 1장)
이런 상태에서 공부를 시작할 때.
레이저 카드로 PCIEx1을 연장했기 때문에 2대로 공부하는 것보다 늦었다.
왜 이런 상태인지 말하자면 마자파의 구조상 찔리지 않는다.
구입한 GPU는'Palit GeForce GTX170Ti Super JetStream'이기 때문에 슬롯 3개를 차지했다.
그래서 어떤 마자파를 사든 GPU 4장을 찌를 수는 없겠지... 아마.
그리고
나는 PCIEx16의 연장 케이블을 샀다.
이렇게 하면 메인보드의 x16 모양의 슬롯에 묶이게 됩니다.
CPUZ로 보면 x16으로 움직이지 않은 것 같아요.
x8, x8, x4로 이동합니다.
i5-7500의 PCI Express 구성싼 CPU를 사야 하기 때문이다.(´·ω・‘)
마자보도 안돼.
GPU를 잘 사용하기 위해서 cfg를 어떻게 하면 가장 빨리 배울 수 있습니까?
subdivisions의 값은 GPU에 영향을 미칠 수 있는 값이기 때문에 변화 측정을 실시했다.
그림 수 5000장 정도 100번(초)
P는 Palit입니다.
현 씨는 전문가의 포부이다.
sub는 cfg의subdivisions 값입니다.(batch=64 변경하지 않는 것이 좋습니다)
(각자 한 번만 측정하니까...믿음직하지 않아요)
결과에 따라 공부를 오래 하면...
CUDA Error(failure?)나오자마자 멈췄는데, 몇 번 더 실행해도 멈췄다.
CUDA Error Out Of memory, 커널 실행 시간 초과 오류도 있습니다.
내 생각에failure계의 오류는 아마도 PCIEx16의 연장 케이블 때문일 것이다.
내부 핵으로 시간 초과 대책을 집행하다
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/GraphicsDrivers
HKEY_LOCAL_MACHINE/SYSTEM/CurrentControlSet/Control/GraphicsDrivers/DCI
양자
3(복구) - TdrLevel(REG_DWORD)
TdrDdiDelay(REG_DWORD) 30(초)
TdrDelay(REG_DWORD) 30(초)
설정 및 재시작
또한 드라이브는 CUDA 설치 프로그램으로 삽입되지 않으므로 CUDA를 다시 삽입합니다.
그럼에도 불구하고 45000회 처리를 실행하면 CUDA Error Of memory가 나타납니다.
20000부 정도면 나오겠지.
왜냐하면 HOST 메모리가 24G밖에 없어서??
만약 통일된 메모리로 gangan을 전송하면 HOST도 먹나요??
그래서 CUDA Error Out Of memory?그래요?
YOLO의 메모리는 GPU <> HOST에서 동일한 데이터를 유지합니까?
시간이 있으면 통일된 메모리의 원본인지 확인해 보세요.
어?그래요?1
README.md의 How to train with multi-GPU: 블록에 쓰기
Then stop and by using partially-trained model /backup/yolov3-voc_1000.weights run training with multigpu (up to 4 GPUs): darknet.exe detector train data/voc.data cfg/yolov3-voc.cfg /backup/yolov3-voc_1000.weights -gpus 0,1,2,3
처음 1000번은 싱글 GPU에서 공부한 뒤 여러 장으로 노력한다는 뜻입니다.
자세한 내용은 여기 보시기 바랍니다.
https://groups.google.com/forum/#!msg/darknet/NbJqonJBTSY/Te5PfIpuCAAJ
하지만 우리의 환경에는 변화가 없기 때문에 처음부터 모든 힘이 된다.
→ 2018/11/19 추기는 거짓이다.1000번은 물건을 봐야 하는가.loss는 5 이하인 후에 바꾸는 것이 좋습니다.
실험 중!(^^)!
→ 2019/09/19 추기는 결국 TITAN RTX를 샀기 때문에 실행 도중에도 멈추지 않고 쉽게 공부하고 있습니다.
어?그래요?2
README.md의 How to improve object 검사: 블록에 쓰기
detector calc_anchors data/obj.data -num_of_clusters 9 -width 416 -height 416
이렇게 되면 다시 계산해야 할 것 같아서 cfg로 설정합니다.
그림을 추가하면 매번 변경하는 것이 좋습니다.소박하고 번거롭다.
사이즈를 606으로 정해서 공부하면 어떨까요?
원래 cfg의width,height는 학습과 관련이 있습니까?README.md에'관계'라고 해석할 수 있는 게 적혀있어요.
-width416-height416>여기를 바꾸지 않아도 될지 모르겠어요.
→ 2019/09/19 추가 기록 변경이 좋습니다.하지만... 원래 anchor를 다시 계산해도 정밀도의 변화를 체험할 수 없기 때문에 anchors 자체는 변하지 않았다.하지만 일반적인 물체를 식별하고 싶어서 가늘고 긴 봉을 힘껏 배우면 안 될 것 같다.
mAP를 만들어 봤어요.
45000번을 운행했다.
시간은 55시간이 걸렸다.
loss 차트
정밀도가 그다지 높지 않다.
여기서부터 mAP입니다.
CLASS 이름 오른쪽 숫자는 준비된 교사 개체 수입니다.
(beauty-man, beauty-woman은 단정한 얼굴의class)
이것만 보면 로스 도표는 의미가 없다
아래 도표는 단독으로 나온 도표이다
첫장
두 번째 장
먹이다
mAP 단일체만 보면 9000 정도가 최고치이고 이후에는 효과가 없다.
9000번의 학습이 최고조에 이르면 subdivisions도 줄어들 수 있다.(횟수와 오류가 관련되어 있는지 모르겠습니다)
교사 개체 수와 CLASS의 성격은?어느 정도 관계가 있는 것 같습니다.
아마도 부드럽고 단단한 것과 관련이 있을 것이다.
교사의 대상 수가 적은 것은 절망적이다.
이 도표를 통해 로스가 떨어지지 않는 이유를 알게 됐어요!
어떤 초상화가 필요한지 알기 때문에 이렇게 하면 노력할 수 있다!
지금은 기모노랑 수영복!
참, 교토로 가자!
(´,,…)ω・,,`)
Reference
이 문제에 관하여(자신의 데이터로 YOLO V3를 학습하여 유행하는 절출(Windows,visualstudio 2015) 물체 검측이 재미있다.GPU 설정 및 mAP 계산, 교사 데이터 부족.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/mokoenator/items/d84226dc40d38448322e
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Then stop and by using partially-trained model /backup/yolov3-voc_1000.weights run training with multigpu (up to 4 GPUs): darknet.exe detector train data/voc.data cfg/yolov3-voc.cfg /backup/yolov3-voc_1000.weights -gpus 0,1,2,3
detector calc_anchors data/obj.data -num_of_clusters 9 -width 416 -height 416
45000번을 운행했다.
시간은 55시간이 걸렸다.
loss 차트
정밀도가 그다지 높지 않다.
여기서부터 mAP입니다.
CLASS 이름 오른쪽 숫자는 준비된 교사 개체 수입니다.
(beauty-man, beauty-woman은 단정한 얼굴의class)
이것만 보면 로스 도표는 의미가 없다
아래 도표는 단독으로 나온 도표이다
첫장
두 번째 장
먹이다
mAP 단일체만 보면 9000 정도가 최고치이고 이후에는 효과가 없다.
9000번의 학습이 최고조에 이르면 subdivisions도 줄어들 수 있다.(횟수와 오류가 관련되어 있는지 모르겠습니다)
교사 개체 수와 CLASS의 성격은?어느 정도 관계가 있는 것 같습니다.
아마도 부드럽고 단단한 것과 관련이 있을 것이다.
교사의 대상 수가 적은 것은 절망적이다.
이 도표를 통해 로스가 떨어지지 않는 이유를 알게 됐어요!
어떤 초상화가 필요한지 알기 때문에 이렇게 하면 노력할 수 있다!
지금은 기모노랑 수영복!
참, 교토로 가자!
(´,,…)ω・,,`)
Reference
이 문제에 관하여(자신의 데이터로 YOLO V3를 학습하여 유행하는 절출(Windows,visualstudio 2015) 물체 검측이 재미있다.GPU 설정 및 mAP 계산, 교사 데이터 부족.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/mokoenator/items/d84226dc40d38448322e텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)