【YOLOv5】스낵 완두의 수확용으로 물체 검출 모델을 만들어 본다【Windows】
소개
회사에서 기계 학습에 사용할 수있는 통계학을 가르쳐 주고 무리를 말하고 힘들게 만든 것을 모처럼이므로 UP합니다.
일로 잡는 기계 학습에 대해 수식을 가능한 한 사용하지 않는 형태로 블로그화했습니다. 나의 이해하는 곳이므로 초보자용입니다. 진지한 사람은 부드럽게 ...
이번에는 블로그에서 인기있는 yolov5에 대해 소개합니다.
좋으면 ↓ 봐
YOLOv5를 실장해 가는~전 준비~
OS는 Windows10에서 하고 있습니다. 가볍게 검색하면 Windows에서의 실시예가 없었기 때문에 사람 기둥으로서 해 갑니다.
OS는 Windows10에서 하고 있습니다. 가볍게 검색하면 Windows에서의 실시예가 없었기 때문에 사람 기둥으로서 해 갑니다.
우선은 Git에서 YOLOv5를 다운로드하여 환경 설정합니다.
파이썬 버전은 3.8에서 했습니다.
conda create -n yolov5 python=3.8
conda activate yolov5
git clone https://github.com/ultralytics/yolov5.git
cd desktop\yolov5
pip install -U -r requirements.txt
이것으로 yolov5 환경을 할 수 있습니다만, 이대로라면 PyTorch 로 GPU를 사용할 수 없었으므로 PyTorch를 다시 넣습니다. PyTorch 버전 v.1.7.1에서 잘 작동했습니다. 제 경우에는 ↓ 코드를 넣었지만 환경에 맞게 변경하십시오.
pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html
YOLOv5를 구현해 가는~데이터 세트~
귀하의 데이터 세트 (이번에는 스낵 완두콩 이미지)의 주석을합니다. 내가 수행 한 방법에 대한 자세한 내용은 여기을 참조하십시오. 데이터가 준비되면 디렉토리는 ↓대로 yolov5 아래에 새로 작성하십시오.
Train, Valid 디렉토리에 각각 이미지와 라벨(어노테이션 파일)을 넣어 주세요. 어느 비율로 넣을지는 맡겨 두었지만, 대체로 20% 정도를 Valid 디렉토리에 넣는 느낌이 좋을까 생각합니다.
YOLOv5를 구현해 가는~.yaml 파일 재기록~
data 디렉토리 안에 coco.yaml 파일이라는 물건이 있다고 생각합니다. 이것을 워드 패드 등으로 열어 주십시오. 쓰고 있는 것을 한 번 전부 지웁니다. ↓를 기입해, “data.yaml”라고 하는 파일명으로 Yolov5폴더 바로 아래에 보존해 주세요.
train: data/train/images
val: data/valid/images
nc: 1
names: [‘snack pea’]
YOLOv5를 구현해 가는~학습 실행~
아래 코드를 실행하면 학습이 시작됩니다. batch-size, epochs 등은 인수로 설정할 수 있으므로 원하는대로 다시 작성하십시오.
python train.py --data data.yaml --cfg yolov5m.yaml --weights '' --batch-size 8 --epochs 1000
여기서 –cfg는 yolov5 학습 모델 s, m, l, x의 어떤 가중치를 사용합니까? 를 지정합니다. s는 학습이 가볍지만 정확도는 낮고 x는 무겁지만 정확도는 높습니다. 이번에는 m에서 실시하고 있습니다.
결과 확인
학습이 완료되면 runs/train/exp 디렉토리에 결과가 저장됩니다. Valid 디렉토리에 넣은 이미지의 추정 결과가 저장되어 있다고 생각합니다. 확인해 봅시다!
이번 데이터 수가 적었기 때문에, 굵은 줄기를 검출하기도 합니다만, 대체로 좋은 느낌이라고 생각합니다.
YOLOv5는 쉽게 구현할 수 있도록 고안되어 있으므로 꼭 해보세요.
이 내용은 블로그에서보다 자세히 설명하고 있으므로 좋으면 ↓ 참고하십시오.
Reference
이 문제에 관하여(【YOLOv5】스낵 완두의 수확용으로 물체 검출 모델을 만들어 본다【Windows】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/n91-takayuki/items/4ddbbbdefcf6dc363a38
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
data 디렉토리 안에 coco.yaml 파일이라는 물건이 있다고 생각합니다. 이것을 워드 패드 등으로 열어 주십시오. 쓰고 있는 것을 한 번 전부 지웁니다. ↓를 기입해, “data.yaml”라고 하는 파일명으로 Yolov5폴더 바로 아래에 보존해 주세요.
train: data/train/images
val: data/valid/images
nc: 1
names: [‘snack pea’]
YOLOv5를 구현해 가는~학습 실행~
아래 코드를 실행하면 학습이 시작됩니다. batch-size, epochs 등은 인수로 설정할 수 있으므로 원하는대로 다시 작성하십시오.
python train.py --data data.yaml --cfg yolov5m.yaml --weights '' --batch-size 8 --epochs 1000
여기서 –cfg는 yolov5 학습 모델 s, m, l, x의 어떤 가중치를 사용합니까? 를 지정합니다. s는 학습이 가볍지만 정확도는 낮고 x는 무겁지만 정확도는 높습니다. 이번에는 m에서 실시하고 있습니다.
결과 확인
학습이 완료되면 runs/train/exp 디렉토리에 결과가 저장됩니다. Valid 디렉토리에 넣은 이미지의 추정 결과가 저장되어 있다고 생각합니다. 확인해 봅시다!
이번 데이터 수가 적었기 때문에, 굵은 줄기를 검출하기도 합니다만, 대체로 좋은 느낌이라고 생각합니다.
YOLOv5는 쉽게 구현할 수 있도록 고안되어 있으므로 꼭 해보세요.
이 내용은 블로그에서보다 자세히 설명하고 있으므로 좋으면 ↓ 참고하십시오.
Reference
이 문제에 관하여(【YOLOv5】스낵 완두의 수확용으로 물체 검출 모델을 만들어 본다【Windows】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/n91-takayuki/items/4ddbbbdefcf6dc363a38
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
python train.py --data data.yaml --cfg yolov5m.yaml --weights '' --batch-size 8 --epochs 1000
학습이 완료되면 runs/train/exp 디렉토리에 결과가 저장됩니다. Valid 디렉토리에 넣은 이미지의 추정 결과가 저장되어 있다고 생각합니다. 확인해 봅시다!
이번 데이터 수가 적었기 때문에, 굵은 줄기를 검출하기도 합니다만, 대체로 좋은 느낌이라고 생각합니다.
YOLOv5는 쉽게 구현할 수 있도록 고안되어 있으므로 꼭 해보세요.
이 내용은 블로그에서보다 자세히 설명하고 있으므로 좋으면 ↓ 참고하십시오.
Reference
이 문제에 관하여(【YOLOv5】스낵 완두의 수확용으로 물체 검출 모델을 만들어 본다【Windows】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/n91-takayuki/items/4ddbbbdefcf6dc363a38텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)