스스로 이미지를 학습하여 물체 인식을 실시 Part 2
⬇︎
h tps:// 퀵했다. 작은 m/코지마 켄타로/있어 MS/f4 그림 52650 그림 f886d511d49
샘플을 실제로 검증(detect)해 보자
이번에는 Google 드라이브를 사용합니다.
먼저 google 계정으로 드라이브에 로그인하거나 새로 만드세요.
⬇︎
h tps://d ゔぇ. 오, ぇ. 코 m / d 리 ゔ ぇ / u / 2 / my d ri ゔ
로그인이 완료되면 Part1에서 만든 yolov5-master 파일을 google drive 내 드라이브에 드래그 앤 드롭합니다.
이것으로 googledrive로의 업그레이드가 완료됩니다.
그런 다음 현재 데이터 샘플에서 실행해 봅시다.
drive의 '신규' 버튼에서 '기타' ⇨ 'google colaboratory'로 이동합니다.
열면 이런 화면이 나올 것 같아요.
이렇게 하면 오른쪽 상단에 있는 파일과 같은 열에서 '런타임'을 선택합니다.
⬇︎
런타임 유형 변경을 선택한 다음 GPU를 선택합니다.
이제 저장합니다.
googlecolaboratory!nvidia-smi
먼저 실행 환경을 정돈합니다.
GPU의 속도를 높이려면 위의 코드를 실행합니다.
중간에 "Tesla P100"이 표시 될 때까지 다시 시도하십시오. (학습 속도를 높이기 위해)
처음에이 값이 나오지 않으면 파일과 같은 배열
"런타임"에서
「런타임을 출하시 설정으로 리셋」을 실시해,
"Tesla P100"이 나올 때까지 반복하십시오.
googlecolaboratoryfrom google.colab import drive
drive.mount('/content/drive')
이렇게 하면 googleacount 사용 권한이 필요하므로 허용된 계정의 URL을 복사하여 google colaboratory의 공백에 입력합니다.
마운트가 성공하면,Mounted at /content/drive
라고 표시됩니다.
yolov5-master로 이동합니다.
googlecolaboratorycd /content/drive/My Drive/yolov5-master
/content/drive/My Drive/yolov5-master
현재 경로가 표시됩니다. 이렇게 표시할 수 있으면 성공입니다.
googlecolaboratoryimport os
os.chdir("/content/drive/My Drive")
그런 다음 설정을 수행합니다.
googlecolaboratory!git clone https://github.com/ultralytics/yolov5 # clone repo
!pip install -qr yolov5/requirements.txt # install dependencies (ignore errors)
%cd yolov5
import torch
from IPython.display import Image, clear_output # to display images
from utils.google_utils import gdrive_download # to download models/datasets
clear_output()
print('Setup complete. Using torch %s %s' % (torch.__version__, torch.cuda.get_device_properties(0) if torch.cuda.is_available() else 'CPU'))
Setup complete. Using torch 1.7.0+cu101 _CudaDeviceProperties(name='Tesla P100-PCIE-16GB', major=6, minor=0, total_memory=16280MB, multi_processor_count=56)
위가 표시되면 성공입니다.
googlecolaboratorypip install -U PyYAML
PyYAML을 설치합니다. (나중에 필요할지도)
설정이 완료되면 실제로 샘플을 지금 있는 데이터만으로 검증해 보겠습니다.
googlecolaboratory!python detect.py --weights yolov5s.pt --img 640 --conf 0.25 --source data/images/
학습이 성공하면
확인 된 이미지는 아래에서 두 번째 줄의 버스 위치에 저장됩니다.
내 경우에는 runs의 detect에 exp5라는 파일에 저장되었습니다.
실제로 보자.
runs로 이동합니다.
detect를 엽니다.
exp5를 엽니다.
각 이미지 이렇게 원래 학습 데이터로 제대로 학습할 수 있네요.
이번에는, 샘플 데이터로의 실제의 검증을 실시해 보았습니다.
다음 번은 스스로 학습 데이터를 만드는 곳으로 옮기고 싶습니다.
Reference
이 문제에 관하여(스스로 이미지를 학습하여 물체 인식을 실시 Part 2), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/kojimakentaro/items/3467f515ed44a1e1840f
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
!nvidia-smi
from google.colab import drive
drive.mount('/content/drive')
cd /content/drive/My Drive/yolov5-master
import os
os.chdir("/content/drive/My Drive")
!git clone https://github.com/ultralytics/yolov5 # clone repo
!pip install -qr yolov5/requirements.txt # install dependencies (ignore errors)
%cd yolov5
import torch
from IPython.display import Image, clear_output # to display images
from utils.google_utils import gdrive_download # to download models/datasets
clear_output()
print('Setup complete. Using torch %s %s' % (torch.__version__, torch.cuda.get_device_properties(0) if torch.cuda.is_available() else 'CPU'))
pip install -U PyYAML
!python detect.py --weights yolov5s.pt --img 640 --conf 0.25 --source data/images/
Reference
이 문제에 관하여(스스로 이미지를 학습하여 물체 인식을 실시 Part 2), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/kojimakentaro/items/3467f515ed44a1e1840f텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)