인스턴스 세그멘테이션 YOLACT (Windows10, Python3.7, CUDA10.0, Pytorch 1.2.0)
소개
실시간 인스턴스 세분화의 YOLACT를 시도합니다.
개발 환경
소개
1. 여기 에서 복제합니다.
2. YOLACT 환경을 작성합니다.
conda create -n yolact python=3.7
conda activate yolact
cd yolact-master
3. 각 라이브러리를 설치합니다.
requirements.txt를 만들고 설치합니다.
requirements.txtcython
# pytorch::torchvision
# pytorch::pytorch >=1.0.1
# cudatoolkit
# cudnn
# pytorch::cuda100
matplotlib
# git # to download COCO dataset
# curl # to download COCO dataset
# unzip # to download COCO dataset
# conda-forge::bash # to download COCO dataset
opencv-python
pillow<7.0 # bug PILLOW_VERSION in torchvision, must be < 7.0 until torchvision is upgraded
# pycocotools
PyQt5 # needed on KDE/Qt envs for matplotlib
pip install -r requirements.txt
pycocotools를 설치합니다. I can't install cocoapi on Windows 10 #185
pip install "git+https://github.com/philferriere/cocoapi.git#egg=pycocotools&subdirectory=PythonAPI"
PyTorch를 설치합니다. PyTorch v1.2.0 CUDA 10.0
pip install torch==1.2.0 torchvision==0.4.0 -f https://download.pytorch.org/whl/torch_stable.html
4. weights 폴더를 만들고 yolact_base_54_800000.pth을 다운로드하여 넣습니다.
실행
아래 명령을 실행해 봅시다. input_image.png를 변경하여 원하는 이미지를 지정합니다.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=input_image.png:output_image.png
입력
output
아래 명령을 실행하여 웹캠의 영상을 입력합니다.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=0
SnapCamera 등에 웹캠을 점유하고 있는 경우는 --video=1 등으로 변경해 보세요.
처리 속도는 8.3fps 정도였습니다.
Real-Time Instance Segmentation YOLACT.#YOLACT#Python#PyTorch#AI#기계학습#DeepLearning
YOLACT++
conda create -n yolact python=3.7
conda activate yolact
cd yolact-master
cython
# pytorch::torchvision
# pytorch::pytorch >=1.0.1
# cudatoolkit
# cudnn
# pytorch::cuda100
matplotlib
# git # to download COCO dataset
# curl # to download COCO dataset
# unzip # to download COCO dataset
# conda-forge::bash # to download COCO dataset
opencv-python
pillow<7.0 # bug PILLOW_VERSION in torchvision, must be < 7.0 until torchvision is upgraded
# pycocotools
PyQt5 # needed on KDE/Qt envs for matplotlib
pip install -r requirements.txt
pip install "git+https://github.com/philferriere/cocoapi.git#egg=pycocotools&subdirectory=PythonAPI"
pip install torch==1.2.0 torchvision==0.4.0 -f https://download.pytorch.org/whl/torch_stable.html
아래 명령을 실행해 봅시다. input_image.png를 변경하여 원하는 이미지를 지정합니다.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=input_image.png:output_image.png
입력
output
아래 명령을 실행하여 웹캠의 영상을 입력합니다.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --video_multiframe=4 --video=0
SnapCamera 등에 웹캠을 점유하고 있는 경우는 --video=1 등으로 변경해 보세요.
처리 속도는 8.3fps 정도였습니다.
Real-Time Instance Segmentation YOLACT.#YOLACT#Python#PyTorch#AI#기계학습#DeepLearning
YOLACT++
YOLACT++를 실행하려면 DCNv2를 설정해야 하지만
cd external/DCNv2
python setup.py build develop
Visual Studio 오류가 발생했습니다.
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include\crt/host_config.h(133): fatal error C1189: #error: -- unsupported Microsoft Visual Studio version! Only the versions 2012, 2013, 2015 and 2017 are supported!
error: command 'C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v9.0\\bin\\nvcc.exe' failed with exit status 2
오류의 내용을 보면 CUDA9.0의 경로가 읽혀지고 게다가 Visual Studio 2019에는 대응하지 않는 것 같습니다. CUDA의 경로(시스템 환경 변수)를 10.0으로 해 보았습니다만, Visual Studio 2017이 들어 있는데도, 참조해 주지 않는 모양. Visual Studio 2019는 제거하고 싶지 않으므로 포기하기로 결정합니다.
고맙습니다.
Reference
이 문제에 관하여(인스턴스 세그멘테이션 YOLACT (Windows10, Python3.7, CUDA10.0, Pytorch 1.2.0)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/SatoshiGachiFujimoto/items/842d503d2eae27813d74텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)