fastai 1.0을 Google 공동체에서 실행하기 위해 한 일
3909 단어 colaboratoryDeepLearning패스트. 사랑
그 때, 세세한 곳에서 조금 집착했으므로, 그것을 정리해 보았습니다.
PyTorch 1.0 설치
fastai는 PyTorch 위에 만들어졌습니다.
하지만 정식 출시 전 PyTorch 1.0을 사용하고 있기 때문에 Nightly 빌드를 사용해야합니다.
Colab에서는 CUDA 8.0 밖에 들어 있지 않기 때문에, 그쪽을 지정하고 있습니다 (
![:arrow_down:](https://s1.md5.ltd/image/3a797dd11c599b347ed1a5f709ae8ea7.png)
cu80
부분).!pip install torch_nightly -f https://download.pytorch.org/whl/nightly/cu80/torch_nightly.html
이전 버전의 PyTorch를 설치한 경우
아래의 명령으로 삭제해 둡시다.
![:warning:](https://s1.md5.ltd/image/d5d831627c3aa2f3a049127dd39faf9c.png)
!pip uninstall torch
fastai 설치
!pip install fastai
![:exclamation:](https://s1.md5.ltd/image/9ad2088ea8007397e16c915129a7bac6.png)
아직 1.0이 되었고 API가 여전히 자주 바뀝니다. 서브마이너 버전의 갱신(예: 1.0.2
![:warning:](https://s1.md5.ltd/image/d5d831627c3aa2f3a049127dd39faf9c.png)
작업자 수
fastai는 디폴트로 CPU의 수에 따라 복수 프로세스로 달리게 되어 있습니다만, 아무래도 Colab에서는 안정적으로 움직이지 않기 때문에, 그 기능을 끄는 것이 좋을 것 같습니다.
ImageNet 형식의 폴더 구조용 함수인
image_data_from_folder
의 경우는 다음과 같이 num_workers
로 0
를 지정하면 메인 프로세스에서만 실행되게 됩니다.data = image_data_from_folder(
DATA_DIR, ds_tfms=get_transforms(), tfms=imagenet_norm, size=224,
num_workers=0 # <== こちらで0を指定する
)
learner = ConvLearner(data, arch, metrics=accuracy)
당연히 처리에 시간이 걸려 버립니다만, 무료로 사용하고 있는 범위에서는 어쩔 수 없을까…
Reference
이 문제에 관하여(fastai 1.0을 Google 공동체에서 실행하기 위해 한 일), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/diskshima/items/0a194d3996010b2d89f3텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)