RuntimeError: DataLoader worker (pid 27) is killed by signal: Bus error.
1275 단어 소프트웨어 설치
docker에서 오류 발생
ERROR: Unexpected bus error encountered in worker. This might be caused by insufficient shared memory (shm).
Traceback (most recent call last):
File "run_on_thn_seq.py", line 44, in
for step, (imgs, img_ids) in enumerate(val_loader):
File "/opt/conda/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 280, in __next__
idx, batch = self._get_batch()
File "/opt/conda/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 259, in _get_batch
return self.data_queue.get()
File "/opt/conda/lib/python3.6/queue.py", line 164, in get
self.not_empty.wait() File "/opt/conda/lib/python3.6/threading.py", line 295, in wait
waiter.acquire() File "/opt/conda/lib/python3.6/site-packages/torch/utils/data/dataloader.py", line 178, in handler
_error_if_any_worker_fails()
RuntimeError: DataLoader worker (pid 69) is killed by signal: Bus error.root@8719bf31dda6:~/deeplabv3/visualization# exit
해결 방법
마운트 후 shm 크기 설정 sudo nvidia-docker run --rm -it -v/home/lab316/Documents/Code/DepthSeg/deeplabv3-torch:/root/deeplabv3 --runtime=nvidia --shm-size 8g-m 32G --memory-swap -1 --name lab316 0.4_cuda9_cudnn7:latest/bin/bash
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
nginx 부하 균형, 다 중 기기 다 gpu 카드 서비스 대외 노출 인터페이스 문제 해결사고: 여러 gpu 서비스 인터페이스 -- > ngxin 부하 균형 - > 대외 노출 하나. 1 기 2 카드 의 경우, 그 중에서 gunicorn 은 1 카드 다 중 프로 세 스 서 비 스 를 배치 하여 이 글 을 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.