CUDA를 로컬에 설치하고 원하는 CUDA를 호출합니다.
4063 단어 CUDA
최근에는 GPU와 딥 러닝 기술의 발전으로 폭넓은 태스크에 적용할 수 있게 되어 왔습니다.
그럼 여러분은 자신의 환경에서 sudo를 사용할 수 있습니까?
회사에 근무하는 분 등은 사용할 수없는 경우가 많을 것입니다.
최근에는 딥 러닝 프레임워크의 발전에 의해 pip나 conda만으로 sudo를 사용하지 않고, GPU를 간단하게 사용할 수 있게 되어 왔습니다만, 그래도 여전히 CUDA를 인스톨할 필요성에 육박할 수도 있을 것입니다.
CUDA는 원하지만 sudo는 사용할 수 없으며 시스템의 CUDA를 변경하는 것은 무서운 이유는 로컬로 설치입니다!
파일 다운로드는 오래된 녀석과 동일하지만 10.x 이후에는 상당히 작업이 변경되었으므로 그 절차를 설명합니다.
run 파일 시작 후
sh cuda_**_linux.run
를 한 후, 아래와 같은 화면이 됩니다.
accept
를 입력합니다.
그러면 다음 화면이 표시되므로 Enter 키를 눌러 다음과 같이 CUDA Toolkit 10.1
만 설치하십시오.
그런 다음 커서를 CUDA Toolkit 10.1
에 맞추고 A
를 입력합니다.
그러면 다음 화면으로 이동하므로 Change Toolkit Install Path
커서를 맞추고 Enter를 누르면 설치 경로를 입력할 수 있게 되므로 입력합니다.
그런 다음 아래와 같이 모든 검사를 제거하십시오 (/usr/local 파일은 sudo가 필요하므로 할 수 없습니다).
그리고 Done
→ Install
로 설치를 할 수 있을 것입니다.
오래된 사람 (9.x보다 오래된 경우)
가정 환경, 전제는 다음과 같습니다.
- 우분투 16.04
- Nvidia-driver가 들어 있습니다.
- CUDA9.1은 /usr/local
이지만 CUDA9.0을 원합니다.
- sudo는 사용할 수 없습니다.
설치
sudo는 사용할 수 없는 전제이므로 당연히 apt
야는 사용하지 않습니다.
우선 공식 페이지로 가서 Legacy Releases로
htps : //에서 ゔぇぺぺr. 응아아. 코 m / 쿠다 - ww 아아 ds
중요한 것은 runfile(local)
를 선택하는 것.
에서 Base Installer에서 다운로드하십시오.
그래서 원하는 곳에서 시작.
Instructions에 sudo라고 쓰고 있는 녀석!이라고 하는 사람,
초조하지 마십시오. 이 runfile의 기본 설치 위치는 /usr/local
어쨌든 시작 자체에는 sudo가 필요하지 않습니다.
그래서 sudo를 제거하고 시작합시다.
sh cuda_**_linux.run
그러면 이용 규약이 나옵니다.
한 번 더 읽고 있다면 q
를 눌러 건너 뛸 수 있습니다.
그리고 accept
와 유형.
그리고 이런 느낌으로 설정.
# ドライバーいる? (いるならyで)
Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 375.26?
(y)es/(n)o/(q)uit: n
# CUDA 9.0インストールする? (ここ重要1,絶対y)
Install the CUDA 9.0 Toolkit?
(y)es/(n)o/(q)uit: y
# パスを指定してね(ここ重要2)
Enter Toolkit Location
\[ default is /usr/local/cuda-9.0 \]:/home/hogehoge/cuda-9.0
# symbolic linkいる? (たぶん作れないのでn)
Do you want to install a symbolic link at /usr/local/cuda?
(y)es/(n)o/(q)uit: n
# サンプルいる? (煙がもやもやするやつ。好きならどうぞ)
Install the CUDA 9.0 Samples?
(y)es/(n)o/(q)uit: n
잠시 기다립니다.
이제 OK.
통행
설치한 cuda를 환경 변수의 $LD_LIBRARY_PATH를 통과시키자.
CuDNN 설치
Tensorflow와 같은 프레임워크를 사용하는 경우 대부분 CuDNN을 넣어야 하기 때문입니다.
공식 페이지(회원 등록이 필요합니다)
htps : //에서 ゔぇぺぺr. 응아아. 코 m / rdp / 후 rm / 쿠 드 - w w ぉ 아 d - r ゔ
tar xzvf cudnn-**.tgz
cp -a cuda/lib64/* /home/hogehoge/cuda-9.0/lib64/
cp -a cuda/include/* /home/hogehoge/cuda-9.0/include/
참고
이것으로 완료!
수고하셨습니다.
Reference
이 문제에 관하여(CUDA를 로컬에 설치하고 원하는 CUDA를 호출합니다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/syoamakase/items/8b9570d79effbb458b10
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
가정 환경, 전제는 다음과 같습니다.
- 우분투 16.04
- Nvidia-driver가 들어 있습니다.
- CUDA9.1은
/usr/local
이지만 CUDA9.0을 원합니다.- sudo는 사용할 수 없습니다.
설치
sudo는 사용할 수 없는 전제이므로 당연히
apt
야는 사용하지 않습니다.우선 공식 페이지로 가서 Legacy Releases로
htps : //에서 ゔぇぺぺr. 응아아. 코 m / 쿠다 - ww 아아 ds
중요한 것은
runfile(local)
를 선택하는 것.에서 Base Installer에서 다운로드하십시오.
그래서 원하는 곳에서 시작.
Instructions에 sudo라고 쓰고 있는 녀석!이라고 하는 사람,
초조하지 마십시오. 이 runfile의 기본 설치 위치는
/usr/local
어쨌든 시작 자체에는 sudo가 필요하지 않습니다.그래서 sudo를 제거하고 시작합시다.
sh cuda_**_linux.run
그러면 이용 규약이 나옵니다.
한 번 더 읽고 있다면
q
를 눌러 건너 뛸 수 있습니다.그리고
accept
와 유형.그리고 이런 느낌으로 설정.
# ドライバーいる? (いるならyで)
Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 375.26?
(y)es/(n)o/(q)uit: n
# CUDA 9.0インストールする? (ここ重要1,絶対y)
Install the CUDA 9.0 Toolkit?
(y)es/(n)o/(q)uit: y
# パスを指定してね(ここ重要2)
Enter Toolkit Location
\[ default is /usr/local/cuda-9.0 \]:/home/hogehoge/cuda-9.0
# symbolic linkいる? (たぶん作れないのでn)
Do you want to install a symbolic link at /usr/local/cuda?
(y)es/(n)o/(q)uit: n
# サンプルいる? (煙がもやもやするやつ。好きならどうぞ)
Install the CUDA 9.0 Samples?
(y)es/(n)o/(q)uit: n
잠시 기다립니다.
이제 OK.
통행
설치한 cuda를 환경 변수의 $LD_LIBRARY_PATH를 통과시키자.
CuDNN 설치
Tensorflow와 같은 프레임워크를 사용하는 경우 대부분 CuDNN을 넣어야 하기 때문입니다.
공식 페이지(회원 등록이 필요합니다)
htps : //에서 ゔぇぺぺr. 응아아. 코 m / rdp / 후 rm / 쿠 드 - w w ぉ 아 d - r ゔ
tar xzvf cudnn-**.tgz
cp -a cuda/lib64/* /home/hogehoge/cuda-9.0/lib64/
cp -a cuda/include/* /home/hogehoge/cuda-9.0/include/
참고
이것으로 완료!
수고하셨습니다.
Reference
이 문제에 관하여(CUDA를 로컬에 설치하고 원하는 CUDA를 호출합니다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/syoamakase/items/8b9570d79effbb458b10
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Tensorflow와 같은 프레임워크를 사용하는 경우 대부분 CuDNN을 넣어야 하기 때문입니다.
공식 페이지(회원 등록이 필요합니다)
htps : //에서 ゔぇぺぺr. 응아아. 코 m / rdp / 후 rm / 쿠 드 - w w ぉ 아 d - r ゔ
tar xzvf cudnn-**.tgz
cp -a cuda/lib64/* /home/hogehoge/cuda-9.0/lib64/
cp -a cuda/include/* /home/hogehoge/cuda-9.0/include/
참고
이것으로 완료!
수고하셨습니다.
Reference
이 문제에 관하여(CUDA를 로컬에 설치하고 원하는 CUDA를 호출합니다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/syoamakase/items/8b9570d79effbb458b10텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)