【GoogleCloudPlatform】 기존 인스턴스에 GPU 추가
패키지의 버전을 변경하거나 왠지 모르므로 백업 권장입니다.
환경
CentOS 7.6
파이썬 3.5
인스턴스의 머신 구성 변경
인스턴스를 시작하는 경우 중지하고 인스턴스 편집 화면으로 이동합니다.
편집 화면의 머신 타입의 곳의 커스터마이즈를 선택하면 "GPU의 수"를 선택할 수 있게 된다.
여기서 좋아하는 GPU 수와 타입을 선택하고 화면 하단의 "저장"을 선택.
이번에는 Tesla-T4를 선택한 경우의 환경 설정 순서에 대해 씁니다. GPU 타입이 다른 경우는 적절히 읽어 주십시오.
*현재 GPU에 대응하고 있는 리전은 한정되어 있으므로 주의. 만약 대응하고 있지 않는 리전에서 인스턴스를 세우고 있으면(GPU의 선택 항목이 나오지 않으면 비대응의 가능성 높음) 일단 디스크 이미지를 취해 인스턴스를 재구성하는 것이 빠를까 생각합니다.
여기까지 설정하면(자), 한번 더 "시작">"기동"으로 인스턴스를 기동.
드라이버 다운로드
우선은 OS의 버전을 확인.$cat /etc/redhat-release
만약을 위해 cuda-9-0이 미설치인 것도 확인해 둡니다.$rpm -q cuda-9-0
NVIDIA 페이지에서 CUDAtoolkit을 다운로드합니다.$curl -O http://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-repo-rhel7-9.0.176-1.x86_64.rpm
시스템에 리포지토리 추가$sudo rpm -i --force ./cuda-repo-rhel7-9.0.176-1.x86_64.rpm
epel-release 리포지토리 설치$sudo yum install epel-release
Yum 캐시 삭제$sudo yum clean all
CUDA9.0 설치$sudo yum install cuda-9-0
CUDA9.0에 드라이버가 포함된다는 기재도 있었지만, 자신의 환경에서는 잘 움직이지 않았기 때문에 수동으로 NVIDIA 드라이버를 다운로드. (어쩌면 중복일지도.)$curl -O http://jp.download.nvidia.com/tesla/410.79/NVIDIA-Linux-x86_64-410.79.run
$sudo sh NVIDIA-Linux-x86_64-410.79.run
영구 모드 사용$nvidia-smi -pm 1
* 여기서 다음과 같은 오류가 발생하면 인스턴스를 다시 시작해보십시오.
NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running
지금까지 인스턴스에서 GPU를 사용하기 위한 준비 완료.
여기에서는 tensorflow/keras에서 GPU를 사용하기 위한 준비를 한다.
cuDNN 다운로드
아래 사이트에서 cuDNN을 다운로드합니다.
이번에는 리눅스의 9.0 버전을 선택했습니다.
htps : //로 ゔぇぺぺr. 응아아. 코 m / rdp / 쿠 드 - w w ぉ 아 d
인스턴스에 다운로드한 폴더를 배치하면 우선은 압축해제.$ tar -xvzf cudnn-9.0-linux-x64-v7.4.2.24.tgz
그래서 PATH를 추가해 둡니다.$export CUDA_ROOT="/usr/local/cuda"
$export LIBRARY_PATH=$CUDA_ROOT/lib:$CUDA_ROOT/lib64:$LIBRARY_PATH
$export LD_LIBRARY_PATH=$CUDA_ROOT/lib64/
source ~/.bash_profile
tensorflow-gpu 도입
수수하게 이것이 귀찮았다. 패키지 버전은 꽤주의하지 않는다는 교훈.
이 근처는 각자의 환경에 의해서도 상당히 바뀔까 생각하므로, 자신의 환경을 확인하면서 실행해 주세요.
anaconda를 사용하는 경우 다음 명령을 사용하여 현재 가상 환경 패키지를 확인할 수 있습니다.$ conda list
여기서 tensorflow라고 표시되는 경우는 주의. tensorflow-gpu와는 공존할 수 없기 때문에 일단 언인스톨할 필요가 있다. (pip를 통해 설치한 경우는 pip 명령으로 삭제)$conda uninstall tensorflow
그리고 tensorflow-gpu를 설치. 최신판의 tensorflow-gpu라고 에러가 되었으므로, 버전 1.8.0의 것을 취해 옵니다.$conda install tensorflow-gpu==1.8.0
확인
여기까지 준비는 모두 할 수 있었습니다.
동작 확인하고 싶은 경우는 아래의 코드를 실행해 보세요. keras 사용하고 있는 사람은 만약을 위해 그쪽도 확인해 두는 것이 좋을 것 같습니다.
import tensorflow as tf
# Creates a graph.
with tf.device('/device:GPU:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
allow_soft_placement=True, log_device_placement=True))
# Runs the op.
print(sess.run(c))
참고 : htps //w w. 천식 rfぉw. 오 rg / 구이 데 / 우신 g_g 푸
Reference
이 문제에 관하여(【GoogleCloudPlatform】 기존 인스턴스에 GPU 추가), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/Gri_Gra/items/5399b0340d9276897864
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
인스턴스를 시작하는 경우 중지하고 인스턴스 편집 화면으로 이동합니다.
편집 화면의 머신 타입의 곳의 커스터마이즈를 선택하면 "GPU의 수"를 선택할 수 있게 된다.
여기서 좋아하는 GPU 수와 타입을 선택하고 화면 하단의 "저장"을 선택.
이번에는 Tesla-T4를 선택한 경우의 환경 설정 순서에 대해 씁니다. GPU 타입이 다른 경우는 적절히 읽어 주십시오.
*현재 GPU에 대응하고 있는 리전은 한정되어 있으므로 주의. 만약 대응하고 있지 않는 리전에서 인스턴스를 세우고 있으면(GPU의 선택 항목이 나오지 않으면 비대응의 가능성 높음) 일단 디스크 이미지를 취해 인스턴스를 재구성하는 것이 빠를까 생각합니다.
여기까지 설정하면(자), 한번 더 "시작">"기동"으로 인스턴스를 기동.
드라이버 다운로드
우선은 OS의 버전을 확인.$cat /etc/redhat-release
만약을 위해 cuda-9-0이 미설치인 것도 확인해 둡니다.$rpm -q cuda-9-0
NVIDIA 페이지에서 CUDAtoolkit을 다운로드합니다.$curl -O http://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-repo-rhel7-9.0.176-1.x86_64.rpm
시스템에 리포지토리 추가$sudo rpm -i --force ./cuda-repo-rhel7-9.0.176-1.x86_64.rpm
epel-release 리포지토리 설치$sudo yum install epel-release
Yum 캐시 삭제$sudo yum clean all
CUDA9.0 설치$sudo yum install cuda-9-0
CUDA9.0에 드라이버가 포함된다는 기재도 있었지만, 자신의 환경에서는 잘 움직이지 않았기 때문에 수동으로 NVIDIA 드라이버를 다운로드. (어쩌면 중복일지도.)$curl -O http://jp.download.nvidia.com/tesla/410.79/NVIDIA-Linux-x86_64-410.79.run
$sudo sh NVIDIA-Linux-x86_64-410.79.run
영구 모드 사용$nvidia-smi -pm 1
* 여기서 다음과 같은 오류가 발생하면 인스턴스를 다시 시작해보십시오.
NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running
지금까지 인스턴스에서 GPU를 사용하기 위한 준비 완료.
여기에서는 tensorflow/keras에서 GPU를 사용하기 위한 준비를 한다.
cuDNN 다운로드
아래 사이트에서 cuDNN을 다운로드합니다.
이번에는 리눅스의 9.0 버전을 선택했습니다.
htps : //로 ゔぇぺぺr. 응아아. 코 m / rdp / 쿠 드 - w w ぉ 아 d
인스턴스에 다운로드한 폴더를 배치하면 우선은 압축해제.$ tar -xvzf cudnn-9.0-linux-x64-v7.4.2.24.tgz
그래서 PATH를 추가해 둡니다.$export CUDA_ROOT="/usr/local/cuda"
$export LIBRARY_PATH=$CUDA_ROOT/lib:$CUDA_ROOT/lib64:$LIBRARY_PATH
$export LD_LIBRARY_PATH=$CUDA_ROOT/lib64/
source ~/.bash_profile
tensorflow-gpu 도입
수수하게 이것이 귀찮았다. 패키지 버전은 꽤주의하지 않는다는 교훈.
이 근처는 각자의 환경에 의해서도 상당히 바뀔까 생각하므로, 자신의 환경을 확인하면서 실행해 주세요.
anaconda를 사용하는 경우 다음 명령을 사용하여 현재 가상 환경 패키지를 확인할 수 있습니다.$ conda list
여기서 tensorflow라고 표시되는 경우는 주의. tensorflow-gpu와는 공존할 수 없기 때문에 일단 언인스톨할 필요가 있다. (pip를 통해 설치한 경우는 pip 명령으로 삭제)$conda uninstall tensorflow
그리고 tensorflow-gpu를 설치. 최신판의 tensorflow-gpu라고 에러가 되었으므로, 버전 1.8.0의 것을 취해 옵니다.$conda install tensorflow-gpu==1.8.0
확인
여기까지 준비는 모두 할 수 있었습니다.
동작 확인하고 싶은 경우는 아래의 코드를 실행해 보세요. keras 사용하고 있는 사람은 만약을 위해 그쪽도 확인해 두는 것이 좋을 것 같습니다.
import tensorflow as tf
# Creates a graph.
with tf.device('/device:GPU:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
allow_soft_placement=True, log_device_placement=True))
# Runs the op.
print(sess.run(c))
참고 : htps //w w. 천식 rfぉw. 오 rg / 구이 데 / 우신 g_g 푸
Reference
이 문제에 관하여(【GoogleCloudPlatform】 기존 인스턴스에 GPU 추가), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/Gri_Gra/items/5399b0340d9276897864
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
$sudo sh NVIDIA-Linux-x86_64-410.79.run
아래 사이트에서 cuDNN을 다운로드합니다.
이번에는 리눅스의 9.0 버전을 선택했습니다.
htps : //로 ゔぇぺぺr. 응아아. 코 m / rdp / 쿠 드 - w w ぉ 아 d
인스턴스에 다운로드한 폴더를 배치하면 우선은 압축해제.
$ tar -xvzf cudnn-9.0-linux-x64-v7.4.2.24.tgz
그래서 PATH를 추가해 둡니다.
$export CUDA_ROOT="/usr/local/cuda"
$export LIBRARY_PATH=$CUDA_ROOT/lib:$CUDA_ROOT/lib64:$LIBRARY_PATH
$export LD_LIBRARY_PATH=$CUDA_ROOT/lib64/
source ~/.bash_profile
tensorflow-gpu 도입
수수하게 이것이 귀찮았다. 패키지 버전은 꽤주의하지 않는다는 교훈.
이 근처는 각자의 환경에 의해서도 상당히 바뀔까 생각하므로, 자신의 환경을 확인하면서 실행해 주세요.
anaconda를 사용하는 경우 다음 명령을 사용하여 현재 가상 환경 패키지를 확인할 수 있습니다.$ conda list
여기서 tensorflow라고 표시되는 경우는 주의. tensorflow-gpu와는 공존할 수 없기 때문에 일단 언인스톨할 필요가 있다. (pip를 통해 설치한 경우는 pip 명령으로 삭제)$conda uninstall tensorflow
그리고 tensorflow-gpu를 설치. 최신판의 tensorflow-gpu라고 에러가 되었으므로, 버전 1.8.0의 것을 취해 옵니다.$conda install tensorflow-gpu==1.8.0
확인
여기까지 준비는 모두 할 수 있었습니다.
동작 확인하고 싶은 경우는 아래의 코드를 실행해 보세요. keras 사용하고 있는 사람은 만약을 위해 그쪽도 확인해 두는 것이 좋을 것 같습니다.
import tensorflow as tf
# Creates a graph.
with tf.device('/device:GPU:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
allow_soft_placement=True, log_device_placement=True))
# Runs the op.
print(sess.run(c))
참고 : htps //w w. 천식 rfぉw. 오 rg / 구이 데 / 우신 g_g 푸
Reference
이 문제에 관하여(【GoogleCloudPlatform】 기존 인스턴스에 GPU 추가), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/Gri_Gra/items/5399b0340d9276897864
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
여기까지 준비는 모두 할 수 있었습니다.
동작 확인하고 싶은 경우는 아래의 코드를 실행해 보세요. keras 사용하고 있는 사람은 만약을 위해 그쪽도 확인해 두는 것이 좋을 것 같습니다.
import tensorflow as tf
# Creates a graph.
with tf.device('/device:GPU:0'):
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
# Creates a session with allow_soft_placement and log_device_placement set
# to True.
sess = tf.Session(config=tf.ConfigProto(
allow_soft_placement=True, log_device_placement=True))
# Runs the op.
print(sess.run(c))
참고 : htps //w w. 천식 rfぉw. 오 rg / 구이 데 / 우신 g_g 푸
Reference
이 문제에 관하여(【GoogleCloudPlatform】 기존 인스턴스에 GPU 추가), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/Gri_Gra/items/5399b0340d9276897864텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)