Chainer Windows10에서 Cuda9.1+Chainer4.1의 환경을 가장 빠르게 만든다 최근에는 라이브러리(특히 Python에서)가 충실하고 있어, GPU를 이용한 기계 학습이 가까워지고 있습니다만, Windows에서의 환경 구축은 역시 어렵네요. 요전날, 연구실의 Windows 머신에서 Cuda+Chainer의 환경을 만드는데 꽤 고생했기 때문에, 비망록도 겸해 결론을 정리해 둡니다. 물론 공식 추천 우분투와 CentOS가 압도적으로 편합니다. 본 기사는 「그래도 Window... VisualStudio2017ChainerDeepLearningWindows10CUDA chainer에서 caffemodel을 사용해보기 향후 여러가지 모델을 Fine-tuning 하는 것을 생각해, chainer에서도 그 기술을 익히고 싶다. 이번에는 caffe model을 읽고 추론만 한다. 참고로 한 사이트는 이쪽 OS:Ubuntu14.04 GPU:GTX1070 CUDA:8.0 RC cuDNN:5.1 python2.7.6 이번 사용하는 모델은 GoogLeNet. 여기에서 다운로드. 이미지를 입력에 적합한 numpy 배열로... python2.7우분투14.04CaffeChainer chainer로 optimizer의 성능 비교 chainer의 Mnist 샘플을 사용하여 optimizer를 비교합니다. GPU:GTX1070 OS:Ubuntu14.04 CUDA:8.0RC cuDNN:5.1 파이썬 : 2.7.6 chainer:1.14.0 mnist 샘플에서는 아래의 83, 84행 부분 train_mnist.py 로 로그에 loss와 accuracy를 json 형식으로 쓰고있다. json은 다루기 어렵기 때문에 csv로 ... OptimizerChainerDeepLearningpython2.7우분투14.04 chainer의 connection을 괴롭히고 새로운 층을 만든다 (2) GPU GTX1070 우분투 14.04 chainer 1.14.0 chainer에서 최신 모델을 구현할 때는 links/connection이나 functions/connection을 괴롭힐 필요가 있다. 그래서 가장 단순한 linear.py를 만나 새로운 레이어를 만들어 보자. 전회는 chainer/functions/connection/linear.py 의 forward 함수를 만져 순전파를... ChainerDeepLearningpython2.7우분투14.04numpy chainer의 connection을 괴롭히고 새로운 층을 만든다 (1) GPU GTX1070 우분투 14.04 chainer 1.14.0 chainer에서 최신 모델을 구현할 때는 links/connection이나 functions/connection을 괴롭힐 필요가 있다. 그래서 가장 단순한 linear.py를 만나 새로운 레이어를 만들어 보자. 지난번은 linear.py의 내용을 확인했다. 이번은 chainer/functions/connection/linea... ChainerDeepLearningpython2.7우분투14.04numpy LIS ver.2를 넣어 사용해보기 이 정보는 오래되었으므로 현재 LIS ver.2에 적합하지 않을 수 있습니다. 과거 12회로 PC를 자작한 후, Ubuntu 14.04, CUDA, cuDNN, chainer, dqn, LIS, Tensorflow, OpenAIGym을 순차적으로 인스톨 해, 몇개의 모델을 달렸다. 이번은 도완고 씨의 LIS의 버젼 2를 인스톨 해, 사용해 본다. 코드는 이쪽의 pull request에 있다.... DQ응ChainerDeepLearninglis우분투14.04 np.choice와 chainer.utils.WalkerAlias의 속도 대결 chainer의 매뉴얼에 「chainer.utils.WalkerAlias는 np.choice보다 빠르다」라고 쓰여 있었으므로, 속도를 비교해 보았다. 그러나 CPU 전용. 난수 생성 플롯 alias method는 확실히 O(1)이라는 것을 알 수 있다(sampling only의 경우. 계산 시간은 샘플수에 의존하지 않는다). alias method는 초기화에 방대한 시간이 걸리므로 초기화 시... 파이썬Chainer난수numpy 딥 러닝으로 간단한 초해상을 해보았다 MNIST의 필기 숫자 이미지를 이용하여 간단한 초해상을 해 보았습니다. 전체 코드는 에 업로드했습니다. $28\times 28$의 필기 숫자 이미지를 $10\times 10$로 축소합니다. 이것을 $28\times 28$로 확장합니다. 축소했을 때에 정보가 손실되기 때문에, 당연히 흐릿한 것 같은 화상이 되고 있습니다. 흐릿한 저화질 이미지를 입력하면 원본에 가까운 이미지가 출력되도록 학습... 파이썬ChainerDeepLearningMachineLearning기계 학습 【쇼기 AI】「쇼기 AI에서 배우는 딥 러닝」을 읽는다♪~강한 방책 네트워크를 목표로 한다 제일 하룻밤도 본서에서 벗어나지만 어젯밤의 연장으로 VGG 모델을 이용해 강한 방책 네트워크를 목표로 한다. (1) VGG 모델을 이용한다 (1) VGG 모델을 이용한다 거의 전회의 Cifar10의 모델로부터 상상할 수 있다고 생각합니다만, 모델은 이하와 같습니다. 그러나 만약 Maxpooling을 살리면, 이번 채널마다의 화상 사이즈가 9x9이므로, 4x4, 2x2가 되어 3회로 1x1이 ... 컴퓨터 장기파이썬ChainerDeepLearning데이터 분석 Raspberry Pi와 딥 러닝으로 이미지 인식을 시도하면 무거웠기 때문에 서버가 계산했습니다. Raspberry Pi에서 ImageNet의 학습 모델을 사용하여 카메라에서 입력 한 이미지를 인식하려고 시도했지만 모델이 너무 커서 메모리를 타지 않았습니다. 그래서 다음과 같이 라즈파이에서 서버로 이미지를 보내 인식 결과를 반환하는 구조를 구현했습니다. 소켓 통신으로 서버와 통신합니다. 코드는 에도 업로드되었습니다. 이미지 인식 부분은 Chainer에서 실시하고 있습니다. 모델은 VGG를... RaspberryPi파이썬ChainerDeepLearningMachineLearning 학습률 조정, 미리 충분합니까? 나중에 더할까? Hivemall의 구현으로 초기 파라미터를 재고할 기회가 있었지만, 초기 파라미터의 방식에 의문을 가지는 부분이 있어 정리하고 싶었으므로 이 엔트리를 쓰고 있다 AdaGrad에서는 g: 구배, w: 특징의 가중치의 배열에 대해 다음과 같이 갱신한다. 여기서 gg: 초기값 0.0의 배열, eta: 학습률의 상수, η가 학습률. AdaGrad에서는, 그라디언트의 제곱을 훈련 사례마다 더해, 학습... KerasAdagradChainerTensorFlow기계 학습 온도 softmax 각서 모델의 증류 등에 나오는 손실 함수 (어쩌면 그 밖에도 나오는 것이지만 별로 모른다). "조금 높은 확률로 나온 클래스를 중시하고 학습하고 싶다!"라든지 "낮은 확률의 클래스를 잘라내지 않고 학습하고 싶다!"때 사용된다. S(y_i)=\frac{e^{\frac{y_i}{T}}}{\Sigma{e^{\frac{y_k}{T}}}} 온도 ($T$)가 $1$보다 클 때: 낮은 확률을 강조 온도($T$... softmaxMachineLearningChainer 분기에 의한 학습 모델의 소형화 효과 「Chainer pruning」으로 검색하면 이하의 사이트가 히트한다. pruning의 장점은 파라미터의 삭감이지만, 이것에 의해 학습 모델의 용량 삭감도 기대할 수 있다. 이번에는 잃어버린 하지 않는 범위에서 pruning을 반복하여 어디까지 학습 모델을 삭감할 수 있는지를 검증한다. 우분투 16.04.4 LTS 파이썬 3.5.2 chainer 4.0.0 numpy 1.14.2 cupy 4... 파이썬Chainernumpy Windows에서 Chainer (Cuda + Cupy)를 설치하려고하면 빠졌기 때문에 메모 덧붙여서 빠진 것은 4의 fastrlock 부분뿐이므로 3으로 넘어지지 않으면 읽어 날려주세요. 그 이외는 극히 보통의 설치 순서입니다. Anaconda를 통해 설치. Nvidia 사이트에서 Cuda를 설치. (후술의 Cupy에 Cuda9.2에 대응한 버전이 없기 때문에) pip install cupy-cuda91 실행. 압축을 풀고 명령 스크립트에서 압축을 푼 폴더로 이동합니다.python... Chainer CUDA를 이용한 DeepLearning 개발 환경 구축 GPU를 이용해 DeepLearning을 하기 위한 환경 구축의 비망록입니다. Visual Studio 2017 Anaconda CUDA 9.2 cuDNN PyCUDA 우선은 를 다운로드·인스톨 한다. 설치 시 주의하는 것은 Windows 10 SDK의 구성 요소를 잊지 않고 설치하는 것(오렌지 테두리로 둘러싼 곳). ''C++로 데스크톱 개발'' 아래에 있습니다. Python과 주요 라이브... 파이썬ChainerDeepLearningCUDAAnaconda 구현 예: Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network 곧 CVPR2018에서 발표되는 다음 논문 Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network 마음대로 구현했습니다. 코드는 여기에 업했습니다. 논문의 해설은 이쪽으로 업했습니다 Cycle-GAN과의 비교에서 말하면, 생성된 화상에 ... GANsCNNChainerDeepLearningCycleGAN ChainerCV YOLO 움직여 보았다 ChainerCV에서도 YOLO를 사용할 수있게되었습니다 2018/05/16 현재 소스 코드에서 설치해야합니다. YOLOv2 · YOLOv3의 2 종류가 준비되어있다 ( )에서 YOLO를 사용할 수있게 된 것 같아서 움직여 보았다 OS: Windows 10 1803 WSL Ubuntu18.04 python: 3.6.5 pip: 10.0.1 2018/05/16 현재 최신 버전 인 0.9.0에는... 파이썬Chainerchainercv chainer의 작법 그 12 chainer의 작법, 조사해 보았다. kaggle의 cat&dog 해봤다. Convolution2D 사용해 보았다. 이상.... ChainerKaggle chainer의 작법 그 11 chainer의 작법, 조사해 보았다. Deconvolution2D 사용해 보았다. autoencoder 써 보았다. 이상.... AutoencoderDeconvolution2DChainerMNIST chainer의 작법 그 10 chainer의 작법을 조사해 보았다. kaggle의 cat&dog 해봤다. 이상.... ChainerKaggle chainer의 작법 그 9 chainer의 작법을 조사해 보았다. 필기를 추정해 보았다. 이상.... PyQt5필기ChainerMNIST chainer의 작법 그 7 chainaer의 작법을 조사해 보았다. open-ai gym 해봤다. 이상.... GymChainer chainer의 작법 그 5 chainer의 작법, 조사해 보았다. autoencoder. datasets get_mnist 사용한다. datasets의 TupleDataset 사용한다. Classifier 사용하지만, loss는 mean_squared를 사용한다. 활성화는 relu. optimaizer는 Adam. 이상.... AutoencoderChainer chainer의 작법 그 4 chainer의 작법을 조사해 보았다. 옵티마이저. 분류. 이상.... OptimizerChainer chainer의 작법 그 2 chainer의 작법, 조사해 보았다. 회귀. -3.0 ~ +3.0의 100점 sin이 교사 데이터 dataset, iterator는 사용하지 않습니다. 에포크는 300 미니 배치는 100 회귀이므로 활성화 함수는 tanh loss는 mean_squared 옵티마이저는 Adam Variable에 데이터를 흘려 넣는다. 에포크와 loss. 좋은 느낌. 이상.... sinChainer 신경망으로 회귀를 하고 신장 +3 사이즈로 섹시 여배우의 컵수를 추정 마지막 계속됩니다. 전회는 NN로 분류를 실시해 추정시키고 있었습니다만, 정밀도가 나빴기 때문에, 이번은 회귀로 추정을 실시했습니다. 전회와 같습니다. 전회 및 선행 연구와 같습니다. ※ 선행 연구 ... 덧붙여서, cup에서 cup num을 낳는 가공을 실시해, 이하와 같은 데이터로 하고 있습니다. (실은 전회도입니다만) code 학습은 4층 신경망에서 실시합니다. 복잡한 모델이 더 적합한... 변태신경망파이썬Chainer기계 학습 파이썬으로 쉽게 GPU 계산을 할 수 있는 Cupy 소개 파이썬으로 행렬 계산을 하는 경우는 통상 CPU로 계산하는 Numpy를 사용합니다만, 행렬수가 많은 경우는 GPU로 계산을 할 수 있는 Cupy가 편리합니다. GPU는 코어수가 압도적이 많기 때문에 경우에 따라서는 수배~수백배로 계산할 수 있는 일이 있습니다. 간단한 코드로 간편하게 GPU 행렬 계산을 할 수 있으므로, 물리 시뮬레이션 등에도 사용해 보면 좋을지도 모릅니다. 현재 linux ... 파이썬CuPyChainernumpy 자동 엔코더에 아핀 변환 포함 이전 기사에서는 이미지의 임의 점의 좌표 $(u, v)$를 입력으로 받아 이미지 값을 출력하는 신경망 모델을 구현했습니다. 이것을 오토엔코더의 디코더부로서 사용하는 것으로, 해상도에 의존하지 않는 화상 표현을 실시할 수 있습니다. 이번에는 이 디코더에 입력하는 좌표치에 아핀 변환을 적용하는 것을 생각합니다. 각 입력 이미지에 대해 적절한 아핀 변환 매개 변수를 사용할 수 있으면 이미지의 잠재... DeepLearningChainer기계 학습 AI로 가상의 프로야구 선수를 생성해 보았다 적대적 생성 네트워크를 알고 그 가능성에 설레게 Python님이 좋아합니다. 프로야구가 좋아 의 선수 명감이라면, 얼굴 사진을 대량으로 취득할 수 있다는 것을 깨달았다 Chainer를 사용할 수 있기를 원했습니다. GPU는 GTX1050ti-4GB를 사용 님의 기사( ) 님의 기사 ( ) NPB.jp의 선수 명감에서 각 선수의 사용 수집을 위해 Python으로 스크래핑 코드를 작성했습니다 N... 파이썬DCGANChainer사랑 이전 기사 보기
Windows10에서 Cuda9.1+Chainer4.1의 환경을 가장 빠르게 만든다 최근에는 라이브러리(특히 Python에서)가 충실하고 있어, GPU를 이용한 기계 학습이 가까워지고 있습니다만, Windows에서의 환경 구축은 역시 어렵네요. 요전날, 연구실의 Windows 머신에서 Cuda+Chainer의 환경을 만드는데 꽤 고생했기 때문에, 비망록도 겸해 결론을 정리해 둡니다. 물론 공식 추천 우분투와 CentOS가 압도적으로 편합니다. 본 기사는 「그래도 Window... VisualStudio2017ChainerDeepLearningWindows10CUDA chainer에서 caffemodel을 사용해보기 향후 여러가지 모델을 Fine-tuning 하는 것을 생각해, chainer에서도 그 기술을 익히고 싶다. 이번에는 caffe model을 읽고 추론만 한다. 참고로 한 사이트는 이쪽 OS:Ubuntu14.04 GPU:GTX1070 CUDA:8.0 RC cuDNN:5.1 python2.7.6 이번 사용하는 모델은 GoogLeNet. 여기에서 다운로드. 이미지를 입력에 적합한 numpy 배열로... python2.7우분투14.04CaffeChainer chainer로 optimizer의 성능 비교 chainer의 Mnist 샘플을 사용하여 optimizer를 비교합니다. GPU:GTX1070 OS:Ubuntu14.04 CUDA:8.0RC cuDNN:5.1 파이썬 : 2.7.6 chainer:1.14.0 mnist 샘플에서는 아래의 83, 84행 부분 train_mnist.py 로 로그에 loss와 accuracy를 json 형식으로 쓰고있다. json은 다루기 어렵기 때문에 csv로 ... OptimizerChainerDeepLearningpython2.7우분투14.04 chainer의 connection을 괴롭히고 새로운 층을 만든다 (2) GPU GTX1070 우분투 14.04 chainer 1.14.0 chainer에서 최신 모델을 구현할 때는 links/connection이나 functions/connection을 괴롭힐 필요가 있다. 그래서 가장 단순한 linear.py를 만나 새로운 레이어를 만들어 보자. 전회는 chainer/functions/connection/linear.py 의 forward 함수를 만져 순전파를... ChainerDeepLearningpython2.7우분투14.04numpy chainer의 connection을 괴롭히고 새로운 층을 만든다 (1) GPU GTX1070 우분투 14.04 chainer 1.14.0 chainer에서 최신 모델을 구현할 때는 links/connection이나 functions/connection을 괴롭힐 필요가 있다. 그래서 가장 단순한 linear.py를 만나 새로운 레이어를 만들어 보자. 지난번은 linear.py의 내용을 확인했다. 이번은 chainer/functions/connection/linea... ChainerDeepLearningpython2.7우분투14.04numpy LIS ver.2를 넣어 사용해보기 이 정보는 오래되었으므로 현재 LIS ver.2에 적합하지 않을 수 있습니다. 과거 12회로 PC를 자작한 후, Ubuntu 14.04, CUDA, cuDNN, chainer, dqn, LIS, Tensorflow, OpenAIGym을 순차적으로 인스톨 해, 몇개의 모델을 달렸다. 이번은 도완고 씨의 LIS의 버젼 2를 인스톨 해, 사용해 본다. 코드는 이쪽의 pull request에 있다.... DQ응ChainerDeepLearninglis우분투14.04 np.choice와 chainer.utils.WalkerAlias의 속도 대결 chainer의 매뉴얼에 「chainer.utils.WalkerAlias는 np.choice보다 빠르다」라고 쓰여 있었으므로, 속도를 비교해 보았다. 그러나 CPU 전용. 난수 생성 플롯 alias method는 확실히 O(1)이라는 것을 알 수 있다(sampling only의 경우. 계산 시간은 샘플수에 의존하지 않는다). alias method는 초기화에 방대한 시간이 걸리므로 초기화 시... 파이썬Chainer난수numpy 딥 러닝으로 간단한 초해상을 해보았다 MNIST의 필기 숫자 이미지를 이용하여 간단한 초해상을 해 보았습니다. 전체 코드는 에 업로드했습니다. $28\times 28$의 필기 숫자 이미지를 $10\times 10$로 축소합니다. 이것을 $28\times 28$로 확장합니다. 축소했을 때에 정보가 손실되기 때문에, 당연히 흐릿한 것 같은 화상이 되고 있습니다. 흐릿한 저화질 이미지를 입력하면 원본에 가까운 이미지가 출력되도록 학습... 파이썬ChainerDeepLearningMachineLearning기계 학습 【쇼기 AI】「쇼기 AI에서 배우는 딥 러닝」을 읽는다♪~강한 방책 네트워크를 목표로 한다 제일 하룻밤도 본서에서 벗어나지만 어젯밤의 연장으로 VGG 모델을 이용해 강한 방책 네트워크를 목표로 한다. (1) VGG 모델을 이용한다 (1) VGG 모델을 이용한다 거의 전회의 Cifar10의 모델로부터 상상할 수 있다고 생각합니다만, 모델은 이하와 같습니다. 그러나 만약 Maxpooling을 살리면, 이번 채널마다의 화상 사이즈가 9x9이므로, 4x4, 2x2가 되어 3회로 1x1이 ... 컴퓨터 장기파이썬ChainerDeepLearning데이터 분석 Raspberry Pi와 딥 러닝으로 이미지 인식을 시도하면 무거웠기 때문에 서버가 계산했습니다. Raspberry Pi에서 ImageNet의 학습 모델을 사용하여 카메라에서 입력 한 이미지를 인식하려고 시도했지만 모델이 너무 커서 메모리를 타지 않았습니다. 그래서 다음과 같이 라즈파이에서 서버로 이미지를 보내 인식 결과를 반환하는 구조를 구현했습니다. 소켓 통신으로 서버와 통신합니다. 코드는 에도 업로드되었습니다. 이미지 인식 부분은 Chainer에서 실시하고 있습니다. 모델은 VGG를... RaspberryPi파이썬ChainerDeepLearningMachineLearning 학습률 조정, 미리 충분합니까? 나중에 더할까? Hivemall의 구현으로 초기 파라미터를 재고할 기회가 있었지만, 초기 파라미터의 방식에 의문을 가지는 부분이 있어 정리하고 싶었으므로 이 엔트리를 쓰고 있다 AdaGrad에서는 g: 구배, w: 특징의 가중치의 배열에 대해 다음과 같이 갱신한다. 여기서 gg: 초기값 0.0의 배열, eta: 학습률의 상수, η가 학습률. AdaGrad에서는, 그라디언트의 제곱을 훈련 사례마다 더해, 학습... KerasAdagradChainerTensorFlow기계 학습 온도 softmax 각서 모델의 증류 등에 나오는 손실 함수 (어쩌면 그 밖에도 나오는 것이지만 별로 모른다). "조금 높은 확률로 나온 클래스를 중시하고 학습하고 싶다!"라든지 "낮은 확률의 클래스를 잘라내지 않고 학습하고 싶다!"때 사용된다. S(y_i)=\frac{e^{\frac{y_i}{T}}}{\Sigma{e^{\frac{y_k}{T}}}} 온도 ($T$)가 $1$보다 클 때: 낮은 확률을 강조 온도($T$... softmaxMachineLearningChainer 분기에 의한 학습 모델의 소형화 효과 「Chainer pruning」으로 검색하면 이하의 사이트가 히트한다. pruning의 장점은 파라미터의 삭감이지만, 이것에 의해 학습 모델의 용량 삭감도 기대할 수 있다. 이번에는 잃어버린 하지 않는 범위에서 pruning을 반복하여 어디까지 학습 모델을 삭감할 수 있는지를 검증한다. 우분투 16.04.4 LTS 파이썬 3.5.2 chainer 4.0.0 numpy 1.14.2 cupy 4... 파이썬Chainernumpy Windows에서 Chainer (Cuda + Cupy)를 설치하려고하면 빠졌기 때문에 메모 덧붙여서 빠진 것은 4의 fastrlock 부분뿐이므로 3으로 넘어지지 않으면 읽어 날려주세요. 그 이외는 극히 보통의 설치 순서입니다. Anaconda를 통해 설치. Nvidia 사이트에서 Cuda를 설치. (후술의 Cupy에 Cuda9.2에 대응한 버전이 없기 때문에) pip install cupy-cuda91 실행. 압축을 풀고 명령 스크립트에서 압축을 푼 폴더로 이동합니다.python... Chainer CUDA를 이용한 DeepLearning 개발 환경 구축 GPU를 이용해 DeepLearning을 하기 위한 환경 구축의 비망록입니다. Visual Studio 2017 Anaconda CUDA 9.2 cuDNN PyCUDA 우선은 를 다운로드·인스톨 한다. 설치 시 주의하는 것은 Windows 10 SDK의 구성 요소를 잊지 않고 설치하는 것(오렌지 테두리로 둘러싼 곳). ''C++로 데스크톱 개발'' 아래에 있습니다. Python과 주요 라이브... 파이썬ChainerDeepLearningCUDAAnaconda 구현 예: Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network 곧 CVPR2018에서 발표되는 다음 논문 Translating and Segmenting Multimodal Medical Volumes with Cycle- and Shape-Consistency Generative Adversarial Network 마음대로 구현했습니다. 코드는 여기에 업했습니다. 논문의 해설은 이쪽으로 업했습니다 Cycle-GAN과의 비교에서 말하면, 생성된 화상에 ... GANsCNNChainerDeepLearningCycleGAN ChainerCV YOLO 움직여 보았다 ChainerCV에서도 YOLO를 사용할 수있게되었습니다 2018/05/16 현재 소스 코드에서 설치해야합니다. YOLOv2 · YOLOv3의 2 종류가 준비되어있다 ( )에서 YOLO를 사용할 수있게 된 것 같아서 움직여 보았다 OS: Windows 10 1803 WSL Ubuntu18.04 python: 3.6.5 pip: 10.0.1 2018/05/16 현재 최신 버전 인 0.9.0에는... 파이썬Chainerchainercv chainer의 작법 그 12 chainer의 작법, 조사해 보았다. kaggle의 cat&dog 해봤다. Convolution2D 사용해 보았다. 이상.... ChainerKaggle chainer의 작법 그 11 chainer의 작법, 조사해 보았다. Deconvolution2D 사용해 보았다. autoencoder 써 보았다. 이상.... AutoencoderDeconvolution2DChainerMNIST chainer의 작법 그 10 chainer의 작법을 조사해 보았다. kaggle의 cat&dog 해봤다. 이상.... ChainerKaggle chainer의 작법 그 9 chainer의 작법을 조사해 보았다. 필기를 추정해 보았다. 이상.... PyQt5필기ChainerMNIST chainer의 작법 그 7 chainaer의 작법을 조사해 보았다. open-ai gym 해봤다. 이상.... GymChainer chainer의 작법 그 5 chainer의 작법, 조사해 보았다. autoencoder. datasets get_mnist 사용한다. datasets의 TupleDataset 사용한다. Classifier 사용하지만, loss는 mean_squared를 사용한다. 활성화는 relu. optimaizer는 Adam. 이상.... AutoencoderChainer chainer의 작법 그 4 chainer의 작법을 조사해 보았다. 옵티마이저. 분류. 이상.... OptimizerChainer chainer의 작법 그 2 chainer의 작법, 조사해 보았다. 회귀. -3.0 ~ +3.0의 100점 sin이 교사 데이터 dataset, iterator는 사용하지 않습니다. 에포크는 300 미니 배치는 100 회귀이므로 활성화 함수는 tanh loss는 mean_squared 옵티마이저는 Adam Variable에 데이터를 흘려 넣는다. 에포크와 loss. 좋은 느낌. 이상.... sinChainer 신경망으로 회귀를 하고 신장 +3 사이즈로 섹시 여배우의 컵수를 추정 마지막 계속됩니다. 전회는 NN로 분류를 실시해 추정시키고 있었습니다만, 정밀도가 나빴기 때문에, 이번은 회귀로 추정을 실시했습니다. 전회와 같습니다. 전회 및 선행 연구와 같습니다. ※ 선행 연구 ... 덧붙여서, cup에서 cup num을 낳는 가공을 실시해, 이하와 같은 데이터로 하고 있습니다. (실은 전회도입니다만) code 학습은 4층 신경망에서 실시합니다. 복잡한 모델이 더 적합한... 변태신경망파이썬Chainer기계 학습 파이썬으로 쉽게 GPU 계산을 할 수 있는 Cupy 소개 파이썬으로 행렬 계산을 하는 경우는 통상 CPU로 계산하는 Numpy를 사용합니다만, 행렬수가 많은 경우는 GPU로 계산을 할 수 있는 Cupy가 편리합니다. GPU는 코어수가 압도적이 많기 때문에 경우에 따라서는 수배~수백배로 계산할 수 있는 일이 있습니다. 간단한 코드로 간편하게 GPU 행렬 계산을 할 수 있으므로, 물리 시뮬레이션 등에도 사용해 보면 좋을지도 모릅니다. 현재 linux ... 파이썬CuPyChainernumpy 자동 엔코더에 아핀 변환 포함 이전 기사에서는 이미지의 임의 점의 좌표 $(u, v)$를 입력으로 받아 이미지 값을 출력하는 신경망 모델을 구현했습니다. 이것을 오토엔코더의 디코더부로서 사용하는 것으로, 해상도에 의존하지 않는 화상 표현을 실시할 수 있습니다. 이번에는 이 디코더에 입력하는 좌표치에 아핀 변환을 적용하는 것을 생각합니다. 각 입력 이미지에 대해 적절한 아핀 변환 매개 변수를 사용할 수 있으면 이미지의 잠재... DeepLearningChainer기계 학습 AI로 가상의 프로야구 선수를 생성해 보았다 적대적 생성 네트워크를 알고 그 가능성에 설레게 Python님이 좋아합니다. 프로야구가 좋아 의 선수 명감이라면, 얼굴 사진을 대량으로 취득할 수 있다는 것을 깨달았다 Chainer를 사용할 수 있기를 원했습니다. GPU는 GTX1050ti-4GB를 사용 님의 기사( ) 님의 기사 ( ) NPB.jp의 선수 명감에서 각 선수의 사용 수집을 위해 Python으로 스크래핑 코드를 작성했습니다 N... 파이썬DCGANChainer사랑 이전 기사 보기