PyTorch 학습 노트 의 귀환 실전
편집기:spyder
1.해당 패키지 도입 및 위조 데이터 생 성
import torch
import torch.nn.functional as F #
import matplotlib.pyplot as plt #
from torch.autograd import Variable
#
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim = 1)
y = x.pow(2) + 0.2 * torch.rand(x.size())
# Variable
x, y = Variable(x), Variable(y)
그 중에서 torch.linspace
은 연속 적 으로 중단 되 는 데 이 터 를 만 들 기 위해 첫 번 째 매개 변 수 는 출발점 을 나타 내 고 두 번 째 매개 변 수 는 종점 을 나타 내 며 세 번 째 매개 변 수 는 이 구간 을 평균 몇 부 로 나 누 어 몇 개의 데 이 터 를 생 성 하 는 것 을 나타 낸다.torch 는 2 차원 데이터 만 처리 할 수 있 기 때문에 우 리 는 torch.unsqueeze
으로 의사 데이터 에 차원 을 추가 하고 dim 은 몇 번 째 차원 에 추가 하 는 것 을 표시 합 니 다.torch.rand
은[0,1)간 의 균일 한 분 포 를 되 돌려 준다.2.데이터 그림 그리 기
상기 코드 뒤에 아래 코드 를 추가 한 다음 에 위조 데 이 터 를 실행 할 수 있 는 도형 화 표시:
#
plt.scatter(x.data.numpy(), y.data.numpy())
plt.show()
3.신경 망 구축
class Net(torch.nn.Module):
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__()
self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layer
self.predict = torch.nn.Linear(n_hidden, n_output) # output layer
def forward(self, x):
x = F.relu(self.hidden(x)) # activation function for hidden layer
x = self.predict(x) # linear output
return x
net = Net(n_feature=1, n_hidden=10, n_output=1) # define the network
print(net) # net architecture
일반 신경 망 의 류 는 모두 torch.nn.Module
에서 계승 되 고 __init__() forward()
두 함 수 는 사용자 정의 류 의 주요 함수 이다.__init__()
에 super(Net, self).__init__(),
을 추가 해 야 합 니 다.이것 은 고정된 표준 표기 법 으로 부모 류 의 초기 화 함 수 를 계승 하 는 데 사 용 됩 니 다.__init__()
에 서 는 신경 망 모듈 에 대해 서 만 성명 을 했 을 뿐 실제 구축 은 forwad()
에서 이 루어 졌 다.사용자 정의 클래스 의 구성원 들 은 모두 self 지침 을 통 해 접근 하기 때문에 매개 변수 목록 에는 self 가 포함 되 어 있 습 니 다.네트워크 구 조 를 보 려 면
print()
함수 로 네트워크 를 직접 인쇄 할 수 있다.본 논문 의 네트워크 구조 출력 은 다음 과 같다.
Net (
(hidden): Linear (1 -> 10)
(predict): Linear (10 -> 1)
)
4.트 레이 닝 네트워크
# 100
for t in range(100):
prediction = net(x) # input x and predict based on x
loss = loss_func(prediction, y) # , (1. nn output, 2. target)
optimizer.zero_grad() # clear gradients for next train
loss.backward() # backpropagation, compute gradients
optimizer.step() # apply gradients
네트워크 를 훈련 하기 전에 우 리 는 우선 최적화 기와 손실 함 수 를 정의 해 야 한다.torch.optim
가방 에는 각종 최적화 기 가 포함 되 어 있 습 니 다.여기 서 우 리 는 가장 흔히 볼 수 있 는 SGD 를 최적화 기로 선택 합 니 다.우 리 는 네트워크 의 매개 변 수 를 최적화 시 켜 야 하기 때문에 우 리 는 네트워크 의 매개 변 수 를 net.parameters()
최적화 기 에 전송 하고 학습 율(보통 1 보다 작 음)을 설정 해 야 한다.이곳 은 회귀 임무 이기 때문에 우 리 는
torch.nn.MSELoss()
을 손실 함수 로 선택 했다.최적화 기 는 경사도 를 기반 으로 파 라 메 터 를 최적화 시 키 고 경사도 가 저 장 됩 니 다.그래서 매번 최적화 하기 전에
optimizer.zero_grad()
을 통 해 경사도 를 0 으로 한 다음 에 전파 하고 업데이트 해 야 한다.5.가시 화 훈련 과정
plt.ion() # something about plotting
for t in range(100):
...
if t % 5 == 0:
# plot and show learning process
plt.cla()
plt.scatter(x.data.numpy(), y.data.numpy())
plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
plt.text(0.5, 0, 'Loss=%.4f' % loss.data[0], fontdict={'size': 20, 'color': 'red'})
plt.pause(0.1)
plt.ioff()
plt.show()
6.실행 결과이상 이 바로 본 고의 모든 내용 입 니 다.여러분 의 학습 에 도움 이 되 고 저 희 를 많이 응원 해 주 셨 으 면 좋 겠 습 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
IceVision에서 형식별 데이터를 읽는 방법2021년에 가장 멋있는 물체 검출 프레임워크라고 해도 과언이 아닌 IceVision을 사용해, VOC format과 COCO format의 데이터 세트에 대해 Object Detection을 간단하게 실시하기 위한...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.