Pytorch의 백워드 진입
854 단어 Pytorch
카탈로그
코드
출력
제자리(in-place) 조작은 모두,variable의grad 속성은 누적된 것이기 때문에 업데이트할 때 0을 삭제해야 합니다. 예를 들어 x.grad를 사용할 수 있습니다.data.zero_()
코드
import torch
from torch.autograd import Variable
x = Variable(torch.ones(2,2),requires_grad = True)
y = x + 2
print(y)
y = y.mean() #
print(y)
y.backward() # , y (x)
print(x.grad) # d(y)/d(x)
x.grad.data.zero_() #grad ,
y.backward()
print(x.grad)
출력
직접 만든variable의gradfn은 none이지만 계산된variable, 예를 들어 y,의gradfn은 none이 아닌 백워드 함수를 호출하여 사다리를 구할 수 있습니다
tensor([[3., 3.], [3., 3.]], grad_fn=)
tensor(3., grad_fn=)
tensor([[0.2500, 0.2500], [0.2500, 0.2500]])
tensor([[0.2500, 0.2500], [0.2500, 0.2500]])
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Pytorch에서 shuffle을 사용하여 데이터를 흐트러뜨리는 작업우선 내가 너에게 한 가지 알려줘야 할 것은 바로pytorch의tensor이다. 만약에random을 직접 사용한다면.shuffle는 데이터를 흐트러뜨리거나 아래의 방식을 사용하여 직접 쓰기를 정의합니다. 그러면 혼란...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.