pytorch 2 - Pytorch 기초 데이터 구조 - 장 량 (깊이 의 눈)

전정 개요
지난 글 에서 우 리 는 pytorch 의 환경 을 어떻게 구축 하 는 지 상세 하 게 소개 했다. 그러면 이 글 은 pytorch 의 신비 한 베일 을 벗 기 고 pytorch 의 데이터 구조 인 Tensor 를 알 게 될 것 이다.
개념 문답
장 량 이 뭐 예요?
장 량 은 다 차원 배열 이다.
장 량 과 행렬, 벡터, 스칼라 의 관 계 는 어 떻 습 니까?
장 량 은 스칼라, 벡터, 행렬 의 고 차원 확장 이다.
Variable 이 뭐 예요?
Variable 은 torch. autograd 의 데이터 형식 으로 주로 Tensor 를 밀봉 하여 자동 으로 유도 합 니 다.
Variable "부여" 장 량 은 어떤 기능 이 있 습 니까?
이것 은 장 량 의 일부 속성 을 부여 합 니 다 (grad: 데이터 의 경사도, grad fn: 장 량 의 function, requires grad: 경사도 가 필요 한 지, is leaf: 잎 노드 (장 량) 인지 여부)
실제 체조 (장 량 의 생 성)
    방법 1: torch. tensor 직접 만 들 기
     
    
import torch
import numpy as np
    arr = np.ones((3, 3))
    print("ndarray     :", arr.dtype)
    # t = torch.tensor(arr, device='cuda') gpu  
    t = torch.tensor(arr)

    print(t)

torch. from 사용numpy 는 장 량 을 만 들 고 ndarray 와 장 량 데 이 터 를 보 는 주소 를 인쇄 합 니 다.
#    :  torch.from_numpy     tensor    ndarray      ,  
        ,          
    arr = np.array([[1, 2, 3], [4, 5, 6]])
    t = torch.from_numpy(arr)
    # print("numpy array: ", arr)
    # print("tensor : ", t)

    # print("
arr") # arr[0, 0] = 0 # print("numpy array: ", arr) # print("tensor : ", t) print("
tensor") t[0, 0] = -1 print("numpy array: ", arr) print("tensor : ", t)

 방법 2: 수치 에 따라 만 들 기
    방식 이 비교적 많 습 니 다. 다음 에 상세 하 게 나열 할 것 입 니 다. 예 를 들 어 torch. zeros ()
방법 3: 확률 분포 에 따라 장 량 생 성
torch. normal () 을 실현 하여 장 량 의 네 가지 모델 (즉, 정상 분포 의 네 가지 모델) 을 만 듭 니 다.
mean 은 스칼라 입 니 다.
std 는 스칼라 입 니 다.
mean 은 스칼라 입 니 다.
std 는 장 량
평균 은 장 량 이다.
std 는 스칼라 입 니 다.
평균 은 장 량 이다.
std 는 장 량
    #python     
    # mean:   std:   
    # mean = torch.arange(1, 5, dtype=torch.float)
    # std = torch.arange(1, 5, dtype=torch.float)
    # t_normal = torch.normal(mean, std)
    # print("mean:{}
std:{}".format(mean, std)) # print(t_normal) # mean: std: # t_normal = torch.normal(0., 1., size=(4,)) # print(t_normal) # mean: std: mean = torch.arange(1, 5, dtype=torch.float) std = 1 t_normal = torch.normal(mean, std) print("mean:{}
std:{}".format(mean, std)) print(t_normal)

 

좋은 웹페이지 즐겨찾기