Pytorch 시각 화 된 몇 가지 실현 방법
참조
scalar,image,figure,histogram,audio,text,graph,onnx 지원graph, embedding, pr_curve and video summaries.
예 를 들 어 tensorboardX>=1.2 and pytorch>=0.4 를 요구 합 니 다.
설치 하 다.
4.567914.또는 4.567914.
예시
# demo.py
import torch
import torchvision.utils as vutils
import numpy as np
import torchvision.models as models
from torchvision import datasets
from tensorboardX import SummaryWriter
resnet18 = models.resnet18(False)
writer = SummaryWriter()
sample_rate = 44100
freqs = [262, 294, 330, 349, 392, 440, 440, 440, 440, 440, 440]
for n_iter in range(100):
dummy_s1 = torch.rand(1)
dummy_s2 = torch.rand(1)
# data grouping by `slash`
writer.add_scalar('data/scalar1', dummy_s1[0], n_iter)
writer.add_scalar('data/scalar2', dummy_s2[0], n_iter)
writer.add_scalars('data/scalar_group', {'xsinx': n_iter * np.sin(n_iter),
'xcosx': n_iter * np.cos(n_iter),
'arctanx': np.arctan(n_iter)}, n_iter)
dummy_img = torch.rand(32, 3, 64, 64) # output from network
if n_iter % 10 == 0:
x = vutils.make_grid(dummy_img, normalize=True, scale_each=True)
writer.add_image('Image', x, n_iter)
dummy_audio = torch.zeros(sample_rate * 2)
for i in range(x.size(0)):
# amplitude of sound should in [-1, 1]
dummy_audio[i] = np.cos(freqs[n_iter // 10] * np.pi * float(i) / float(sample_rate))
writer.add_audio('myAudio', dummy_audio, n_iter, sample_rate=sample_rate)
writer.add_text('Text', 'text logged at step:' + str(n_iter), n_iter)
for name, param in resnet18.named_parameters():
writer.add_histogram(name, param.clone().cpu().data.numpy(), n_iter)
# needs tensorboard 0.4RC or later
writer.add_pr_curve('xoxo', np.random.randint(2, size=100), np.random.rand(100), n_iter)
dataset = datasets.MNIST('mnist', train=False, download=True)
images = dataset.test_data[:100].float()
label = dataset.test_labels[:100]
features = images.view(100, 784)
writer.add_embedding(features, metadata=label, label_img=images.unsqueeze(1))
# export scalar data to JSON for external processing
writer.export_scalars_to_json("./all_scalars.json")
writer.close()
실행:pip install tensorboardX
runs 폴 더 가 나타 나 고 cd 에서 프로젝트 디 렉 터 리 로 실 행 됩 니 다pip install git+https://github.com/lanpa/tensorboardX
결과:2.vistom 시각 화 이용
참고:https://github.com/lanpa/tensorboardX
설치 및 시작
설치:pip install visdom
시작:python-m visdom.server 예제
from visdom import Visdom
#
viz.image(
np.random.rand(3, 512, 256),
opts=dict(title=\\\\\'Random!\\\\\', caption=\\\\\'How random.\\\\\'),
)
#
viz.images(
np.random.randn(20, 3, 64, 64),
opts=dict(title=\\\\\'Random images\\\\\', caption=\\\\\'How random.\\\\\')
)
from visdom import Visdom
image = np.zeros((100,100))
vis = Visdom()
vis.text("hello world!!!")
vis.image(image)
vis.line(Y = np.column_stack((np.random.randn(10),np.random.randn(10))),
X = np.column_stack((np.arange(10),np.arange(10))),
opts = dict(title = "line", legend=["Test","Test1"]))
3.pytorchviz 시각 화 네트워크 구 조 를 이용 하여
참고:https://github.com/facebookresearch/visdom
Pytorch 시각 화 에 관 한 몇 가지 실현 방법 에 관 한 이 글 은 여기까지 소개 되 었 습 니 다.더 많은 Pytorch 시각 화 내용 은 우리 의 이전 글 을 검색 하거나 아래 의 관련 글 을 계속 조회 하 시기 바 랍 니 다.앞으로 많은 응원 바 랍 니 다!
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Pytorch는 cpu와 gpu의 사용을 어떻게 전환하는지 상세히 설명합니다.앞에서 말했듯이pytorch에서 서버에 있는 gpu가 점용될 때 우리는 먼저 cpu로 코드를 디버깅하고 싶을 때가 많다. 그러면 gpu와 cpu의 전환이 필요하다. 장치를 가변 매개 변수로 사용하려면argparse를...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.