정확도에서 스케일링의 영향
37927 단어 deeplearningaimachinelearningpytorch
데이터셋 스케일링은 데이터 전처리의 주요 단계 중 하나이며, 데이터 변수의 범위를 줄이기 위해 수행됩니다. 이미지와 관련하여 가능한 최소-최대 값 범위는 항상 0-255이며, 이는 255가 최대값임을 의미합니다. 따라서 이미지 배열 값을 축소하는 가장 좋은 방법은 최대값으로 나누는 것입니다. 따라서 범위는 항상 0-1 사이입니다.
입력 변수를 축소하면 모델이 더 쉽게 작업할 수 있고 시간이 덜 걸리는 범위로 유지됩니다.
여기서는 주어진 예를 위해 torch.datasets 모듈에 설명된 Fashion MNIST 데이터 세트를 가져왔습니다.
데이터 세트에 대한 간략한 설명은 10개의 착용 품목 클래스가 있으며 총 60000개의 데이터 포인트가 각 클래스 6000개로 균등하게 분포되어 있습니다. 따라서 데이터 세트가 균형을 이루므로 찾을 필요가 없습니다.
먼저 훈련할 프로그램, 데이터 세트를 축소하지 않은 데이터 세트를 정의했습니다. 코드 구조보다, 우리는 다가올 수 있는 데이터셋의 스케일링 차이를 아는 데 더 관심이 있습니다.
코드 구조도 간단히 주석 처리했습니다.
# Importing all required libraries
from torch.utils.data import Dataset, DataLoader
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
device = 'cuda' if torch.cuda.is_available() else 'cpu'
from torchvision import datasets
# Here we downloaded the datset to data_folder, with train=True indicating, it is for training purpose.
data_folder = '/data/'
fmnist = datasets.FashionMNIST(data_folder, download=True, train=True)
tr_images = fmnist.data
tr_targets = fmnist.targets
# Here, we have extended Dataset Class to define dataset the way we wanted, More on this on upcoming tutorials
class FMNISTDataset (Dataset):
def __init__(self, x, y):
x = x.float()
x = x.view(-1, 28*28) #Flattern the input 28*28 image
self.x, self.y = x, y
def __getitem__(self, ix):
x, y = self.x[ix], self.y[ix]
return x.to(device), y.to(device)
def __len__(self):
return len(self.x)
# Here we simple, loaded dataset defined above, using DataLoader Module in batch_size of 32.
def get_data():
train = FMNISTDataset(tr_images, tr_targets)
trn_dl = DataLoader(train, batch_size=32, shuffle=True)
return trn_dl
# Defining the model
from torch.optim import SGD
def get_model():
model = nn.Sequential(
nn.Linear(28*28,1000),
nn.ReLU(),
nn.Linear(1000,10)
).to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = SGD(model.parameters(), lr = 1e-2)
return model, loss_fn, optimizer
#Training the data in defined model
def train_batch(x, y, model, opt, loss_fn):
model.train()
prediction = model(x)
batch_loss = loss_fn(prediction, y)
batch_loss.backward()
opt.step()
opt.zero_grad()
return batch_loss.item()
#For calculating accuracy, here @torch.no_grad() used to define that, we dont calculate gradient while testing.
@torch.no_grad()
def accuracy(x, y, model):
model.eval()
prediction = model(x)
max_values, argmaxes = prediction.max(-1)
is_correct = argmaxes ==y
return is_correct.cpu().numpy().tolist()
#Running Model for training and testing in number of epochs
train_dl = get_data()
model, loss_fn, optimizer = get_model()
losses, accuricies = [], []
for epoch in range(5):
print(epoch)
epoch_losses, epoch_accuricies = [], []
for ix, batch in enumerate(iter(train_dl)):
x, y = batch
batch_loss = train_batch(x, y, model, optimizer, loss_fn)
epoch_losses.append(batch_loss)
epoch_loss = np.array(epoch_losses).mean()
for ix, batch in enumerate(iter(train_dl)):
x, y =batch
is_correct = accuracy(x, y, model)
epoch_accuricies.extend(is_correct)
epoch_accuracy = np.mean(epoch_accuricies)
losses.append(epoch_loss)
accuricies.append(epoch_accuracy)
#For Plotting purpose.
epochs = np.arange(5)+1
plt.figure(figsize=(20,5))
plt.subplot(121)
plt.title('Loss value over increasing epochs')
plt.plot(epochs, losses, label='Training Loss')
plt.legend()
plt.subplot(122)
plt.title('Accuracy value over increasing epochs')
plt.plot(epochs, accuricies, label='Training Accuracy')
plt.gca().set_yticklabels(['{:.0f}%'.format(x*100) \
for x in plt.gca().get_yticks()])
plt.legend()
여기 위의 플롯에서 우리는 손실이 포화된 지점까지 감소했음을 알 수 있지만 정확도는 약 13%인 것 같습니다. 이는 우리 모델이 제대로 수행하기를 원하는 것이 아닙니다. 따라서 단일 하이퍼파라미터만 조정하여 데이터 세트 범위를 축소합니다. 알겠습니다. 동의합니다. 하이퍼파라미터 튜닝이라고 부르고 싶지 않으실 겁니다. 우리는 그렇게 부르지 않습니다.
위에서 언급했듯이 입력을 가능한 최대 값, 즉 255로 나눕니다.
변경된 코드는
class FMNISTDataset (Dataset):
def __init__(self, x, y):
#The changed code starts here
x = x.float()/255
#The changed code ends here
x = x.view(-1, 28*28)
self.x, self.y = x, y
def __getitem__(self, ix):
x, y = self.x[ix], self.y[ix]
return x.to(device), y.to(device)
이제 코드를 다시 실행하고 얼마나 많은 변화가 있는지 살펴보겠습니다.
from torch.utils.data import Dataset, DataLoader
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
device = 'cuda' if torch.cuda.is_available() else 'cpu'
from torchvision import datasets
data_folder = '/data/'
fmnist = datasets.FashionMNIST(data_folder, download=True, train=True)
tr_images = fmnist.data
tr_targets = fmnist.targets
class FMNISTDataset (Dataset):
def __init__(self, x, y):
#The changed code starts here
x = x.float()/255
#The changed code ends here
x = x.view(-1, 28*28)
self.x, self.y = x, y
def __getitem__(self, ix):
x, y = self.x[ix], self.y[ix]
return x.to(device), y.to(device)
def __len__(self):
return len(self.x)
def get_data():
train = FMNISTDataset(tr_images, tr_targets)
trn_dl = DataLoader(train, batch_size=32, shuffle=True)
return trn_dl
from torch.optim import SGD
def get_model():
model = nn.Sequential(
nn.Linear(28*28,1000),
nn.ReLU(),
nn.Linear(1000,10)
).to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = SGD(model.parameters(), lr = 1e-2)
return model, loss_fn, optimizer
def train_batch(x, y, model, opt, loss_fn):
model.train()
prediction = model(x)
batch_loss = loss_fn(prediction, y)
batch_loss.backward()
opt.step()
opt.zero_grad()
return batch_loss.item()
@torch.no_grad()
def accuracy(x, y, model):
model.eval()
prediction = model(x)
max_values, argmaxes = prediction.max(-1)
is_correct = argmaxes ==y
return is_correct.cpu().numpy().tolist()
train_dl = get_data()
model, loss_fn, optimizer = get_model()
losses, accuricies = [], []
for epoch in range(5):
print(epoch)
epoch_losses, epoch_accuricies = [], []
for ix, batch in enumerate(iter(train_dl)):
x, y = batch
batch_loss = train_batch(x, y, model, optimizer, loss_fn)
epoch_losses.append(batch_loss)
epoch_loss = np.array(epoch_losses).mean()
for ix, batch in enumerate(iter(train_dl)):
x, y =batch
is_correct = accuracy(x, y, model)
epoch_accuricies.extend(is_correct)
epoch_accuracy = np.mean(epoch_accuricies)
losses.append(epoch_loss)
accuricies.append(epoch_accuracy)
epochs = np.arange(5)+1
plt.figure(figsize=(20,5))
plt.subplot(121)
plt.title('Loss value over increasing epochs')
plt.plot(epochs, losses, label='Training Loss')
plt.legend()
plt.subplot(122)
plt.title('Accuracy value over increasing epochs')
plt.plot(epochs, accuricies, label='Training Accuracy')
plt.gca().set_yticklabels(['{:.0f}%'.format(x*100) \
for x in plt.gca().get_yticks()])
plt.legend()
와우, 정확도를 보세요. 약 85%입니다. 입력을 축소하여 13%에서 85%로 줄었습니다.
그러나 단순히 입력을 축소하는 것만으로도 정확도가 급격히 증가하는 이유는 무엇일까요? 이것 뒤에 수학을 보자.
우린 알아,
시그모이드 =
출처: PyTorch를 사용한 최신 컴퓨터 비전
왼쪽에서 입력이 255이고 가중치가 0.1 이상이면 시그모이드 출력에 변화가 없습니다. 마찬가지로 무게가 극도로 낮을 때도 변화가 적었습니다.
그 이유는 큰 음수 값의 지수가 0에 매우 가깝기 때문입니다. 그러나 오른쪽에서는 입력이 1이므로 시그모이드 출력의 변화를 볼 수 있습니다.
훨씬 더 작은 범위의 값을 포함하도록 입력 데이터 세트를 확장하면 일반적으로 더 나은 모델 정확도를 달성하는 데 도움이 됩니다.
GitHub
Reference
이 문제에 관하여(정확도에서 스케일링의 영향), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://dev.to/bibekebib/impact-of-scaling-in-accuracy-52pl텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)