1차원 컨벌루션
13831 단어 deeplearningpytorch
기초
컨볼루션 블록은 딥 러닝에 사용되는 기본 빌딩 블록 중 하나입니다. 1차원 컨볼루션에 대해 자세히 알아보고 컨볼루션, 스트라이드 및 패딩의 기본 사항을 이해합니다. 시각적으로 설명하고 PyTorch 코드를 통해 개념을 확인합니다.
커널은 입력을 받아 때때로 feature map
라고 하는 출력을 제공합니다.
커널은 많은 것들로 구성되어 있습니다. 이것 은 그것이 가지고 있는 것들 의 매우 단순화된 그림 입니다 . weights, biases, strides 및 padding은 그 중 일부입니다.
커널 크기 = 1 , 보폭 = 1
여기서 커널의 크기는 1입니다. 단일 가중치와 편향이 있습니다.
입력은 [ 2, 3, 4 ]
Stride is 1
따라서 커널은 모든 작업 후 1개의 슬롯을 이동합니다.
출력은
여기서 커널의 크기는 1입니다. 단일 가중치와 편향이 있습니다.
입력은 [ 2, 3, 4 ]
Stride is 1
따라서 커널은 모든 작업 후 1개의 슬롯을 이동합니다.출력은
우리는 이것을 Pytorch에서 구현했고 같은 결과를 얻었습니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 1, stride=1)
input = torch.tensor([[[2.,3.,4.,]]])
print(input)
output = m(input)
print(output)
print(2 * m.weight + m.bias )
print(3 * m.weight + m.bias)
print(4 * m.weight + m.bias)
커널 크기 = 2 , 보폭 = 1
여기서 커널의 크기는 2입니다. 여기에는 2개의 가중치와 편향이 있습니다.
입력은 [ 2, 3, 4 ]
Step 1
:
가중치 w0 및 w1은 입력 2, 3에서 작동합니다. 이는 출력 2 * w0 + 3 * w1 + 바이어스를 제공합니다.
Step 2
:
가중치 w0 및 w1은 입력 3, 4에서 작동합니다. 이는 출력 3 * w0 + 4 * w1 + 바이어스를 제공합니다.
우리는 이것을 Pytorch에서 구현했고 같은 결과를 얻었습니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=1)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
2 * m.weight[0][0][0] + 3* m.weight[0][0][1] + m.bias
3 * m.weight[0][0][0] + 4* m.weight[0][0][1] + m.bias
output = m(input)
print(output)
커널 크기 = 2 , 보폭 = 2
여기서 커널의 크기는 2입니다. 여기에는 2개의 가중치와 편향이 있습니다.
입력은 [ 2, 3, 4 ]
Step 1
:
가중치 w0 및 w1은 입력 2, 3에서 작동합니다. 이는 출력 2 * w0 + 3 * w1 + 바이어스를 제공합니다.
Step 2
:
커널은 2개의 슬롯을 이동합니다. 따라서 커널은 4에서 작동할 수 없습니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=2)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
2 * m.weight[0][0][0] + 3* m.weight[0][0][1] + m.bias
output = m(input)
print(output)
커널 크기 = 2 , 보폭 = 2 , 패딩 = 1
여기서 커널의 크기는 2입니다. 여기에는 2개의 가중치와 편향이 있습니다.
패딩 = 1인 경우 커널은 그림에서 볼 수 있듯이 입력의 양쪽에 모두 0이 있습니다.
입력은 [ 2, 3, 4 ]
Step 1
:
가중치 w0 및 w1은 입력 0, 2에서 작동합니다. 이는 출력 0 * w0 + 2 * w1 + 바이어스를 제공합니다.
Step 2
:
커널은 2개의 슬롯을 이동합니다.
가중치 w0 및 w1은 입력 3, 4에서 작동합니다. 이는 출력 3 * w0 + 4 * w1 + 바이어스를 제공합니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=2,padding = 1)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
print(0 * m.weight[0][0][0] + 2* m.weight[0][0][1] + m.bias )
print(3 * m.weight[0][0][0] + 4 * m.weight[0][0][1] + m.bias )
output = m(input)
print(output)
캐글 노트북 링크
Convolution in 1 dimension deep dive
Reference
이 문제에 관하여(1차원 컨벌루션), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://dev.to/ambarishg/convolution-in-1-dimension-42l9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=1)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
2 * m.weight[0][0][0] + 3* m.weight[0][0][1] + m.bias
3 * m.weight[0][0][0] + 4* m.weight[0][0][1] + m.bias
output = m(input)
print(output)
여기서 커널의 크기는 2입니다. 여기에는 2개의 가중치와 편향이 있습니다.
입력은 [ 2, 3, 4 ]
Step 1
:가중치 w0 및 w1은 입력 2, 3에서 작동합니다. 이는 출력 2 * w0 + 3 * w1 + 바이어스를 제공합니다.
Step 2
:커널은 2개의 슬롯을 이동합니다. 따라서 커널은 4에서 작동할 수 없습니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=2)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
2 * m.weight[0][0][0] + 3* m.weight[0][0][1] + m.bias
output = m(input)
print(output)
커널 크기 = 2 , 보폭 = 2 , 패딩 = 1
여기서 커널의 크기는 2입니다. 여기에는 2개의 가중치와 편향이 있습니다.
패딩 = 1인 경우 커널은 그림에서 볼 수 있듯이 입력의 양쪽에 모두 0이 있습니다.
입력은 [ 2, 3, 4 ]
Step 1
:
가중치 w0 및 w1은 입력 0, 2에서 작동합니다. 이는 출력 0 * w0 + 2 * w1 + 바이어스를 제공합니다.
Step 2
:
커널은 2개의 슬롯을 이동합니다.
가중치 w0 및 w1은 입력 3, 4에서 작동합니다. 이는 출력 3 * w0 + 4 * w1 + 바이어스를 제공합니다.
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=2,padding = 1)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
print(0 * m.weight[0][0][0] + 2* m.weight[0][0][1] + m.bias )
print(3 * m.weight[0][0][0] + 4 * m.weight[0][0][1] + m.bias )
output = m(input)
print(output)
캐글 노트북 링크
Convolution in 1 dimension deep dive
Reference
이 문제에 관하여(1차원 컨벌루션), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://dev.to/ambarishg/convolution-in-1-dimension-42l9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
m = nn.Conv1d(in_channels = 1, out_channels = 1, kernel_size = 2, stride=2,padding = 1)
m.weight[0][0][0] , m.weight[0][0][1] , m.bias
print(0 * m.weight[0][0][0] + 2* m.weight[0][0][1] + m.bias )
print(3 * m.weight[0][0][0] + 4 * m.weight[0][0][1] + m.bias )
output = m(input)
print(output)
Convolution in 1 dimension deep dive
Reference
이 문제에 관하여(1차원 컨벌루션), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://dev.to/ambarishg/convolution-in-1-dimension-42l9텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)