PyTorch: nn.BatchNorm2d
nn.BatchNorm2d
Mini-Batch 학습 진행시, Internal Covariant Shift 현상이 나타날 수 있다. 따라서 학습 과정에서 각 배치 단위 별로 평균과 분산을 이용해 정규화해주는데, 이것이 바로 배치 정규화(Batch Normalization)이다! 정규화를 해주면 gradient descent에 따른 weight의 반응이 같아지기 때문에 학습에 유리하다!
Internal Covariant Shift: 학습 과정에서 계층 별로 입력 데이터 분포가 달라지는 현상
사용법
torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1,
affine=True, track_running_stats=True,
device=None, dtype=None)
Author And Source
이 문제에 관하여(PyTorch: nn.BatchNorm2d), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@danbibibi/PyTorch-nn.BatchNorm2d저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)