U-stage day 6
1.강의 내용
[DL Basic]딥러닝 기본 용어 설명
-
좋은 딥러너가 되는 법
1)구현 능력
2)수학 background
3)최신 논문 페이퍼 습득
-
딥러닝에서의 주요 요소
1)Data that model can learn from
2)Model how to transform the data
3)Loss Fn that quantifies the badness of the model
4)Algorithm to adjust the parameters to minimize the loss
-
Historical Review
2012 - AlexNet
2013 - DQN
2014 - Encoder/Decoer & Adam Optimizer
2015 - GAN & Residual Networks
2017 - Transformer
2018 - BERT
2019 - BIG Language Models(GPT-3)
2020 - Self Supervised Learning(SimCLR)
[DL Basic]뉴럴 네트워크 - MLP
-
Neural network(NN)
1)Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains.
2)Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. (교수님께서 선호하시는 정의)
-
실습
필수과제 1 내용
2.과제 수행 과정/결과물 정리
- Define MLP model
class MultiLayerPerceptronClass(nn.Module):
"""
Multilayer Perceptron (MLP) Class
"""
def __init__(self,name='mlp',xdim=784,hdim=256,ydim=10):
super(MultiLayerPerceptronClass,self).__init__()
self.name = name
self.xdim = xdim
self.hdim = hdim
self.ydim = ydim
self.lin_1 = nn.Linear(
self.xdim, self.hdim
)
self.lin_2 = nn.Linear(
self.hdim, self.ydim
)
self.init_param() # initialize parameters
def init_param(self):
nn.init.kaiming_normal_(self.lin_1.weight)
nn.init.zeros_(self.lin_1.bias)
nn.init.kaiming_normal_(self.lin_2.weight)
nn.init.zeros_(self.lin_2.bias)
def forward(self,x):
net = x
net = self.lin_1(net)
net = F.relu(net)
net = self.lin_2(net)
return net
M = MultiLayerPerceptronClass(name='mlp',xdim=784,hdim=256,ydim=10).to(device)
loss = nn.CrossEntropyLoss()
optm = optim.Adam(M.parameters(),lr=1e-3)코드를 입력하세요
3.피어 세션
학습 내용 공유
1.과제 코드 리뷰
- 필수과제 1 특성상 스킵
1.강의 내용 및 심화내용 토론
- 진행 X
3.그외 토론
- 4~5주차에 진행될 Image Classification 대회 대비 CNN 주요 논문 리뷰를 2주에 거쳐 할 것
4.학습회고
좋은 딥러너가 되는 법
1)구현 능력
2)수학 background
3)최신 논문 페이퍼 습득
딥러닝에서의 주요 요소
1)Data that model can learn from
2)Model how to transform the data
3)Loss Fn that quantifies the badness of the model
4)Algorithm to adjust the parameters to minimize the loss
Historical Review
2012 - AlexNet
2013 - DQN
2014 - Encoder/Decoer & Adam Optimizer
2015 - GAN & Residual Networks
2017 - Transformer
2018 - BERT
2019 - BIG Language Models(GPT-3)
2020 - Self Supervised Learning(SimCLR)
Neural network(NN)
1)Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains.
2)Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. (교수님께서 선호하시는 정의)
실습
필수과제 1 내용
- Define MLP model
class MultiLayerPerceptronClass(nn.Module):
"""
Multilayer Perceptron (MLP) Class
"""
def __init__(self,name='mlp',xdim=784,hdim=256,ydim=10):
super(MultiLayerPerceptronClass,self).__init__()
self.name = name
self.xdim = xdim
self.hdim = hdim
self.ydim = ydim
self.lin_1 = nn.Linear(
self.xdim, self.hdim
)
self.lin_2 = nn.Linear(
self.hdim, self.ydim
)
self.init_param() # initialize parameters
def init_param(self):
nn.init.kaiming_normal_(self.lin_1.weight)
nn.init.zeros_(self.lin_1.bias)
nn.init.kaiming_normal_(self.lin_2.weight)
nn.init.zeros_(self.lin_2.bias)
def forward(self,x):
net = x
net = self.lin_1(net)
net = F.relu(net)
net = self.lin_2(net)
return net
M = MultiLayerPerceptronClass(name='mlp',xdim=784,hdim=256,ydim=10).to(device)
loss = nn.CrossEntropyLoss()
optm = optim.Adam(M.parameters(),lr=1e-3)코드를 입력하세요
3.피어 세션
학습 내용 공유
1.과제 코드 리뷰
- 필수과제 1 특성상 스킵
1.강의 내용 및 심화내용 토론
- 진행 X
3.그외 토론
- 4~5주차에 진행될 Image Classification 대회 대비 CNN 주요 논문 리뷰를 2주에 거쳐 할 것
4.학습회고
부스트캠프 참여 이전까지 공부를 혼자 하였는데, 확실히 다른 사람들과 함께할 때 책임감이 생기고, 방향을 잡기가 수월한 것 같습니다. 혼자 공부하는 과정에서 Git과 같은 협업 툴을 쓸 일이 거의 없었는데 금주에 있을 Git 특강을 통해 사용법을 빨리 익혀야 하겠습니다. 이번주도 화이팅입니다!
Author And Source
이 문제에 관하여(U-stage day 6), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@tkrhdwls/U-stage-day-6저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)