boostcamp Pandas (cont.) / 확률론 groupby joint method (merge/concat) aggregation : 요약된 통계정보를 추출 특정 조건으로 데이터를 검색할 때 사용 pivot table crosstab Merge & Concat persistence Norm, Regularization 이 경우 모델의 일반화 성능은 감소할 것이다 \mathcal{X} X x D 는 데이터 공간에서 데이터를 추출하는 분포... boostcampboostcamp Week2 - PyTorch Custom Dataset & DataLoader 파이토치 모델을 학습시키기 위한 데이터셋의 표준을 torch.utils.data.Dataset에 정의하고 Dataset 모듈을 상속하는 파생 클래스는 학습에 필요한 데이터를 로딩해주는 torch.utils.data.DataLoader 인스턴스의 입력으로 사용할 수 있음. torchvision.dataset: torch.utils.data.Dataset을 상속하는 이미지 데이터셋의 모음, MN... PyTorchboostcampPyTorch 2.4 (금) - Data Viz(text, color, facet, tips, seaborn) zip()으로 특정 칼럼과 색상을 묶고 (ex. zip(['adult', 'kid'],['orange', 'green'])) 해당 칼럼에 따라 색상을 달리 하여 정보를 나타낼 수 있음. subplots 설정 시 sharex, sharey를 통한 x, y축 인덱스 동기화 squeeze=False를 통한 자동 squeeze 해제 → subplots의 위치를 (1,3)으로 설정해도 2차원 배열로 ... MLDLvizdatamatplotlibboostcampseabornAIAI PyTorch Basics_01 Tensor 사실상 numpy의 ndarray와 동일 (그러므로 TensorFlow의 Tensor와도 동일) Tensor를 생성하는 함수도 거의 동일 Tensor operations nn.functional 모듈에서 딥러닝 연산을 위한 다양한 함수 지원 텐서의 값을 확률로 변환해주는 소프트맥스 함수 텐서에서 가장 큰 원소의 인덱스 번호를 리턴해 주는 argmax 함수 pytorch의 핵심인 ... AI TechNaverdeep learingboostcampPyTorch_BasicsAI Tech 시각화/통계학 최대가능도 추정법을 통해 정답에 해당하는 확률분포와 모델이 추정하는 확률분포의 거리를 최소화함으로써 모델을 학습시킬 수 있으며, 이 원리는 딥러닝/머신러닝에서 유용하게 사용된다 데이터의 확률분포를 가정했다면 모수를 추정해볼 수 있다 \underset{\theta}{argmax} P(\mathrm{X}|\theta) \prod_{i=1}^n p(x_i|\theta) \Rightarrow log... boostcampboostcamp [U stage DAY 4] AI Math (2) (x,y) \sim D 결합분포 P(x,y)는 D를 모델링함 P(x) = \sum_y P(x,y) : \text{각 y에 대해 더하여 유도} \\ P(x) = \int_y P(x,y)dy : \text{각 y에 대해 적분하여 유도} P(x)=y∑ P(x,y):각 y에 대해 더하여 유도P(x)=∫y P(x,y)dy:각 y에 대해 적분하여 유도 조건부확률분포 P(x|y) 조건부확률 P(y|x) ... boostcampboostcamp
Pandas (cont.) / 확률론 groupby joint method (merge/concat) aggregation : 요약된 통계정보를 추출 특정 조건으로 데이터를 검색할 때 사용 pivot table crosstab Merge & Concat persistence Norm, Regularization 이 경우 모델의 일반화 성능은 감소할 것이다 \mathcal{X} X x D 는 데이터 공간에서 데이터를 추출하는 분포... boostcampboostcamp Week2 - PyTorch Custom Dataset & DataLoader 파이토치 모델을 학습시키기 위한 데이터셋의 표준을 torch.utils.data.Dataset에 정의하고 Dataset 모듈을 상속하는 파생 클래스는 학습에 필요한 데이터를 로딩해주는 torch.utils.data.DataLoader 인스턴스의 입력으로 사용할 수 있음. torchvision.dataset: torch.utils.data.Dataset을 상속하는 이미지 데이터셋의 모음, MN... PyTorchboostcampPyTorch 2.4 (금) - Data Viz(text, color, facet, tips, seaborn) zip()으로 특정 칼럼과 색상을 묶고 (ex. zip(['adult', 'kid'],['orange', 'green'])) 해당 칼럼에 따라 색상을 달리 하여 정보를 나타낼 수 있음. subplots 설정 시 sharex, sharey를 통한 x, y축 인덱스 동기화 squeeze=False를 통한 자동 squeeze 해제 → subplots의 위치를 (1,3)으로 설정해도 2차원 배열로 ... MLDLvizdatamatplotlibboostcampseabornAIAI PyTorch Basics_01 Tensor 사실상 numpy의 ndarray와 동일 (그러므로 TensorFlow의 Tensor와도 동일) Tensor를 생성하는 함수도 거의 동일 Tensor operations nn.functional 모듈에서 딥러닝 연산을 위한 다양한 함수 지원 텐서의 값을 확률로 변환해주는 소프트맥스 함수 텐서에서 가장 큰 원소의 인덱스 번호를 리턴해 주는 argmax 함수 pytorch의 핵심인 ... AI TechNaverdeep learingboostcampPyTorch_BasicsAI Tech 시각화/통계학 최대가능도 추정법을 통해 정답에 해당하는 확률분포와 모델이 추정하는 확률분포의 거리를 최소화함으로써 모델을 학습시킬 수 있으며, 이 원리는 딥러닝/머신러닝에서 유용하게 사용된다 데이터의 확률분포를 가정했다면 모수를 추정해볼 수 있다 \underset{\theta}{argmax} P(\mathrm{X}|\theta) \prod_{i=1}^n p(x_i|\theta) \Rightarrow log... boostcampboostcamp [U stage DAY 4] AI Math (2) (x,y) \sim D 결합분포 P(x,y)는 D를 모델링함 P(x) = \sum_y P(x,y) : \text{각 y에 대해 더하여 유도} \\ P(x) = \int_y P(x,y)dy : \text{각 y에 대해 적분하여 유도} P(x)=y∑ P(x,y):각 y에 대해 더하여 유도P(x)=∫y P(x,y)dy:각 y에 대해 적분하여 유도 조건부확률분포 P(x|y) 조건부확률 P(y|x) ... boostcampboostcamp