선형회귀 [TIL] Linear Regression 선형 회귀는 일차함수의 개념인 y = ax + b의 직선을 임의로 그려놓고, 그 직선을 바탕으로 예측하는 것이다. 독립변수가 감소하고 종속 변수가 증가한다면 음(Negative)의 관계라고 하며 위의 그림에서 남색 실선처럼 오른쪽 끝이 내려가 있다. 독립변수에 따라서 종속 변수가 변하므로, 아래 그래프처럼 공부를 많이 할수록 좋은 성적을 얻을 수 있을 것을 예측할 수 있다. 이제 임의로 데이... pythontabular data선형회귀scikit learnpython [인사이드 머신러닝] 단순회귀모델: 회귀계수의 추정 yi =β0 +β1 xi +ϵi (1) μYX =E[yi ]=β0 +β1 xi 와 같다. yi =μYX +ϵi 와 같이 나타낼 수 있다. 이를 위해, 식 (1)을 참고하여 오차제곱합(Sum of Squared Error: SSE)를 다음과 같이 나타낼 수 있다. \tag{2} \begin{aligned} S &= \sum_{i=1}^{N}\left|y_i- \hat{y}_i\right|^2 ... 회귀모형통계분석단순회귀모델Simple Linear Regressionleast squareLinear Regression회귀분석딥러닝선형회귀회귀모델machine learining인사이드 머신러닝머신러닝statistical data analysisleast square estimation데이터 분석cleanskylinear_modelDeep LearningDeep Learning Linear Regression - 다중선형회귀 정리, 기준모델, 다중모델 작성 및 시각화해보기 MAE(절대평균오차)를 통해 정확도를 체크해볼 수 있다. 평균으로 만든 기준모델에 대한 실제 타겟 데이터들의 오차보다 X_train데이터들로 회귀선을 fit한 모델의 오차가 훨씬 줄어든 것을 볼 수 있다. 평균선에 비해 특성과 타겟 간 오차 제곱합이 가장 적은 선을 그려낸 것을 알 수 있다. 진행해본 데이터는 특성이 2개이므로 데이터의 분포 및 상관관계와 우리가 예측한 모델의 예측 선(면)을... 선형회귀데이터 사이언스다중선형회귀다중선형회귀 Linear Regression - 단순선형회귀 정리, 회귀계수와 절편 구하기 이 때, 독립변수 X는 설명변수라고도 불리우고 다양한 곳에서 설명변수 X의 변화에 따라 달라지는 타겟 즉, 반응변수 y의 변화를 예측하는 기법으로 볼 수 있다. 종속변수 y: 이는 이를 표현하는 학문(?)에 따라 다른것 같으나, data science에서 주로 Feature(독립변수)와 Target(종속변수)로 표현한다. 회귀의 예시로는 아래와 같이 들 수 있다. y^ = β0 : 절편(y ... 선형회귀데이터 사이언스데이터 사이언스 선형회귀 (feat. Pytorch) 기저함수 모델과 인공신경망 모델 경사하강법을 이용한 선형회귀 과대적합과 규제 노멀 방정식을 이용한 선형회귀 데이터 확인 → 가설 수립(모델) → 목적 함수(loss) → 경사하강법(경사도 → 최적화) X_train 데이터를 뽑는다면 y = ax +b y=ax+b x, 여기서 결정되는 변수는 y = w_2x + w_1 y=w2 x+w1 y = \mathbf{w\cdot x = w^Tx =} \... 선형회귀PyTorch파이토치PyTorch
[TIL] Linear Regression 선형 회귀는 일차함수의 개념인 y = ax + b의 직선을 임의로 그려놓고, 그 직선을 바탕으로 예측하는 것이다. 독립변수가 감소하고 종속 변수가 증가한다면 음(Negative)의 관계라고 하며 위의 그림에서 남색 실선처럼 오른쪽 끝이 내려가 있다. 독립변수에 따라서 종속 변수가 변하므로, 아래 그래프처럼 공부를 많이 할수록 좋은 성적을 얻을 수 있을 것을 예측할 수 있다. 이제 임의로 데이... pythontabular data선형회귀scikit learnpython [인사이드 머신러닝] 단순회귀모델: 회귀계수의 추정 yi =β0 +β1 xi +ϵi (1) μYX =E[yi ]=β0 +β1 xi 와 같다. yi =μYX +ϵi 와 같이 나타낼 수 있다. 이를 위해, 식 (1)을 참고하여 오차제곱합(Sum of Squared Error: SSE)를 다음과 같이 나타낼 수 있다. \tag{2} \begin{aligned} S &= \sum_{i=1}^{N}\left|y_i- \hat{y}_i\right|^2 ... 회귀모형통계분석단순회귀모델Simple Linear Regressionleast squareLinear Regression회귀분석딥러닝선형회귀회귀모델machine learining인사이드 머신러닝머신러닝statistical data analysisleast square estimation데이터 분석cleanskylinear_modelDeep LearningDeep Learning Linear Regression - 다중선형회귀 정리, 기준모델, 다중모델 작성 및 시각화해보기 MAE(절대평균오차)를 통해 정확도를 체크해볼 수 있다. 평균으로 만든 기준모델에 대한 실제 타겟 데이터들의 오차보다 X_train데이터들로 회귀선을 fit한 모델의 오차가 훨씬 줄어든 것을 볼 수 있다. 평균선에 비해 특성과 타겟 간 오차 제곱합이 가장 적은 선을 그려낸 것을 알 수 있다. 진행해본 데이터는 특성이 2개이므로 데이터의 분포 및 상관관계와 우리가 예측한 모델의 예측 선(면)을... 선형회귀데이터 사이언스다중선형회귀다중선형회귀 Linear Regression - 단순선형회귀 정리, 회귀계수와 절편 구하기 이 때, 독립변수 X는 설명변수라고도 불리우고 다양한 곳에서 설명변수 X의 변화에 따라 달라지는 타겟 즉, 반응변수 y의 변화를 예측하는 기법으로 볼 수 있다. 종속변수 y: 이는 이를 표현하는 학문(?)에 따라 다른것 같으나, data science에서 주로 Feature(독립변수)와 Target(종속변수)로 표현한다. 회귀의 예시로는 아래와 같이 들 수 있다. y^ = β0 : 절편(y ... 선형회귀데이터 사이언스데이터 사이언스 선형회귀 (feat. Pytorch) 기저함수 모델과 인공신경망 모델 경사하강법을 이용한 선형회귀 과대적합과 규제 노멀 방정식을 이용한 선형회귀 데이터 확인 → 가설 수립(모델) → 목적 함수(loss) → 경사하강법(경사도 → 최적화) X_train 데이터를 뽑는다면 y = ax +b y=ax+b x, 여기서 결정되는 변수는 y = w_2x + w_1 y=w2 x+w1 y = \mathbf{w\cdot x = w^Tx =} \... 선형회귀PyTorch파이토치PyTorch