Lec-05 Logistic Regression

6674 단어 딥러닝딥러닝

Classification - Binary Classification
: 시험 - Pass / Fail
: 스팸 - Yes / No
: 얼굴 - Real / Fake

: 머신러닝을 하기 위해서는 0과 1 Binary Classification을 위한 두 가지의 값으로 나뉘어야 함.

x_train = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]]
y_train = [[0], [0], [0], [1], [1], [1]] # One Hot

Logistic vs Linear
Logistic > 데이터를 두 가지의 경우로 나눌 수 있음
: ex) 신발 사이즈, 회사 직원 수

Linear > 데이터가 연속적, 새로운 데이터가 들어오더라도 이어지는 데이터
: ex) 시간, 몸무게, 키

Logistic_Y = [[0], [0], [0], [1], [1], [1]] # One Hot
Linear_Y = [828.659973, 833.450012, 819.23999, 828.349976, 831.659973] # Numeric

Hypothesis Representation
ex) Study Hours <-> Pass/Fail
: 공부한 시간이 많을수록 합격할 확률이 높음
: Pass(1), Fail(0)을 나타내기 위해서는 Logistic Function이 최적

hypothesis = tf.matmul(X, 0) + b # linear 0 is an [1xn+1] matrix / 0 are parameters

Sigmoid(Logistic) function
: g(z) function
: Linear Regression을 통해 나온 실수 값을 sigmoid함수를 통해서 1과 0의 값을 얻을 수 있음

hypothesis = tf.sigmoid(z) # z=tf.matmul(X, 0) + b
hypothesis = tf.div(1., 1. + tf.exp(z))

Decision Boundary

위 그림과 같이 decision boundary 기준에 따라 두 가지로 나눌 수 있다.

모두를 위한 딥러닝 시즌2 - Tensorflow

좋은 웹페이지 즐겨찾기