2. 혼공머신 데이터 다루기(테스트데이터,전처리)
-
지도학습(supervised learning)
데이터=입력(input), 정답=타깃(target). 이 둘을 합쳐 훈련데이터(training data)
입력으로 사용된 길이와 무게=특성(feature)
⇨ 정답(타깃)이 있으니 알고리즘이 정답을 맞히는 것을 학습. -
비지도학습(unsupervised learning)
타깃 없이 입력데이터만 사용
⇨ 무언가를 맞힐 수는 없으나,
데이터를 잘 파악하거나 변형할 수 있음
1. 샘플링 편향 해결
훈련 세트와 테스트 샘플이 골고루 섞여 있지 않아 샘플링이 한쪽으로 치우치는 현상.
훈련데이터 : 훈련에 사용됨 tran set
테스트데이터 : 평가에 사용됨 test set
train_input = fish_data[:35]
# 훈련 세트로 타깃값 중 0부터 34번째 인덱스까지 사용
train_target = fish_target[:35]
# 테스트 세트로 입력값 중 35번째부터 마지막 인덱스까지 사용
test_input = fish_data[35:]
# 테스트 세트로 타깃값 중 35번째부터 마지막 인덱스까지 사용
test_target = fish_target[35:]
kn= kn.fit(train_input, train_target)
kn.score(test_input, test_target)
결과값 : 0
2. 넘파이 리스트 변경후 랜덤 배열
- 파이썬 리스트를 2차원 넘파이 리스트로 변경
Q 넘파이 쓰는 이유
질문, 넘파이를 쓰는이유. 보통의 xy좌표계와는 달리 시작점이 왼쪽아래가 아니라 왼쪽 위부터 시작한다. 배열의 시작을 이렇게 놓으면 편리한점이 있다? 뭔말이지
import numpy as np
input_arr = np.array(fish_data)
target_arr = np.array(fish_target)
print(input_arr)
결과값 :
[[ 25.4 242. ]
[ 26.3 290. ]
[ 26.5 340. ]
[ 29. 363. ]
[ 29. 430. ]
[ 29.7 450. ]
[ 29.7 500. ]
[ 30. 390. ]
[ 30. 450. ]
[ 30.7 500. ]
[ 31. 475. ]
[ 31. 500. ]
[ 31.5 500. ]
[ 32. 340. ]
[ 32. 600. ]
[ 32. 600. ]
[ 33. 700. ]
[ 33. 700. ]
[ 33.5 610. ]
[ 33.5 650. ]
[ 34. 575. ]
[ 34. 685. ]
[ 34.5 620. ]
[ 35. 680. ]
[ 35. 700. ]
[ 35. 725. ]
[ 35. 720. ]
[ 36. 714. ]
[ 36. 850. ]
[ 37. 1000. ]
[ 38.5 920. ]
[ 38.5 955. ]
[ 39.5 925. ]
[ 41. 975. ]
[ 41. 950. ]
[ 9.8 6.7]
[ 10.5 7.5]
[ 10.6 7. ]
[ 11. 9.7]
[ 11.2 9.8]
[ 11.3 8.7]
[ 11.8 10. ]
[ 11.8 9.9]
[ 12. 9.8]
[ 12.2 12.2]
[ 12.4 13.4]
[ 13. 12.2]
[ 14.3 19.7]
[ 15. 19.9]]
print(input_arr.shape) # 이 명령을 사용하면 (샘플 수, 특성 수)를 출력함
결과값 : (49, 2)
초기에 랜덤시드를 지정
np.random.seed(42)
arange()함수에 정수 N을 전달하면 0부터 N-1까지 1씩 증가하는 배열을 만듬
index = np.arange(49)
shuffle()함수는 주어진 배열을 무작위로 섞음
np.random.shuffle(index)
print(index)
결과
[13 45 47 44 17 27 26 25 31 19 12 4 34 8 3 6 40 41 46 15 9 16 24 33 30 0 43 32 5 29 11 36 1 21 2 37 35 23 39 10 22 18 48 20 7 42 14 28 38]
잘섞임.
섞인 인덱스를 통해 전체데이터를 훈련SET과 테스트SET으로 나눔
train_input = input_arr[index[:35]]
train_target = target_arr[index[:35]]
test_input = input_arr[index[35:]]
test_target = target_arr[index[35:]]
import matplotlib.pyplot as plt
2차원 배열은 행과 열 인덱스를 콤마(,)로나뉨 전체 선택 : 로 정의함
plt.scatter(train_input[:,0], train_input[:,1]) plt.scatter(test_input[:,0], test_input[:,1])
plt.xlabel('length') plt.ylabel('weight') plt.show()
결과값
kn = kn.fit(train_input, train_target)
kn.score(test_input, test_target)
결과값 : 1.0
이상없다~
2. 데이터 전처리
- 데이터준비
fish_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0,
31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0,
35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0, 9.8,
10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0]
fish_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0,
500.0, 340.0, 600.0, 600.0, 700.0, 700.0, 610.0, 650.0, 575.0, 685.0, 620.0, 680.0,
700.0, 725.0, 720.0, 714.0, 850.0, 1000.0, 920.0, 955.0, 925.0, 975.0, 950.0, 6.7,
7.5, 7.0, 9.7, 9.8, 8.7, 10.0, 9.9, 9.8, 12.2, 13.4, 12.2, 19.7, 19.9]
넘파이의 column_stack()함수를 이용해 2개의 리스트를 튜플로 전달
import numpy as np fish_data = np.column_stack((fish_length, fish_weight)) print(fish_data[:5])
결과값
[[ 25.4 242. ]
[ 26.3 290. ]
[ 26.5 340. ]
[ 29. 363. ]
[ 29. 430. ]]
-
타깃데이터 준비
fish_target = np.concatenate((np.ones(35), np.zeros(14))) print(fish_target)
결과값 [1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
-
사이킷런으로 훈련세트 테스트세트 나누기
train_test_split함수 : 전달되는 리스트나 배열을 비율에 맞게 훈련세트와 테스트세트로 나눔
from sklearn.model_selection import train_test_splittrain_input, test_input, train_target, test_target = train_test_split(fish_data, fish_target, random_state=42)
shape을 써서 잘 나눠졌는지 확인
print(train_input.shape, test_input.shape)
(36, 2) (13, 2)
print(train_target.shape, test_target.shape)
(36,) (13,)
훔련 데이터와 테스트 데이터는 36, 13개로 나뉨적절한 비율로 나누기
print(test_target) [1. 0. 0. 0. 1. 1. 1. 1. 1. 1. 1. 1. 1.]
뭔가 비율이 안맞다
stratify 매개변수에 타깃 데이터를 전달하면 클래스의 비율에 맞게 데이터를 나눔
훈련데이터가 작거나 특정 클래스의 샘플 개수가 적을 때 특히 유용함
train_input, test_input, train_target, test_target = train_test_split(fish_data, fish_target, stratify=fish_target, random_state=42)
print(test_target)
결과 : [0. 0. 1. 0. 1. 0. 1. 1. 1. 1. 1. 1. 1.]
- k-최근접 이웃 훈련- 훈련 데이터로 모델을 훈련
from sklearn.neighbors import KNeighborsClassifier
kn = KNeighborsClassifier()
kn.fit(train_input, train_target)
kn.score(test_input, test_target)
결과 : 1.0
완벽쓰
도미 데이터를 넣고 예측해보면
print(kn.predict([[25,150]]))
[0.]
도미값을 넣었는데 0인 빙어값이 나온다?! 이상함..
import matplotlib.pyplot as plt
plt.scatter(train_input[:,0], train_input[:,1])
plt.scatter(25, 150, marker='^')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
산점도를 봐도 오른쪽 위인 도미에 더 가까움;; 뭐지
주변샘플을 통해 알아보자
KNeighborsClassifier 클래스는 주어진 샘플에서 가장 가까운 이웃을 찾아주는 kneighbors( ) 메서드를 제공
- 이 메서드는 이웃까지의 거리와 이웃 샘플의 인덱스를 반환함
KNeighborsClassifier 클래스의 이웃 개수인 n-neighbors의 기본값은 5이므로 5개의 이웃이 반환됨.distances, indexes = kn.kneighbors([[25, 150]])
산점도로 보자
plt.scatter(train_input[:,0], train_input[:,1])
plt.scatter(25, 150, marker='^')
plt.scatter(train_input[indexes,0], train_input[indexes,1], marker='D')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
직접 데이터도 보자
print(train_input[indexes])
print(train_target[indexes])
print(distances)
1.[[[ 25.4 242. ]
[ 15. 19.9]
[ 14.3 19.7]
[ 13. 12.2]
[ 12.2 12.2]]]
2. [[1. 0. 0. 0. 0.]]
3.[[ 92.00086956 130.48375378 130.73859415 138.32150953 138.39320793]]
데이터를 표현하는 기준이 다르면 알고리즘을 올바르게 예측할 수 없음!(거리기반일 때 특히!)
샘플 간의 거리에 영향을 많이 받으므로 제대로 사용하려면 특성 값을 일정한 기준으로 맞춰 주어야 함
→ 데이터 전처리(data preprocessing)
How? 가장 많이 쓰이는 데이터 전처리는 표준점수
- 각 특성값이 0에서 표준편차의 몇 배만큼 떨어져 있는지 나타냄.
- 실제 특성값의 크기와 상관없이 동일한 조건으로 비교할 수 있음
분산은 데이터에서 평균을 뺀 값을 모두 제곱한 다음 평균을 내어 구함.
표준편차는 분산의 제곱근으로 데이터가 분산된 정도를 나타냄.
표준점수는 각 데이터가 원점에서 및 표준편차만큼 떨어진만큼 나타내는 값.
(평균을 빼고 표준편차를 나눠줌->넘파이 함수 제공됨)
mean= np.mean(train_input, axis=0) >> 평균 계산
std=np.std(train_input, axis=0) >> 표준편차 계산
print(mean, std)
결과값 : [ 27.29722222 454.09722222][ 9.98244253 323.29893931]
앞에서 표준점수로 변환한 train_scaled를 만들어 다시 산점도로 그리기
plt.scatter(train_scaled[:,0], train_scaled[:,1])
plt.scatter(25, 150, marker='^')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
이상한이유
훈련세트를 평균으로 빼고 표준편차로 나누어 주었끼 때문에 범위가 달라짐
샘플[25,150]을 동일한 비율로 변환하면 발생하지 않음
다시 그리기
new = ([25,150] - mean) / std
plt.scatter(train_scaled[:,0], train_scaled[:,1])
plt.scatter(new[0], new[1], marker='^')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
다시 예측해보자
훈련을 마치고 테스트세트로 평가할때는 샘픔을 훈련세트의 평균과 표준편차로 변환해야지 같은 비율로 산점도를 그릴수 있음.
kn.fit(train_scaled, train_target)
test_scaled = (test_input - mean) / std
new = ([25,150] - mean) / std
plt.scatter(train_scaled[:,0], train_scaled[:,1])
plt.scatter(new[0], new[1], marker='^')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
1.kn.score(test_scaled, test_target)
2.print(kn.predict([new]))
출력
1.1.0
2.[1.]
1 즉, 도미로 예측했다!
kneighbors( ) 함수로 이 샘플의 k-최근접 이웃을 구한 다음 산점도로 그리기
특성을 표준점수로 바꾸었기 때문에 l-최근접 이웃 알고리즘이 올바르게 거리를 측정했을 것이다
- 이로 인해 갖아 가까운 이웃에 변화가 생겼을 것으로 기대됨
distances, indexes = kn.kneighbors([new])
plt.scatter(train_scaled[:,0], train_scaled[:,1])
plt.scatter(new[0], new[1], marker='^')
plt.scatter(train_scaled[indexes,0], train_scaled[indexes,1], marker='D')
plt.xlabel('length')
plt.ylabel('weight')
plt.show()
끝!
Author And Source
이 문제에 관하여(2. 혼공머신 데이터 다루기(테스트데이터,전처리)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@kmgt100/2.-혼공머신-데이터-다루기전처리저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)