python 머 신 러 닝 라 이브 러 리 scikit-learn:SVR 의 기본 응용
4696 단어 pythonscikit-learnSVR
scikit-learn 홈 페이지:http://scikit-learn.org/stable/index.html 클릭 하여 링크 열기
SVR 은 벡터 회귀(support vector regression)를 지원 하 는 영문 줄 임 말로 벡터 머 신(SVM)을 지원 하 는 중요 한 응용 분야 입 니 다.
scikit-learn 에서 libsvm 기반 SVR 솔 루 션 을 제공 합 니 다.
PS:libsvm 은 대만 대학 임지 인 교수 등 이 개발 한 간단 하고 사용 하기 쉽 고 빠 르 며 효과 적 인 SVM 모델 인식 과 복귀 패키지 입 니 다.
저 희 는 무 작위 로 값 을 만 든 다음 에 sin 함수 로 맵 을 하고 SVR 로 데 이 터 를 적합 하 게 합 니 다.
from __future__ import division
import time
import numpy as np
from sklearn.svm import SVR
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import learning_curve
import matplotlib.pyplot as plt
rng = np.random.RandomState(0)
#############################################################################
#
X = 5 * rng.rand(10000, 1)
y = np.sin(X).ravel()
# 50
y[::50] += 2 * (0.5 - rng.rand(int(X.shape[0]/50)))
X_plot = np.linspace(0, 5, 100000)[:, None]
#############################################################################
# SVR
#
train_size = 100
# SVR
svr = GridSearchCV(SVR(kernel='rbf', gamma=0.1), cv=5,
param_grid={"C": [1e0, 1e1, 1e2, 1e3],
"gamma": np.logspace(-2, 2, 5)})
#
t0 = time.time()
#
svr.fit(X[:train_size], y[:train_size])
svr_fit = time.time() - t0
t0 = time.time()
#
y_svr = svr.predict(X_plot)
svr_predict = time.time() - t0
그리고 우 리 는 결 과 를 시각 적 으로 처리한다.
#############################################################################
#
plt.scatter(X[:100], y[:100], c='k', label='data', zorder=1)
plt.hold('on')
plt.plot(X_plot, y_svr, c='r',
label='SVR (fit: %.3fs, predict: %.3fs)' % (svr_fit, svr_predict))
plt.xlabel('data')
plt.ylabel('target')
plt.title('SVR versus Kernel Ridge')
plt.legend()
plt.figure()
##############################################################################
#
X = 5 * rng.rand(1000000, 1)
y = np.sin(X).ravel()
y[::50] += 2 * (0.5 - rng.rand(int(X.shape[0]/50)))
sizes = np.logspace(1, 4, 7)
for name, estimator in {
"SVR": SVR(kernel='rbf', C=1e1, gamma=10)}.items():
train_time = []
test_time = []
for train_test_size in sizes:
t0 = time.time()
estimator.fit(X[:int(train_test_size)], y[:int(train_test_size)])
train_time.append(time.time() - t0)
t0 = time.time()
estimator.predict(X_plot[:1000])
test_time.append(time.time() - t0)
plt.plot(sizes, train_time, 'o-', color="b" if name == "SVR" else "g",
label="%s (train)" % name)
plt.plot(sizes, test_time, 'o--', color="r" if name == "SVR" else "g",
label="%s (test)" % name)
plt.xscale("log")
plt.yscale("log")
plt.xlabel("Train size")
plt.ylabel("Time (seconds)")
plt.title('Execution Time')
plt.legend(loc="best")
################################################################################
#
plt.figure()
svr = SVR(kernel='rbf', C=1e1, gamma=0.1)
train_sizes, train_scores_svr, test_scores_svr = \
learning_curve(svr, X[:100], y[:100], train_sizes=np.linspace(0.1, 1, 10),
scoring="neg_mean_squared_error", cv=10)
plt.plot(train_sizes, -test_scores_svr.mean(1), 'o-', color="r",
label="SVR")
plt.xlabel("Train size")
plt.ylabel("Mean Squared Error")
plt.title('Learning curves')
plt.legend(loc="best")
plt.show()
익숙 한 로 스 하강 도 를 보고 다시 학 창 시절 로 돌아 간 듯 했다.
이상 이 바로 본 고의 모든 내용 입 니 다.여러분 의 학습 에 도움 이 되 고 저 희 를 많이 응원 해 주 셨 으 면 좋 겠 습 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
로마 숫자를 정수로 또는 그 반대로 변환그 중 하나는 로마 숫자를 정수로 변환하는 함수를 만드는 것이었고 두 번째는 그 반대를 수행하는 함수를 만드는 것이었습니다. 문자만 포함합니다'I', 'V', 'X', 'L', 'C', 'D', 'M' ; 문자열이 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.