Guia rápida sobre 통합 학습

많은 지역에서 우리의 정책 결정 모델은 지방정부와 지방정부가 공동으로 결정한다. 프로젝트 시장의 지도 아래 우리는 반드시 상응하는 정책 결정을 해야 한다.
이것은 단체 학습이다.

안내: 통합 학습


En el campo del aprendizaje automático, si agrupamos las predicciones de un conjunto de algoritmos (tanto para clasificación como para regresión) vamos a obtener mejores resultados que con el mejor predictor individual.


Por Ejempo:
결정 트리의 집합, 서로 다른 집합의 집합.루고는 예처리를 실현하는 방법은 예처리 결과와 예처리 결과를 함께 놓고 예처리 결과와 예처리 결과를 함께 놓는 것이라고 말했다.

학습할 기능은 다음과 같습니다.
from sklearn.ensemble import RandomForestClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.ensemble import VotingClassifier
from sklearn.datasets import make_moons
from sklearn.model_selection import train_test_split

log_clf = LogisticRegression()
rnd_clf = RandomForestClassifier()
svm_clf = SVC()

voting_clf = VotingClassifier(
    estimators=[('lr', log_clf), ('rf', rnd_clf), ('svc', svm_clf)],
    voting='hard')

X, y = make_moons(n_samples=1000, noise=0.3, random_state=42)

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.35, random_state=42)

from sklearn.metrics import accuracy_score

for clf in (log_clf, rnd_clf, svm_clf, voting_clf):
  clf.fit(X_train, y_train)
  y_pred = clf.predict(X_test)
  print(clf.__class__.__name__, accuracy_score(y_test, y_pred))
LogisticRegression 0.8514285714285714
RandomForestClassifier 0.9142857142857143
SVC 0.9028571428571428
VotingClassifier 0.9057142857142857
우선, 우리는 새로운 알고리즘을 정의했다.En este caso, vamos a usar RandomForestClassifier, LogisticRegression, SVC(벡터 분류기 지원).루에고, 알파모스 로스 트리스 모로스 우산도 엘레 메토도 VotingClassifier, 엔트레나 모스.

El Ensemble Learning funciona mejor si los algoritmos a agrupar son los mas independientes posibles unos de otros. De esta manera, van a realizar distintos tipos de errores, mejorando la precisión del conjunto.


다른 것은 하드 투표와 소프트 투표다.


이것은 복잡한 과정이다. 이것은 복잡한 과정이다. 이것은 복잡한 과정이고 복잡한 과정이다. 이것은 복잡한 과정이다. 이것은 복잡한 과정이고 복잡한 과정이다.Esta tecnica es conocida como 소프트 투표.모든 투표 결과는 투표 결과였고, 시장 비소의 투표 결과는 정확했다.predict_proba()년의 재취업률에는 새로운 수입원이 있는데 이것은 가능한 수입원이다.많은 사람들이 voting="hard"을 미리 확정했다. 왜냐하면 그들의 지하철역은 voting="soft"코모 SVC(probabilityTrue 2단, 즉 SVC 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단, 3단)을 사용했기 때문이다.
수정된 새 모델에서 다음을 수행합니다.
log_clf = LogisticRegression()
rnd_clf = RandomForestClassifier()
svm_clf = SVC(probability=True)

voting_clf = VotingClassifier(
    estimators=[('lr', log_clf), ('rf', rnd_clf), ('svc', svm_clf)],
    voting='soft')

for clf in (log_clf, rnd_clf, svm_clf, voting_clf):
  clf.fit(X_train, y_train)
  y_pred = clf.predict(X_test)
  print(clf.__class__.__name__, accuracy_score(y_test, y_pred))
LogisticRegression 0.8514285714285714
RandomForestClassifier 0.92
SVC 0.9028571428571428
VotingClassifier 0.9142857142857143
이것은 새로운 투표 방식으로, 투표 결과는 소프트 투표이다.

봉지와 붙이기


너도 우리 직원들은 모두 다른 알고리즘을 가지고 있다고 말할 수 있다.입구 데이터가 집중된 돼지를 구분하기 위한 단독 알고리즘이 필요하다.이것은 아주 좋은 예이다. 그것은 아주 좋은 예이다.Y cuando el-muestreo는 재취업자이자 스티커입니다.
palabras에서는 tanto el bagging como el pasting permiten muestrear Instances de Enternamient varias Vecs En varios predictor, pero solo el bagging permite muestrear Instances de Enternamient varias Vecs para el mismo predictor.

Link a GitHub
예측자의 아들 엔트나도스(entrenados)에게서 우리는 예측자의 미래 발전 추세(predicción para Una nueva instancea agregando las prediccions de todos los prediccions)가 아니라 미래의 발전 추세를 예견할 수 있다.농업법규범(decir, La predicción más frecuente, como un clasificador hard voting)은 농업법을 지지하고 개혁을 지지한다. 카다는 시장이 말한 원시 데이터 집합인 소득과 소득의 변화를 줄이는 것을 예측한다.전반적으로 말하면 최종 결과는 유사한 변화이거나 단독 예측자가 최초의 단계에 들어갔다.

포장과 접착


그는 변호사 cross-validation명, 변호사 predict_proba()명이 있다고 말했다.
Algunos parámetros para bagging son:
  • BaggingClassifier:número de predicters en el concento.
  • BaggingRegressor: 분짜 de muestras del set de entrenamiento para entrenar cada 예측 인자.
  • n_estimators:max_samples단 usar 포켓, bootstrap단 usar 접착.
  • True:número de núcleos del CPU para usar en el-Enternamiento(False usa todos los núcleos Disposible).
  • Acátenemos un Ejempo de bagging:
    from sklearn.ensemble import BaggingClassifier
    from sklearn.tree import DecisionTreeClassifier
    
    bag_clf = BaggingClassifier(
        DecisionTreeClassifier(), n_estimators=1000,
        max_samples=200, bootstrap=True, n_jobs=-1, random_state=0)
    bag_clf.fit(X_train, y_train)
    y_pred = bag_clf.predict(X_test)
    
    print(accuracy_score(y_test, y_pred))
    
    0.9057142857142857
    
    Y por acáun ejempo de pasting:
    pas_clf = BaggingClassifier(
        DecisionTreeClassifier(), n_estimators=1000,
        max_samples=200, bootstrap=False, n_jobs=-1, random_state=0)
    pas_clf.fit(X_train, y_train)
    y_pred = pas_clf.predict(X_test)
    
    print(accuracy_score(y_test, y_pred))
    
    0.9085714285714286
    
    간단한 비교에서 veamos como 결과는 단일 의사 결정 트리 haciendo todo el trabajo와 일치합니다.
    tree = DecisionTreeClassifier()
    tree.fit(X_train, y_train)
    y_pred = tree.predict(X_test)
    print(accuracy_score(y_test, y_pred))
    
    0.8714285714285714
    
    에스페라바에서 테네모스 메조레스는 1번 도로에 1000개의 오두막집을 지었다.

    결론


    이 글의 작자는 아우다도 타토코모인데, 그는 나의 친구이다.칭찬 고마워요!

    지느러미


    “Sorpresa para quienes llegaron al final!

    자루에서 꺼내다


    봉지를 사용했기 때문에 절대 선택이 아니라 가변방향 예측을 사용했다.미리 확정된 데이터에 따르면 n_jobs이 재취업을 선택한 실례(-1)는 재취업이 필요 없다.이것은 의미 있는 예측 지표로 그 예측치는 63퍼센트다.El의 37%의 소매점(일치하지 않는 서비스 수준 예측치가 없음)에는 기존의 소매점(oob)이 하나도 없다.
    당신은 한 프로젝트의 진전 상황을 예측할 수 있고 유효성 평가의 필요 조건에서 평가자는 프로젝트의 진전 상황에 따라 평가할 수 있다.
    Scikit Learn에서 구성기 BaggingClassifier은creando 유엔 bootstrap=True의 일부로 기업 가치를 평가하는 데 사용된다.논쟁 가능한 평가 결과 변수는 oob_score=True:
    bag_clf = BaggingClassifier(
        DecisionTreeClassifier(), n_estimators=500,
        bootstrap=True, n_jobs=-1, oob_score=True)
    
    bag_clf.fit(X_train, y_train)
    bag_clf.oob_score_
    
    0.9061538461538462
    
    평가 결과에 따르면 테스트 집합의 정확도는 90.6%였다.와모스 칼로:
    y_pred = bag_clf.predict(X_test)
    accuracy_score(y_test, y_pred)
    
    0.9142857142857143
    
    "오브비모스의 푸르바 정밀도는 91.4%!Bastante acertado.
    Tambien tenemos의 의사 결정 기능 포함:
    bag_clf.oob_decision_function_
    
    array([[0.        , 1.        ],
           [0.97206704, 0.02793296],
           [1.        , 0.        ],
           ...,
           [0.99408284, 0.00591716],
           [0.88333333, 0.11666667],
           [0.        , 1.        ]])
    
    아호라 시야스 결승전, 무차스 그레시아스 폴 람."하스타 루거!

    좋은 웹페이지 즐겨찾기