XGBoost

841 단어 기계 학습
XGBoost 는 현재 각종 데이터 경기 에서 비교적 광범 위 하 게 사용 되 고 있 는 알고리즘 중 하나 로 많은 문제 에서 좋 은 예측 효 과 를 얻 을 수 있다 는 것 이 증명 되 었 다.개발 자 진 천기 가 XGBoost 논문 에서 서술 한 바 에 따 르 면 XGBoost 의 기본 사상 차 이 는 손실 함수 의 2 단계 테일러 전개 식 을 대체 함수 로 이해 하고 최소 화 (도체 0) 를 통 해 회귀 트 리 의 최 적 절 점 과 엽 노드 출력 수 치 를 확정 할 수 있다 (이 점 은 cart 회귀 트 리 와 다르다).또한 XGBoost 는 손실 함수 에 서브 트 리 수량 과 서브 트 리 잎 노드 수치 등 을 도입 하여 정규 화 문 제 를 충분히 고려 하여 적합 을 효과적으로 피 할 수 있 습 니 다.효율 에 있어 서 XGBoost 는 독특한 유사 회귀 트 리 분기점 평가 와 서브 노드 병행 화 등 방식 을 이용 하여 2 단계 수렴 의 특성 을 더 해 모델 링 효율 이 일반 GBDT 보다 크게 향상 되 었 다.본 고 는 XGBoost 모델 링 의 간단 한 실천 을 부가 하여 관심 이 있 는 독자 들 이 시도 할 수 있다.
#XGBoost
import xgboost as xgb
xgb_model = xgb.XGBClassifier(max_depth=2,n_estimators=100)
xgb_model.fit(horse_train_x,horse_train_y)
y_pre_xgb = xgb_model.predict(horse_test_x)
sum(y_pre_xgb==horse_test_y)/float(horse_test_y.shape[0])

좋은 웹페이지 즐겨찾기