파이썬의 기본 머신러닝 비법 [10가지 분류 및 회귀 방법] 사용하기

기계 학습은 현재 세계에서 매우 빠른 속도로 발전하는 기술이다.그것은 인공지능의 서브집합이다.기계학습의 일상생활에서 일부 용도는 얼굴 인식이다. 우리는 이를 이용하여 스마트폰, 구글 홈, 아마존 알렉사 등 가정 조수와 자동운전 자동차를 잠금해제한다.
기계 학습은 컴퓨터가 명확한 인코딩 없이 어떤 임무를 수행하도록 가르치는 것이다.이것은 시스템이 일정한 결정 능력을 가지고 있다는 것을 의미한다.기계 학습은 다음과 같은 세 가지 유형으로 나눌 수 있다.
  • 감독학습
  • 무감독 학습
  • 학습 강화

  • 감독 학습


    감독 학습은 감독 학습이라고 불린다. 왜냐하면 이런 방법에서 모형은 선생님의 감독 아래 학습하기 때문이다.이 모델은 훈련에 사용할 입력과 출력을 가지고 있다.이는 학습자가 훈련 과정에서 출력을 알고 모형을 훈련시켜 예측 오차를 줄이는 것을 의미한다.감독 학습 방법의 두 가지 주요 유형은 분류와 회귀이다.

    무감독 학습


    무감독 학습은 학습 과정에서 감독자가 없다는 것을 의미한다.이 모델은 입력만 사용하여 훈련합니다.출력은 입력에서만 학습됩니다.무감독 학습의 주요 유형은 집합이다. 우리는 비슷한 유형의 사물을 한데 모으고 표기되지 않은 데이터에서 패턴을 집중적으로 찾는다.

    강화 학습


    강화 학습은 학습 유형의 하나로 그 중에서 모델 학습은 장려나 징벌에 따라 결정을 내린다.학습자는 결정을 내리고 장려나 징벌 형식의 피드백을 받는다.학습자는 보답을 극대화하려고 시도한다.이것은 게임 알고리즘이나 로봇 기술을 풀는데 그 중에서 로봇은 임무를 수행하고 보상이나 벌칙 형식의 피드백을 통해 학습한다.
    이 글에서 나는 감독 학습의 두 가지 주요 방법을 설명할 것이다.
  • 분류 - 분류에서 출력은 이산 데이터입니다.요컨대, 이것은 우리가 어떤 특징에 따라 데이터를 분류할 것을 의미한다.몇 가지 기본적인 예는 - 모양, 색깔, 무늬 등에 따라 사과와 귤을 구분하는 것이다. 이 예에서 모양, 색깔과 무늬는 특징이라고 하고, 출력은'애플'또는'오렌지', 종류라고 한다.출력을 클래스라고 하기 때문에 이 방법을 분류라고 부른다.
  • 회귀 - 회귀에서 출력은 연속 데이터이다.이 방법에서 우리는 특징에 따라 데이터의 추세를 예측한 결과 특정한 유형이나 유형에 속하지 않고 실수 출력을 제시했다.일부 기본적인 예는 다음과 같다. - 특정한 특징(예를 들어 집의 크기, 집의 위치와 층수 등)에 따라 집값을 예측하는 것이다. 회귀의 또 다른 예는 특정한 상품의 매출액이나 특정한 회사의 주가를 예측하는 것이다.
  • Python은 분류와 회귀를 수행하는 데 많은 도구를 제공합니다.가장 자주 사용하는 라이브러리 중 하나는scikit learn입니다.그것은 기계 학습에 많은 모형을 제공했다.
    기계학습을 감독하는 기본 절차는 -
  • 필요한 라이브러리 로드
  • 데이터 세트 로드
  • 데이터 집합을 훈련 집합과 테스트 집합으로 분리
  • 훈련모형
  • 평가 모델
  • 캐리어 라이브러리


    #Numpy deals with large arrays and linear algebra
    import numpy as np
    # Library for data manipulation and analysis
    import pandas as pd 
    
    # Metrics for Evaluation of model Accuracy and F1-score
    from sklearn.metrics  import f1_score,accuracy_score
    
    #Importing the Decision Tree from scikit-learn library
    from sklearn.tree import DecisionTreeClassifier
    
    # For splitting of data into train and test set
    from sklearn.model_selection import train_test_split
    

    데이터 세트 로드


    train=pd.read_csv("/input/hcirs-ctf/train.csv")
    # read_csv function of pandas reads the data in CSV format
    # from path given and stores in the variable named train
    # the data type of train is DataFrame 
    

    열차와 테스트 세트로 나누다


    #first we split our data into input and output
    # y is the output and is stored in "Class" column of dataframe
    # X contains the other columns and are features or input
    y = train.Class
    train.drop(['Class'], axis=1, inplace=True)
    X = train
    
    # Now we split the dataset in train and test part
    # here the train set is 75% and test set is 25%
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=2)
    

    교육 모델


    # Training the model is as simple as this
    # Use the function imported above and apply fit() on it
    DT= DecisionTreeClassifier()
    DT.fit(X_train,y_train)
    

    평가 모델


    # We use the predict() on the model to predict the output
    pred=DT.predict(X_test)
    
    # for classification we use accuracy and F1 score
    print(accuracy_score(y_test,pred))
    print(f1_score(y_test,pred))
    
    # for regression we use R2 score and MAE(mean absolute error)
    # all other steps will be same as classification as shown above
    from sklearn.metrics import mean_absolute_error
    from sklearn.metrics import r2_score
    print(mean_absolute_error(y_test,pred))
    print(mean_absolute_error(y_test,pred))
    
    
    내가 이미 보여준 기본적인 절차와 어떻게 분류와 회귀를 하는지와 같이 지금은 분류와 회귀 방법을 배울 때이다.나는 이미 10개의 분류와 10개의 회귀 함수의 집합을 번역했는데, 그것들은 매우 유행한다.이러한 방법을 도입하여 DecisionTreeClassifier() 대신 사용하고 기계 학습을 즐깁니다.

    10가지 유행하는 분류법


    대수 확률 회귀


    from sklearn.linear_model import LogisticRegression
    

    벡터 머신 지원


    from sklearn.svm import SVC
    

    소박한 베일스(고스, 다항식)


    from sklearn.naive_bayes import GaussianNB
    from sklearn.naive_bayes import MultinomialNB
    

    무작위 계단식 하강 분류기


    from sklearn.linear_model import SGDClassifier
    

    KNN(k-근린)


    from sklearn.neighbors import KNeighborsClassifier
    

    결정 트리


    from sklearn.tree import DecisionTreeClassifier
    

    랜덤 숲


    from sklearn.ensemble import RandomForestClassifier
    

    계단식 강화 분류기


    from sklearn.ensemble import GradientBoostingClassifier
    

    LGBM 분류기


    from lightgbm import LGBMClassifier
    

    XGBoost 분류기


    from xgboost.sklearn import XGBClassifier
    

    10가지 유행하는 회귀 방법


    선형 회귀


    from sklearn.linear_model import LinearRegression
    

    LGBM 회귀기


    from lightgbm import LGBMRegressor
    

    XGBoost 회귀기


    from xgboost.sklearn import XGBRegressor
    

    CatBoost 회귀기


    from catboost import CatBoostRegressor
    

    무작위 계단식 하강 회귀기


    from sklearn.linear_model import SGDRegressor
    

    핵령 회귀


    from sklearn.kernel_ridge import KernelRidge
    

    신축성 순회귀


    from sklearn.linear_model import ElasticNet
    

    베일스령 회귀


    from sklearn.linear_model import BayesianRidge
    

    사다리 추진 회귀


    from sklearn.ensemble import GradientBoostingRegressor
    

    벡터 머신 지원


    from sklearn.svm import SVR
    
    나는 이것이 기계 학습 초보자와 두각을 처음 드러낸 데이터 과학자에게 도움이 되기를 바란다.만약 당신이 이 글을 좋아한다면, 위에 투표해서 친구와 공유하세요.

    좋은 웹페이지 즐겨찾기