두 가지 논리 회귀에서 확대/축소의 영향 보기

4862 단어 기계 학습Python

개요


Keras에서 2가지 논리 회귀를 진행할 때 데이터의 축소를 바꾸고 결과가 어떻게 변화하는지 보도해 보세요.

배율 조정


축소에 관하여 아래의 글은 상세하고 알기 쉽게 썼다.
Feature Scaling이 필요한 이유
각 특징의 값의 너비가 고르지 않으면 사다리꼴 하강법으로 권중을 갱신할 때의 갱신 너비(미세분의 값)는 각 특징에 따라 크게 다르기 때문에 학습이 느려진다.

2 클래스 논리 회귀


이번에는 아래 보도된 코드와 데이터를 참고하여 실험을 진행하였다.
Keras 기반 두 가지 논리 회귀
상술한 사이트에 데이터 축소를 진행하는 곳이 있다.
X = preprocessing.scale(X)
여기를 바꿔봐. 결과가 어떻게 변할지 보자.
겸사겸사 말씀드리지만, 이것은
X = X - x.mean()) / x.std()
에서 설명한 대로 해당 매개변수의 값을 수정합니다.

시도된 배율 조정 모드

  • 무정표
  • 표준 편차 제법
  • 평균치 감법
  • 평균치감법+표준편차제법
  • batch=10
    Epoch=600
    항목에서 사용할 수 있는 모든 패밀리를 봅니다.

    데이터 분포


    1. 배율 조정 없음

    2. 표준 편차 제법

    3. 평균치 감량

    4.평균치감법+표준편차제법

    accuracy


    1. 배율 조정 없음

    전혀 안 돼요.
    2. 표준 편차 제법

    Epoch를 추가하면 상승할 것 같습니다.
    3. 평균치 감량

    그중에서 정밀도가 가장 좋다.
    4.평균치감법+표준편차제법

    평균치보다 감법 연산이 90퍼센트 정도 걸리면 시간이 걸린다.

    loss


    1. 배율 조정 없음

    2. 표준 편차 제법

    3. 평균치 감량

    4.평균치감법+표준편차제법

    decision boundary


    1. 배율 조정 없음
    축소가 안 돼서 수렴이 안 돼서 사랑을 베어요.
    2. 표준 편차 제법

    손실이 아직 떨어지지 않았기 때문에 선을 잘 그리지 못했다.
    3. 평균치 감량

    4.평균치감법+표준편차제법

    총결산


    축소 시 수렴 과정 있음

    이번 데이터의 예에만 국한되어 평균 감법은 가장 빠른 학습의 끝이다.지금까지는 규정된 처리로 썼지만 이렇게 실제로 다르게 보면 축소의 중요성을 다시 한 번 깨닫게 된다.

    좋은 웹페이지 즐겨찾기