두 가지 논리 회귀에서 확대/축소의 영향 보기
개요
Keras에서 2가지 논리 회귀를 진행할 때 데이터의 축소를 바꾸고 결과가 어떻게 변화하는지 보도해 보세요.
배율 조정
축소에 관하여 아래의 글은 상세하고 알기 쉽게 썼다.
Feature Scaling이 필요한 이유
각 특징의 값의 너비가 고르지 않으면 사다리꼴 하강법으로 권중을 갱신할 때의 갱신 너비(미세분의 값)는 각 특징에 따라 크게 다르기 때문에 학습이 느려진다.
2 클래스 논리 회귀
이번에는 아래 보도된 코드와 데이터를 참고하여 실험을 진행하였다.
Keras 기반 두 가지 논리 회귀
상술한 사이트에 데이터 축소를 진행하는 곳이 있다.X = preprocessing.scale(X)
여기를 바꿔봐. 결과가 어떻게 변할지 보자.
겸사겸사 말씀드리지만, 이것은X = X - x.mean()) / x.std()
에서 설명한 대로 해당 매개변수의 값을 수정합니다.
시도된 배율 조정 모드
축소에 관하여 아래의 글은 상세하고 알기 쉽게 썼다.
Feature Scaling이 필요한 이유
각 특징의 값의 너비가 고르지 않으면 사다리꼴 하강법으로 권중을 갱신할 때의 갱신 너비(미세분의 값)는 각 특징에 따라 크게 다르기 때문에 학습이 느려진다.
2 클래스 논리 회귀
이번에는 아래 보도된 코드와 데이터를 참고하여 실험을 진행하였다.
Keras 기반 두 가지 논리 회귀
상술한 사이트에 데이터 축소를 진행하는 곳이 있다.X = preprocessing.scale(X)
여기를 바꿔봐. 결과가 어떻게 변할지 보자.
겸사겸사 말씀드리지만, 이것은X = X - x.mean()) / x.std()
에서 설명한 대로 해당 매개변수의 값을 수정합니다.
시도된 배율 조정 모드
X = preprocessing.scale(X)
X = X - x.mean()) / x.std()
Epoch=600
항목에서 사용할 수 있는 모든 패밀리를 봅니다.
데이터 분포
1. 배율 조정 없음
2. 표준 편차 제법
3. 평균치 감량
4.평균치감법+표준편차제법
accuracy
1. 배율 조정 없음
전혀 안 돼요.
2. 표준 편차 제법
Epoch를 추가하면 상승할 것 같습니다.
3. 평균치 감량
그중에서 정밀도가 가장 좋다.
4.평균치감법+표준편차제법
평균치보다 감법 연산이 90퍼센트 정도 걸리면 시간이 걸린다.
loss
1. 배율 조정 없음
2. 표준 편차 제법
3. 평균치 감량
4.평균치감법+표준편차제법
decision boundary
1. 배율 조정 없음
축소가 안 돼서 수렴이 안 돼서 사랑을 베어요.
2. 표준 편차 제법
손실이 아직 떨어지지 않았기 때문에 선을 잘 그리지 못했다.
3. 평균치 감량
4.평균치감법+표준편차제법
총결산
축소 시 수렴 과정 있음
이번 데이터의 예에만 국한되어 평균 감법은 가장 빠른 학습의 끝이다.지금까지는 규정된 처리로 썼지만 이렇게 실제로 다르게 보면 축소의 중요성을 다시 한 번 깨닫게 된다.
Reference
이 문제에 관하여(두 가지 논리 회귀에서 확대/축소의 영향 보기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/takurooo/items/a893031d30c96f8f1a6d
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
1. 배율 조정 없음
전혀 안 돼요.
2. 표준 편차 제법
Epoch를 추가하면 상승할 것 같습니다.
3. 평균치 감량
그중에서 정밀도가 가장 좋다.
4.평균치감법+표준편차제법
평균치보다 감법 연산이 90퍼센트 정도 걸리면 시간이 걸린다.
loss
1. 배율 조정 없음
2. 표준 편차 제법
3. 평균치 감량
4.평균치감법+표준편차제법
decision boundary
1. 배율 조정 없음
축소가 안 돼서 수렴이 안 돼서 사랑을 베어요.
2. 표준 편차 제법
손실이 아직 떨어지지 않았기 때문에 선을 잘 그리지 못했다.
3. 평균치 감량
4.평균치감법+표준편차제법
총결산
축소 시 수렴 과정 있음
이번 데이터의 예에만 국한되어 평균 감법은 가장 빠른 학습의 끝이다.지금까지는 규정된 처리로 썼지만 이렇게 실제로 다르게 보면 축소의 중요성을 다시 한 번 깨닫게 된다.
Reference
이 문제에 관하여(두 가지 논리 회귀에서 확대/축소의 영향 보기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/takurooo/items/a893031d30c96f8f1a6d
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
1. 배율 조정 없음
축소가 안 돼서 수렴이 안 돼서 사랑을 베어요.
2. 표준 편차 제법
손실이 아직 떨어지지 않았기 때문에 선을 잘 그리지 못했다.
3. 평균치 감량
4.평균치감법+표준편차제법
총결산
축소 시 수렴 과정 있음
이번 데이터의 예에만 국한되어 평균 감법은 가장 빠른 학습의 끝이다.지금까지는 규정된 처리로 썼지만 이렇게 실제로 다르게 보면 축소의 중요성을 다시 한 번 깨닫게 된다.
Reference
이 문제에 관하여(두 가지 논리 회귀에서 확대/축소의 영향 보기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/takurooo/items/a893031d30c96f8f1a6d
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(두 가지 논리 회귀에서 확대/축소의 영향 보기), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/takurooo/items/a893031d30c96f8f1a6d텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)