sklearn 논리 회귀 LogisticRegression 파라미터 상세 설명


[원문 사이트 주소]:http://70b86a48.wiz03.com/share/s/1MK6F81-vQ1i2DFlsT0ux-iU2qccii0xCkjZ2Si7Lw1pfOQ3
api
매개 변수
의의
비고
LogisticRegression 의 parameters
penalty
벌칙 항목 은 벌칙 항목 에 사용 할 범례 유형 을 지정 하고 L1 범례 와 L2 범례 를 지원 합 니 다.
str, 'l1' or 'l2', default: 'l2'

dual
대구 형식 이 야, 원시 형식 이 야?이중 공식 은 libliner solver 를 사용 하 는 L2 벌칙 항목 에 적 용 됩 니 다.nsamples>n_features 시 dual = False 경향 이 있 습 니 다.
bool, default: False
tol
정지 조건 의 용인 도.
float, default: 1e-4
C
정규 화 강도 의 역수;반드시 정 부동 소수점 이 어야 한다.벡터 기 를 지원 하 는 것 과 마찬가지 로 작은 C 값 은 더 강 한 정규 화 를 사용 하 는 것 을 나타 낸다.
float, default: 1.0
fit_intercept
상수 (a. k. a. bias 또는 intercept) 를 대상 함수 에 추가 할 지 여 부 를 지정 합 니 다.
bool, default: True
intercept_scaling
"liblinear" 만 사용 하기 solver "및 self. fitintercept 이 True 일 때 만 작용 합 니 다.이러한 상황 에서 x 는 [x, self. intercept scaling] 으로 변 한다. 즉, intercept 와 같다.scaling 의 상수 치 인 '합성' 특징 은 인 스 턴 스 벡터 에 추 가 됩 니 다.인 터 셉 트scaling * synthetic_feature_weight。 주의!합성 특징의 가중치 는 모든 다른 특징 과 마찬가지 로 L1 과 L2 의 정규 화 를 겪 는 다.정규 화가 합성 특징 에 미 치 는 가중치 (이 로 인해 거리) 의 영향 을 줄 이기 위해 서 는 intercept 를 증가 해 야 합 니 다.scaling。
float, default 1.
class_weight
{class label: weight} 형식의 분류 에 대응 하 는 가중치 입 니 다.제시 되 지 않 으 면 모든 종류의 가중치 가 1 입 니 다."balanced" 모드 는 자동 으로 가중치 조정, 공식 은 nsamples /(n_classes * np.bincount(y))。 sample 을 지정 하면 주의 하 세 요.weight, 이 가중치 들 은 sampleweight (fit 방법 으로 전달) 곱 하기.주요 기능: classweight ='balanced'
dict or ‘balanced’, default: None
max_iter
new ton - cg, sag, lbfgs solver 에 만 적 용 됩 니 다.솔 버 수렴 의 최대 교체 횟수.
 int, default: 100
random_state
무 작위 데 이 터 를 섞 을 때 사용 하 는 가짜 난수 생 성기 의 씨앗 입 니 다.int 라면 randomstate 는 랜 덤 생 성기 에서 사용 하 는 씨앗 입 니 다.RandomState 인 스 턴 스 라면 randomstate 는 난수 생 성기 입 니 다.None 이면 난수 생 성 기 는 np. random 에서 사용 하 는 RandomState 인 스 턴 스 입 니 다.솔 버 = = 'sag' 또는 'liblinear' 에 사용 합 니 다.
int, RandomState instance or None, optional, default: None
solver
소형 데이터 세트 에 있어 서 'liblinear' 는 좋 은 선택 이 고 'sag' 와 'saga' 는 대형 에 더욱 빠르다.여러 가지 문제 에 대해 'new ton - cg', 'sag', 'saga' 와 'lbfgs' 만 여러 가지 손실 을 처리 합 니 다.liblinear '는 한 쌍 의 나머지 방안 에 만 한 정 됩 니 다.'new ton - cg ',' lbfgs' 와 'sag' 는 L2 벌칙 만 처리 하고 'liblinear' 와 'saga' 는 L1 벌칙 을 처리 할 수 있 습 니 다."sag" 와 "saga" 의 빠 른 수렴 은 대체적으로 같은 비율 을 가 진 features 에서 만 보장 되 는 것 을 주의 하 세 요.sklearn. preprocessing 의 크기 조정 기 를 사용 하여 데 이 터 를 미리 처리 할 수 있 습 니 다.
{‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’}, default: ‘liblinear’ Algorithm to use in the optimization problem.
multi_class
여러 종류의 옵션 은 'ovr' 또는 'multinomial' 일 수 있 습 니 다.만약 선택 한 옵션 이 'ovr' 라면, 각 탭 을 두 가지 분류 문제 로 보고 훈련 합 니 다.그렇지 않 으 면 손실 을 최소 화 하 는 것 은 전체 확률 분포 에서 훈련 하 는 여러 가지 손실 이다.liblinear solver 에 적용 되 지 않 습 니 다.
str, {‘ovr’, ‘multinomial’}, default: ‘ovr’
verbose
liblinear 와 lbfgs solver 에 대해 서 는 verbose 를 모든 정수 로 설정 하여 출력 절차 의 상세 도 를 표시 합 니 다.
int, default: 0
warm_start
트 루 로 설정 할 때 지난 훈련 결 과 를 다시 사용 하여 초기 화 합 니 다. 그렇지 않 으 면 지난 훈련 결 과 를 알 수 있 습 니 다.liblinear solver 이 매개 변 수 는 작 동 하지 않 습 니 다.주요 기능: warmstart 는 lbfgs, newton - cg, sag, saga solver 를 지원 합 니 다.
bool, default: False
n_jobs
하면, 만약, 만약...class = 'ovr' 는 클래스 를 병렬 화 할 때 사용 하 는 CPU 의 핵심 수 입 니 다. 'multi class' 를 지정 하 든 말 든' solver '가' liblinear '로 설정 되 었 을 때 이 인 자 를 무시 합 니 다. 주어진 값 - 1 이면 모든 핵심 을 사용 합 니 다.
int, default: 1

좋은 웹페이지 즐겨찾기