sklearn 신경 네트워크 MLPclassifier 매개 변수 설명

class sklearn.neural_network.MLPClassifier(hidden_layer_sizes=(100, ), activation=’relu’, solver=’adam’, alpha=0.0001, 
batch_size=’auto’, learning_rate=’constant’, learning_rate_init=0.001, power_t=0.5, max_iter=200, shuffle=True,
 random_state=None, tol=0.0001, verbose=False, warm_start=False, momentum=0.9, nesterovs_momentum=True, 
 early_stopping=False, validation_fraction=0.1, beta_1=0.9, beta_2=0.999, epsilon=1e-08, n_iter_no_change=10)[source]

매개 변수
비고
hidden_​​layer_sizes
tuple,length = n_layers-2, 기본값(100,) i번째 요소는 i번째 숨겨진 층의 신경원 수량을 나타낸다.
활성화
{'identity','logistic','tanh','relu'}, 기본값'relu'숨겨진 층의 활성화 함수:'identity', 무조작 활성화, 선형 병목 실현에 유용, f(x)=x로 되돌아오기;logistic', logistic sigmoid 함수, f(x)=1/(1+exp(-x)) 반환; 'tanh', 쌍곡tan 함수, f(x)=tanh(x)로 되돌아오기; 'relu', 정류 후의 선형 단위 함수, f(x) = max(0, x) 되돌아오기
slover
{'lbfgs','sgd','adam'}, 기본값'adam.권중 최적화된 구해기:'lbfgs'는 준뉴턴 방법족의 최적화기이다.sgd'는 무작위 계단이 내려가는 것을 가리킨다.adam'은 킹마, 디데릭, 지미바가 제시한 무작위 사다리 기반 최적화기를 말한다.주의: 기본 해산기'adam'은 비교적 큰 데이터 집합(수천 개의 훈련 견본 또는 그 이상을 포함)에서 훈련 시간과 검증 점수 면에서 모두 잘 작동합니다.그러나 소형 데이터 집합에 대해'lbfgs'는 더욱 빨리 수렴하고 더욱 잘 표현할 수 있다.
alpha
float, 선택 사항, 기본값은 0.0001입니다.L2 벌칙 매개변수입니다.
batch_size
int, optional, 기본 auto.임의 최적화기에 사용되는 미니버치의 크기입니다.slover가'lbfgs'인 경우 분류기는 minibatch를 사용하지 않습니다.auto로 설정하면batchsize = min(200,n_samples)
learning_rate
{'상수','invscaling','자적응'},기본 상수. 가중치 업데이트에 사용됩니다. solver='sgd'에서만 사용됩니다.'constant'은'learning rate init'가 제공하는 고정 학습률이고,'invscaling'은'power t'의 역축소 지수를 사용하여 시간마다't'에서 학습 속도를 점차적으로 낮추면 learning rate, effective learning rate = learning rate init/pow(t, power t). 훈련 손실이 줄어들면'아다ptive'는 학습 속도를 유지합니다.“learning_rate_init”.2연속 기간마다 훈련 손실을 최소화하지 못하거나,'earlystopping'이 시작되면 검증 점수를 최소한tol 증가하지 못하면 현재 학습 속도를 5로 나눈다.
learning_rate_init
double, 선택할 수 있습니다. 기본값은 0.001입니다.초기 학습률을 사용합니다.그것은 업데이트의 중요도를 제어한다.Solver='sgd'또는'adam'에서만 사용할 수 있습니다.
power_t
double, 선택할 수 있습니다. 기본값은 0.5입니다.학습률을 역축소하는 지수.learningrate가 'invscaling' 으로 설정되었을 때, 유효한 학습률을 업데이트하는 데 사용됩니다.Solver='sgd'에서만 사용할 수 있습니다.
max_iter
int, optional, 기본값 200.최대 교체 횟수.solver는 수렴 (tol) 이나 이 교체 횟수까지 교체됩니다.무작위 해산기('sgd','adam')에 대해 사다리꼴 수가 아니라 시기의 수량(각 데이터 포인트의 사용 횟수)을 결정하는 것을 주의하십시오.
shuffle
bool, 선택 사항, 기본값은 True입니다.Solver='sgd'또는'adam'에서만 사용할 수 있습니다.매번 교체할 때마다 견본을 씻는지 여부.
random_state
int, RandomState 실례 또는 None, 선택할 수 있으며 기본적으로 무작위 생성기의 상태나 피드가 없습니다.int인 경우 randomstate는 랜덤 생성기에서 사용하는 피드입니다.RandomState 인스턴스의 경우 randomstate는 무작위 생성기이다.None이면 랜덤 생성기는np입니다.random에서 사용하는 RandomState 인스턴스입니다.
tol
float,optional, 기본 1e-4 최적화의 용인도, 용차 최적화.niter_no_change 연속 교체의 손실이나 점수가 최소한tol 증가하지 않았을 때,learningrate를 'adaptive' 로 설정합니다. 그렇지 않으면 수렴에 도달하고 훈련이 중단될 것이라고 생각됩니다.
verbose
bool, 선택할 수 있습니다. 기본값은false입니다. 진행 메시지를 stdout에 인쇄할지 여부입니다.
warm_start
bool, 옵션, 기본값False, True로 설정된 경우 이전에 호출된 해결 방안을 초기화하기 위해 다시 사용하십시오. 그렇지 않으면 이전의 해결 방안을 지우기만 하면 됩니다.어휘표를 참고하세요.
momentum
float, 기본 0.9, 업데이트된 움직임을 줄입니다.0과 1 사이에 있을 거예요.Solver='sgd'에서만 사용할 수 있습니다.
nesterovs_momentum
기본값은 True입니다.Nesterov 사용 여부solver='sgd'와 momentum>0에서만 사용할 수 있습니다.
early_stopping
bool, 기본값은 False입니다.검증 점수가 개선되지 않았을 때 조기 정지를 사용하여 교육을 중지할지 여부.true로 설정하면 자동으로 10%의 트레이닝 데이터를 검증으로 남기고 검증 점수가 최소한 n 로 개선되지 않습니다iter_no_change 연속 tol 시 훈련 중지.Solver='sgd'또는'아담'에서만 유효
validation_fraction
float, optional, 기본값은 0.1입니다.훈련 데이터의 비율을 조기 정지 검증 집합으로 남기다.0에서 1 사이여야 합니다.early만stopping이 True인 경우 사용
beta_1
float,optional, 기본값은 0.9이며, 1단계 직사각형의 지수 감소율은 [0,1)로 추정됩니다. Solver='adam'만 사용할 수 있습니다.
beta_2
float, 선택할 수 있습니다. 기본값은 0.999입니다. 1단계 벡터의 지수 감소율은 [0,1)로 추정됩니다. Solver='adam'만 사용할 수 있습니다.
epsilon
float,optional, 기본값 1e-8,adam 안정성 가치.Solver="adam"에서만 사용
n_iter_no_change
int, optional, 기본값 10, 개선된 최대 역수에 맞지 않습니다.Solver='sgd'또는'아담'에서만 유효
등록 정보
비고
classes_
array or list of array of shape(n classes,) 각 출력의 클래스 레이블입니다.
loss_
float, 손실 함수를 사용하여 계산한 현재 손실.
coefs_
list,length n_layers-1, 목록의 i번째 요소는 층 i에 대응하는 권중 행렬을 나타낸다.
intercepts_
list,length n_layers-1, 목록의 i번째 요소는 층 i+1에 대응하는 편향 벡터를 나타낸다.
n_iter_
int, 교체 횟수.
n_layers_
int, 층수.
n_outputs_
int, 출력 개수.
out_activation_
string, 활성화 함수의 이름을 출력합니다.
메서드
비고
fit(X,y)
모델이 데이터 매트릭스 X와 목표 y에 적합하도록 합니다.
get_params([deep])
이 추산기의 매개 변수를 가져옵니다.
predict(X)
다층 감지기 분류기를 사용하여 예측하다
predict_log_proba(X)
확률로 추정되는 대수를 되돌려줍니다.
predict_proba(X)
확률 추정.
score(X,y [,sample_weight])
주어진 테스트 데이터와 라벨의 평균 정확도를 되돌려줍니다.
set_params(** params)
이 추산기의 매개 변수를 설정합니다.

좋은 웹페이지 즐겨찾기