pytorch 에서 정확도,리 콜 율,F1 값 을 계산 하 는 작업
predict = output.argmax(dim = 1)
confusion_matrix =torch.zeros(2,2)
for t, p in zip(predict.view(-1), target.view(-1)):
confusion_matrix[t.long(), p.long()] += 1
a_p =(confusion_matrix.diag() / confusion_matrix.sum(1))[0]
b_p = (confusion_matrix.diag() / confusion_matrix.sum(1))[1]
a_r =(confusion_matrix.diag() / confusion_matrix.sum(0))[0]
b_r = (confusion_matrix.diag() / confusion_matrix.sum(0))[1]
보충:pytorch 검사 전 율 recall 검사 준 율 precision F1 조화 평균 정확도 정확도 정확도코드 보 세 요~
def eval():
net.eval()
test_loss = 0
correct = 0
total = 0
classnum = 9
target_num = torch.zeros((1,classnum))
predict_num = torch.zeros((1,classnum))
acc_num = torch.zeros((1,classnum))
for batch_idx, (inputs, targets) in enumerate(testloader):
if use_cuda:
inputs, targets = inputs.cuda(), targets.cuda()
inputs, targets = Variable(inputs, volatile=True), Variable(targets)
outputs = net(inputs)
loss = criterion(outputs, targets)
# loss is variable , if add it(+=loss) directly, there will be a bigger ang bigger graph.
test_loss += loss.data[0]
_, predicted = torch.max(outputs.data, 1)
total += targets.size(0)
correct += predicted.eq(targets.data).cpu().sum()
pre_mask = torch.zeros(outputs.size()).scatter_(1, predicted.cpu().view(-1, 1), 1.)
predict_num += pre_mask.sum(0)
tar_mask = torch.zeros(outputs.size()).scatter_(1, targets.data.cpu().view(-1, 1), 1.)
target_num += tar_mask.sum(0)
acc_mask = pre_mask*tar_mask
acc_num += acc_mask.sum(0)
recall = acc_num/target_num
precision = acc_num/predict_num
F1 = 2*recall*precision/(recall+precision)
accuracy = acc_num.sum(1)/target_num.sum(1)
#
recall = (recall.numpy()[0]*100).round(3)
precision = (precision.numpy()[0]*100).round(3)
F1 = (F1.numpy()[0]*100).round(3)
accuracy = (accuracy.numpy()[0]*100).round(3)
#
print('recall'," ".join('%s' % id for id in recall))
print('precision'," ".join('%s' % id for id in precision))
print('F1'," ".join('%s' % id for id in F1))
print('accuracy',accuracy)
보충:Python scikit-learn,분류 모델 의 평가,정확도 와 리 콜 율,classificationreport분류 모델 의 평가 기준 은 일반적으로 가장 흔히 사용 되 는 정확도(estimator.score(),즉 예측 결과 의 정확 한 백분율 이다.
혼동 행렬:
정확 도 는 모든 분류 결과 에 비해정확도,리 콜 율,F1-score 는 특정한 분류 에 대한 예측 평가 기준 이다.
정확도(Precision):예측 결 과 는 정규 샘플 에서 실제 사례 의 비율(검사 의 기준)이다.
리 콜 율(Recall):실제 사례 인 샘플 에서 예측 한 결 과 는 정비례 적 인 비율(검사 의 전체)이다.
분류의 기타 평가 기준:F1-score 는 모델 의 안정 형 을 반영 한다.
demo.py(분류 평가,정확도,리 콜 율,F1-score,classificationreport):
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.naive_bayes import MultinomialNB
from sklearn.metrics import classification_report
# scikit-learn ( 20 )
news = fetch_20newsgroups(subset='all') # all
# ( )
x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.25)
# ( , )
tf = TfidfVectorizer() # tf-idf
# ( )
x_train = tf.fit_transform(x_train)
print(tf.get_feature_names()) # ["condensed", "condescend", ...]
x_test = tf.transform(x_test) # fit() , 。
#
mlt = MultinomialNB(alpha=1.0) # alpha , 1
print(x_train.toarray()) # toarray() 。
'''
[[ 0. 0. 0. ..., 0.04234873 0. 0. ]
[ 0. 0. 0. ..., 0. 0. 0. ]
...,
[ 0. 0.03934786 0. ..., 0. 0. 0. ]
'''
mlt.fit(x_train, y_train) #
#
y_predict = mlt.predict(x_test)
print(" :", y_predict) # [4 18 8 ..., 15 15 4]
#
print(" :", mlt.score(x_test, y_test)) # 0.853565365025
print(" :", classification_report(y_test, y_predict, target_names=news.target_names))
'''
precision recall f1-score support
alt.atheism 0.86 0.66 0.75 207
comp.graphics 0.85 0.75 0.80 238
sport.baseball 0.96 0.94 0.95 253
...,
'''
리 콜 율 의 의미(응용 장면):제품 의 불 합 격 률(어떠한 불합격 제품 도 빠 뜨리 고 싶 지 않 으 며 전부 검사);암 예측(어떤 암 환자 도 빠 뜨리 고 싶 지 않다)이상 은 개인 적 인 경험 이 므 로 여러분 에 게 참고 가 되 기 를 바 랍 니 다.여러분 들 도 저 희 를 많이 응원 해 주시 기 바 랍 니 다.
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
정확도에서 스케일링의 영향데이터셋 스케일링은 데이터 전처리의 주요 단계 중 하나이며, 데이터 변수의 범위를 줄이기 위해 수행됩니다. 이미지와 관련하여 가능한 최소-최대 값 범위는 항상 0-255이며, 이는 255가 최대값임을 의미합니다. 따...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.