sklearn.metrics.classification_보고서 예 설명
예.
import numpy as np
from sklearn.metrics import classification_report
y_true =np.array([0,1,2,2,2,1])
y_pred = np.array([0,0,1,2,2,1])
print(classification_report(y_true,y_pred))
결실
precision recall f1-score support
0 0.50 1.00 0.67 1
1 0.50 0.50 0.50 2
2 1.00 0.67 0.80 3
micro avg 0.67 0.67 0.67 6
macro avg 0.67 0.72 0.66 6
weighted avg 0.75 0.67 0.68 6
우리는 모두 0,1,2 세 개의 종류를 가지고 있기 때문에 출력 결과에는 0,1,2 세 줄이 있다
True Positive(TP)는 모델에 의해 양의 샘플로 예측됩니다.
True Negative(진짜 마이너스, TN)는 모델이 마이너스로 예측한 마이너스 샘플이다.
False Positive(가짜 양수, FP)는 모델에서 양의 음수 샘플로 예측됩니다.
False Negative(가짜 마이너스, FN)는 모델이 마이너스로 예측한 양의 견본이다.
precision:TP/(TP+FP)
recall:TP/(TP+FN)
f1-score:2*precision*recall/(precision+recall)
행 0:
precison:y_pred에는 두 개의 0이 있는데 실제 라벨에 대응하는 하나는 0이고 하나는 1이기 때문에 TP=1, FP=1, 1/(1+2)=0.5
recall:y_true 중 1개가 예측에서 0으로 예측되었고 0이었으나 예측에서 다른 값으로 예측된 상황이 나타나지 않았기 때문에 TP는 1FN이 0이고 1/(1+0)=1
행 1:
precision:y_pred에는 두 개의 1이 있는데 실제 라벨에 대응하는 하나는 2개, 하나는 1이기 때문에 TP=1, FP=1, 1/(1+2)=0.5
recall:y_true 중 1개가 예측에서 0으로 예측되었고 0이었으나 예측에서 다른 값으로 예측된 상황이 나타나지 않았기 때문에 TP는 1FN이 0이고 1/(1+0)=1
recall:y_true 중 2개가 예측에서 1로 예측되고 실제 라벨에 대응하는 1개가 2개씩 1이므로 TP는 1FN이 1, 1/(1+1)=0.5
행2는 독자가 연습으로 참고할 수 있다
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Pytorch 자세 식별 실현(3) - 훈련과 추리텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.