Processing math: 100%
728x90
반응형

모델 평가 지표로 자주 사용되는 Precision, Recall, TPR, FPR, AUROC, AUPR 등에 대한 정리입니다.

Confusion Matrix

Confusion matrix는 분류모델의 성능을 평가하기 위해 사용하는 도구이다.

  • TP(True Positive) : 실제 True를 True로 예측
  • FP(False Positive) : 실제 False를 True로 예측
  • FN(False Negative) : 실제 True를 False로 예측
  • TN(True Negative) : 실제 False를 False로 예측

Metric

Precision

  • 모델이 Positive라고 예측했을 때 실제 Positive인 비율
    Precision=TPTP+FP

Recall

  • 실제 Positive 중에 모델이 Positive라고 예측한 비율
    recall=TPTP+FN

F1-score

  • Precision과 recall의 조화평균으로, 두 지표의 균형을 고려한 지표
    F1Score=2×Precision×RecallPrecision+Recall

True Positive Rate(TPR) or Sensitivity

  • 실제 Positive 중 모델이 Positive로 예측한 비율 (Recall과 동일하다)
    TPR=TPTP+FN

False Positive Rate(FPR)

  • 실제 Negative 중 모델이 Positive로 예측한 비율
    FPR=FPFP+TN

ROC(Receiver Operating Characteristic) Curve

  • X축 : FPR
  • Y축 : TPR
  • 곡선 : 모델의 성능을 나타내며, 좌측 상단에 가까울수록(TPR이 높고 FPR이 낮을수록) 모델이 성능이 좋다.

PR (Precision-Recall) Curve

  • X축 : recall
  • Y축 : precision
  • 곡선 : 우측 상단에 가까울수록(Precision과 Recall이 모두 높은) 모델이 성능이 좋다.

AUROC

  • ROC Curve의 아래 면적을 나타낸다.
  • AUROC의 값은 0~1사이 이며, 1에 가까울수록 모델의 성능이 좋다.
  • AUROC의 값이 0.5라면 모델은 random prediction이다.
  • 불균형한 데이터셋에서 유용하며, 모델의 전체적인 분류성능을 평가할 수 있다.
  • 데이터셋이 매우 불균형 하다면 FPR이 매우 작아지므로, 성능을 과대평가 할 수 있다.

AUPR

  • PR Curve의 아래 면적을 나타낸다.
  • AUPR의 값은 0~1사이 이며, 1에 가까울수록 모델의 성능이 좋다.
  • AUPR의 값이 높을수록 모델이 Positive class를 잘 예측하고 있다는 의미이다.
  • Positive class가 중요한 경우 의미있는 평가지표가 될 수 있다.
728x90
반응형

'Deep Learning' 카테고리의 다른 글

Softmax function derivative  (0) 2024.09.03
Norm,L1,L2  (0) 2024.08.17
AUROC Random Detector  (0) 2024.08.09
Cross Entropy Loss and gradient  (0) 2024.08.08
딥러닝 기초개념  (0) 2024.06.24