Recent Posts
Recent Comments
Archives
반응형
250x250
«   2024/05   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Today
Yesterday

Total
05-06 04:14
관리 메뉴

Hey Tech

딥러닝 모델 평가 지표: ROC Curve, AUC Score 본문

AI & 빅데이터/머신러닝·딥러닝

딥러닝 모델 평가 지표: ROC Curve, AUC Score

Tony Park 2022. 7. 15. 13:11
728x90
반응형

1.  ROC Curve

그림 1. ROC Curve(출처: https://commons.wikimedia.org/wiki/File:Threshold_roc.wikipedia_edit.svg)

  • Receiver Operating Characteristic 곡선의 약자
  • (그림 1) \(x\)축: FPR(False Positive Rate), \(y\)축: TPR(True Positive Rate)
    • FPR: 전체 경우 중 모델이 Positive로 예측했으나 실제 정답이 Negative인 비율로, 전체 경우에서 TNR(True Negatvie Rate)를 뺀 값과 같음
      • $$ FPR = 1 - TNR  = 1 - \frac{TN}{FP+TN}=\frac{FP}{FP+TN} $$ 
    • TPR: 전체 경우 중 모델이 Positive로 예측했는데 실제 정답이 Positive인 비율(Recall과 동일)
      • $$ TPR = Recall = \frac{TP}{TP+FN} $$
  • 그림 1에서 Reference Line(i.e., 가운데 선형 직선)보다 \(y\) 값이 크고 곡선이 멀리 위치할수록 모델 성능 우수

2.  AUC Score

그림 2. ROC Curve(출처: https://commons.wikimedia.org/wiki/File:Threshold_roc.wikipedia_edit.svg)

  • Area Under the ROC Curve의 약자
  • ROC Curve 아래 면적 의미
  • AUC 값이 \(1\)에 가까울수록 좋은 모델이며 \(0.5\)보다 커야 유의미한 모델

📚 참고할 만한 포스팅

1.  딥러닝 모델 평가 지표: Confusion Matrix, Accuracy, Precision, Recall, F1 Score, Average Precision
2.  딥러닝 모델 평가 지표: ROC Curve, AUC Score
3.  Multi-label Classification 평가지표: Example-based vs Label-based Evaluation


오늘은 딥러닝 평가 모델 지표인 ROC Curve와 AUC Score에 대해 알아봤습니다.

포스팅 내용에 오류가 있다면 아래에 댓글 남겨주세요😊

그럼 오늘도 즐거운 하루 보내시길 바랍니다.

고맙습니다 :)

728x90
반응형
Comments