혼동 행렬(Confusion Matrix)
분류 모델의 성능을 평가하기 위함 - True Positive, True Negative, False Positive, False Negative
- True Positive: 실제 Positive인 값을 Positive라고 예측 (정답)
- True Negative: 실제 Negative인 값을 Negative라고 예측 (정답)
- False Positive: 실제 Negative인 값을 Positive라고 예측 (오답) - 1형 오류
- False Negative: 실제 Positive인 값을 Negative라고 예측 (오답) - 2형 오류
정확도(Accuracy)
- 전체 데이터 중에서 제대로 분류된 데이터의 비율로, 모델이 얼마나 정확하게 분류하는지를 나타냄
- 분류 모델의 주요 평가 방법으로 사용
- 클래스 비율이 불균형할 경우 평가 지표의 신뢰성을 잃음
정밀도(Precision)
- 모델이 Positive라고 분류한 데이터 중에서 실제로 Positive인 데이터의 비율
- 실제로 Negative인 데이터를 Positive라고 판단하면 안 되는 경우 사용되는 지표
재현율(Recall, TPR)
- 실제로 Positive인 데이터 중에서 모델이 Positive로 분류한 데이터의 비율
- 실제로 Positive인 데이터를 Negative라고 판단하면 안 되는 경우 사용되는 지표
FPR(False Positive Rate)
- 실제로 Negatilve인 데이터 중에서 모델이 Positive로 분류한 데이터의 비율
ROC Curve와 AUC
- X축을 False Positive Rate, y축을 Recall(True Positive Rate)로 두고 시각화한 그래프
- ROC Curve 아래 면적인 AUC(Area Under Curve)를 이용해 모델의 성능을 평가
평가 지표 선정 방법
상황에 따라 선정해야 하는 평가 지표가 다르므로 다양한 평가 지표를 적용하여 결과 비교해보기
출처: 앨리스 교육
반응형