AI/MachineLearning

분류 알고리즘 평가 지표

향식이 2021. 6. 16. 09:48

혼동 행렬(Confusion Matrix)

분류 모델의 성능을 평가하기 위함 - True Positive, True Negative, False Positive, False Negative

 

  • True Positive: 실제 Positive인 값을 Positive라고 예측 (정답)
  • True Negative: 실제 Negative인 값을 Negative라고 예측 (정답)
  • False Positive: 실제 Negative인 값을 Positive라고 예측 (오답) - 1형 오류
  • False Negative: 실제 Positive인 값을 Negative라고 예측 (오답) - 2형 오류

 

정확도(Accuracy)

  • 전체 데이터 중에서 제대로 분류된 데이터의 비율로, 모델이 얼마나 정확하게 분류하는지를 나타냄
  • 분류 모델의 주요 평가 방법으로 사용
  • 클래스 비율이 불균형할 경우 평가 지표의 신뢰성을 잃음

정밀도(Precision)

  • 모델이 Positive라고 분류한 데이터 중에서 실제로 Positive인 데이터의 비율
  • 실제로 Negative인 데이터를 Positive라고 판단하면 안 되는 경우 사용되는 지표

재현율(Recall, TPR)

  • 실제로 Positive인 데이터 중에서 모델이 Positive로 분류한 데이터의 비율
  • 실제로 Positive인 데이터를 Negative라고 판단하면 안 되는 경우 사용되는 지표

FPR(False Positive Rate)

  • 실제로 Negatilve인 데이터 중에서 모델이 Positive로 분류한 데이터의 비율

ROC Curve와 AUC

  • X축을 False Positive Rate, y축을 Recall(True Positive Rate)로 두고 시각화한 그래프
  • ROC Curve 아래 면적인 AUC(Area Under Curve)를 이용해 모델의 성능을 평가

 

평가 지표 선정 방법

상황에 따라 선정해야 하는 평가 지표가 다르므로 다양한 평가 지표를 적용하여 결과 비교해보기

 

 

출처: 앨리스 교육

반응형