J_Log
Published 2023. 1. 8. 22:21
precision recall graph IT/AI
반응형

precision recall graph 이해 : https://yoonheo91.tistory.com/9

 

Precision과 Recall에 관하여

안녕하세요. 오늘은 Precision과 Recall에 관하여 이야기해보려고 합니다. 생각날 때마다 찾아보고 또 까먹고를 반복했기 때문에 제대로 한 번 정리해보려고 합니다. Precision과 Recall은 한글로 정밀도

yoonheo91.tistory.com

 

  1. false negative → false 가 negative 를 수식함 = true label 을 의미함
  2. precision & recall 에 대한 이해, 그림 설명 방식이 참신함 : https://blog.naver.com/PostView.nhn?blogId=wideeyed&logNo=221531940245
    1. positive 기준으로 우선한다고 생각하면 외우기 편할 것
      1. false positive = 1종 오류 (오탐)
      2. false negative = 2종 오류 (미탐)
      3. f1_score ? 조화평균
        1. 산술 / 기하 / 조화 : https://wikidocs.net/23088
          1. quotation
            1. 아무튼 흔히 말하는 평균(산술평균)을 쓰지 않고 조화평균을 구하는 이유는 recall, precision 둘 중 하나가 0에 가깝게 낮을 때 지표에 그것이 잘 반영되도록, 다시말해 두 지표를 모두 균형있게 반영하여 모델의 성능이 좋지 않다는 것을 잘 확인하기 위함이다.

              예를 들어 recall, precision이 각각 1과 0.01이라는 값을 가지고 있다고 하자

              산술평균을 구하면 (1 + 0.01) / 2 = 0.505, 즉 절반은 맞히는 것처럼 보인다. 그러나 조화평균을 구해보면 2 * (1 * 0.01) / (1 + 0.01) = 0.019가 된다. 낮게 잘 나온다.

 

 

 

반응형

'IT > AI' 카테고리의 다른 글

TensorRT on Jetson Nano  (0) 2024.06.04
Jetson Nano + yolov8 (ultralytics)  (0) 2024.05.29
K-Means  (0) 2023.01.08
profile

J_Log

@b2jay

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!