반응형
precision recall graph 이해 : https://yoonheo91.tistory.com/9
- false negative → false 가 negative 를 수식함 = true label 을 의미함
- precision & recall 에 대한 이해, 그림 설명 방식이 참신함 : https://blog.naver.com/PostView.nhn?blogId=wideeyed&logNo=221531940245
- positive 기준으로 우선한다고 생각하면 외우기 편할 것
- false positive = 1종 오류 (오탐)
- false negative = 2종 오류 (미탐)
- f1_score ? 조화평균
- 산술 / 기하 / 조화 : https://wikidocs.net/23088
- quotation
- 아무튼 흔히 말하는 평균(산술평균)을 쓰지 않고 조화평균을 구하는 이유는 recall, precision 둘 중 하나가 0에 가깝게 낮을 때 지표에 그것이 잘 반영되도록, 다시말해 두 지표를 모두 균형있게 반영하여 모델의 성능이 좋지 않다는 것을 잘 확인하기 위함이다.
예를 들어 recall, precision이 각각 1과 0.01이라는 값을 가지고 있다고 하자
산술평균을 구하면 (1 + 0.01) / 2 = 0.505, 즉 절반은 맞히는 것처럼 보인다. 그러나 조화평균을 구해보면 2 * (1 * 0.01) / (1 + 0.01) = 0.019가 된다. 낮게 잘 나온다.
- 아무튼 흔히 말하는 평균(산술평균)을 쓰지 않고 조화평균을 구하는 이유는 recall, precision 둘 중 하나가 0에 가깝게 낮을 때 지표에 그것이 잘 반영되도록, 다시말해 두 지표를 모두 균형있게 반영하여 모델의 성능이 좋지 않다는 것을 잘 확인하기 위함이다.
- quotation
- 산술 / 기하 / 조화 : https://wikidocs.net/23088
- positive 기준으로 우선한다고 생각하면 외우기 편할 것
반응형
'IT > AI' 카테고리의 다른 글
"AI와 강화학습을 결합한 로봇 경로 계획: Q-Learning, DQN, RRT, PRM의 역할" (1) | 2024.09.11 |
---|---|
"AI Bin Picking: 스마트 로봇이 만드는 혁신적 자동화 솔루션" (0) | 2024.09.10 |
TensorRT on Jetson Nano (0) | 2024.06.04 |
Jetson Nano + yolov8 (ultralytics) (0) | 2024.05.29 |
K-Means (0) | 2023.01.08 |