딥러닝의 예측은 학습 데이터에 기반한 가장 성능이 좋은 모형의 점추정값을 나타내기에 이에 대한 불확실성 측정의 필요성이 최근에 부각되고 있다. 이미지 분할과 같은 분류 문제에서의 예측 불확실성을 측정하고자하는 연구가 진행되었지만, 다중 분류 문제에 적용한 사례는 아직 그리 많지 않다. 본 연구에서는 다중 분류에서도 해석이 쉬운 불확실성 측정법을 제시하고 기존에 제안된 불확실성 측정법의 한계점 및 제안된 방법과의 차이점을 비교하고자한다. 이를 위해 두 개의 클래스를 가진 의료이미지와 세 개의 클래스를 가진 동물 이미지에대한 실험을 진행하였고, 제안된 방법이 기존에 제안된 방법보다 해석하기 용이하고 클래스간 경계가 아닌 모델이 예측하기에 불확실성이 큰 부분을 잘 포착할 수 있음을 보였다.
In deep learning, prediction means point estimation of the best-performing model basedon training data, so the need for uncertainty quantification has recently emerged. Research has been conducted to measure prediction uncertainty in classification problemssuch as image segmentation, but there are not many cases where it is applied to multi-class classification problems. In this paper, we present an uncertainty quantificationmethod that is easy to interpret even in multi-class classification, and investigate thelimitations of previously proposed uncertainty quantification methods and differencesfrom the proposed method. Experiments were conducted on medical images composed oftwo classes and animal images composed of three classes. Through this, it was shownthat the proposed method is easier to interpret than the previously proposed method, andcan capture the part with large prediction uncertainty, not the boundary between classes.