딥러닝을 활용한 이동 객체 인식은 빠르고 정확한 인식 성능을 기대할 수 있다. 하지만, 딥러닝 기반 객체 인식의정확도는 훈련 자료의 품질에 큰 영향을 받기에 양질의 훈련 자료를 확보하는 것이 중요하다. 기존의 훈련 자료를 마련하는 방법들은 상당한 비용, 합성 영상의 한계 그리고 초기 훈련 자료 요구와 같은 단점을 지니고 있다. 본 연구에서는위와 같은 한계점을 극복하고자, 특징점 매칭을 이용해 드론 영상으로부터 차량 객체를 인식하여 초기 훈련 자료를 효율적으로 취득하는 방법론을 제안하고자 한다. 이를 위하여 연속된 드론 영상에서 참조 객체와 다른 영상 간 특징점 매칭을 수행한 후, KAZE, ORB, SIFT 그리고 SURF 알고리즘의 성능을 비교하였다. 다양한 도로 위 상황을 반영하기 위하여 드론과 차량 객체의 움직임으로 인한 객체의 형상 변화에 따라 시나리오를 분류한 후, 시나리오별 참조 객체를 강도에 따라 세분화하여 특징점 매칭 결과를 비교하였다. 실험을 통하여 KAZE 및 SURF 알고리즘이 평균 매칭점 개수 측면에서 우수한 성능을 보였으며, 90% 이상의 평균 정확도를 보였다. 또한, 두 알고리즘은 차량과 드론 간 상대적인 위치변화와 차량 객체의 강도 변화에 가장 안정적인 성능을 보였다. 이에 본 연구에서는 특징점 매칭 기반 이동 객체의 훈련자료 취득 방법론을 제시하였으며, 드론 영상으로부터 효율적인 훈련 자료 취득이 가능함을 확인하였다.
Researchers are studying the use of deep learning to detect moving objects in drone images. The accuracy of the model used depends on the quality of the training data, which highlights the importance of collecting high-quality training data. Methods for collecting training data have disadvantages such as high costs, reliance on synthetic data, and a need for initial training data. Therefore, this study presents a method for obtaining initial training data by matching moving objects in drone images using feature matching. To achieve this objective, we compared the performance of the KAZE, ORB, SIFT, and SURF algorithms by conducting feature matching between reference objects and other images in a series of drone images. In experiments, the KAZE and SURF algorithms performed well in terms of the average number of matching points and showed an average accuracy of over 90%. Additionally, both algorithms consistently outperformed other algorithms in tracking the relative position changes between moving objects and the drone, as well as changes in the intensity of moving objects. The results confirmed that training data can be efficiently obtained from drone images.