Abstract
Feature point matching, which is finding the corresponding points from two images with different viewpoint, has been used in various vision-based applications and the demand for the real-time operation of the matching is increasing these days. This paper presents a real-time feature point matching method by using a local descriptor derived by Zernike moments. From an input image, we find a set of feature points by using an existing fast corner detection algorithm and compute a local descriptor derived by Zernike moments at each feature point. The local descriptor based on Zernike moments represents the properties of the image patch around the feature points efficiently and is robust to rotation and illumination changes. In order to speed up the computation of Zernike moments, we compute the Zernike basis functions with fixed size in advance and store them in lookup tables. The initial matching results are acquired by an Approximate Nearest Neighbor (ANN) method and false matchings are eliminated by a RANSAC algorithm. In the experiments we confirmed that the proposed method matches the feature points in images with various transformations in real-time and outperforms existing methods.
서로 다른 시점의 두 영상에서 동일한 점들을 정합하는 특징점 정합은 다양한 영상 처리 분야에서 널리 사용되고 있으며, 최근에는 실시간으로 동작하는 특징점 정합에 대한 요구가 높아지고 있다. 본 논문은 저니키 모멘트 기반의 지역 서술자를 이용하여 특징점을 실시간으로 정합하는 방법을 제안한다. 빠른 모서리 점 검출 방법을 이용하여 입력 영상으로부터 특징점을 추출하고, 각 특징점에서 저니키 모멘트를 이용한 지역 서술자를 생성한다. 저니키 모멘트 기반의 지역 서술자는 특징점 주변의 부분 영상을 적은 차수의 특징 벡터로써 효율적으로 표현하며, 영상의 회전과 밝기 변화에 강인하다. 본 논문에서는 저니키 모멘트 계산을 실시간으로 수행하기 위하여 고정된 크기의 저니키 기저 함수를 미리 계산하여 이를 룩업 테이블에 저장하여 사용한다. 특징점 정합 단계에서는 근사 최근방 이웃(ANN) 방법을 사용하여 초기 정합 결과를 얻고, 이 중 잘못된 정합은 RANSAC 알고리즘을 이용하여 제거함으로써 최종 정합 결과를 얻는다. 실험 결과 제안하는 방법은 다양한 변환이 존재하는 영상에 대하여 실시 간으로 특징점 정합을 수행함을 확인하였다.