Abstract
A correspondence matching is one of the important tasks in computer vision, and it is not easy to find corresponding points in variable environment where a scale, rotation, view point and illumination are changed. A SURF(Speeded Up Robust Features) algorithm have been widely used to solve the problem of the correspondence matching because it is faster than SIFT(Scale Invariant Feature Transform) with closely maintaining the matching performance. However, because SURF considers only gray image and local geometric information, it is difficult to match corresponding points on the image where similar local patterns are scattered. In order to solve this problem, this paper proposes an extended SURF algorithm that uses the invariant color and global geometric information. The proposed algorithm can improves the matching performance since the color information and global geometric information is used to discriminate similar patterns. In this paper, the superiority of the proposed algorithm is proved by experiments that it is compared with conventional methods on the image where an illumination and a view point are changed and similar patterns exist.
대응점 정합은 컴퓨터 비전에서 중요한 작업 중에 하나지만 스케일, 조명, 시점이 변한 환경에서 대응점을 찾는 과정은 매우 어렵다. 대응점 정합 알고리즘인 SURF(Speeded Up Robust Features) 기법은 SIFT(Scale Invariant Feature Transform) 기법에 비해 정합 속도가 매우 빠르고 비슷한 정합 성능을 보여 널리 사용되고 있다. 하지만 SURF 기법은 흑백 영상과 지역 공간정보를 사용하기 때문에 유사한 패턴이 존재하는 영상에서 대응점의 정합 성능이 매우 떨어진다. 이런 문제점을 해결하기 위해 본 논문에서는 강인한 컬러 특징 정보와 광역적 특징 정보를 이용하는 확장 SURF 알고리즘을 제안한다. 제안하는 알고리즘은 비슷한 패턴이 존재하더라도 색상정보과 광역 공간 정보를 추가로 사용되기 때문에 대응점 매칭 성능을 크게 향상시킨다. 본 논문에서는 제안하는 방법의 우수성을 조명과 시점이 변화하고 유사한 패턴들을 갖는 영상들에 적용하여 기존의 방법들과 비교 실험함으로서 입증하였다.