Abstract
Generally, when we apply zernike moments value for matching, we can use those moments value obtained from projecting image information under circumscribed circle to zernike basis function. However, the problem is that the power of discrimination can be reduced because hand images include lots of overlapped information due to its special characteristic. On the other hand, when distinguishing hand poses, information in specific area of image information except for overlapped information can increase the power of discrimination. In this paper, in order to solve problems like those, we design R3 ring mask by combining image obtained from R2 ring mask, which can weight information of the power of discrimination and image obtained from R1 ring mask, which eliminate the overlapped information. The moments which are obtained by R3 ring mask decrease operational time by reducing dimension through principle component analysis. In order to confirm the superiority of the suggested method, we conducted some experiments by comparing our method to other method using seven different hand poses.
일반적으로 저니키 모멘트 값을 이용한 매칭 시에는 외접원 안에 속하는 이미지 정보를 Zernike 기저함수로 투영시켜 얻은 모멘트 값을 이용하여 매칭에 사용한다. 하지만 손 이미지의 특성상 무게중심 부근에 중복되는 정보가 많이 포함되는데 이로 인해 변별력이 떨어질 수 있는 문제점이 있다. 또한 중복되는 정보를 제외한 이미지 정보들 중에서 특정 영역에 있는 정보들은 손의 모양정보를 구분하는데 변별력을 높여줄 수 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 중복되는 정보를 제거하는 R1 링 마스크를 통해 얻은 이미지와 변별력을 높여 줄 수 있는 정보에 가중치를 부여하는 R2 링 마스크를 통해 얻은 이미지를 결합하여 R3 링 마스크를 설계한다. R3 링 마스크를 이용하여 얻은 모멘트들을 주성분분석(PCA)을 통해 차원을 축소함으로써 매칭량을 감소시킨다. 제안한 방법의 우수성을 확인하기 위해 7가지 손 모양을 다른 방법과 비교실험 하였으며, 그 결과 우수성을 확인 할 수 있었다.