• 제목/요약/키워드: Finger-Knuckle Print

검색결과 3건 처리시간 0.019초

그레이디언트 방향 특징을 이용한 손가락 관절문 인식 (Finger-Knuckle Print Recognition Using Gradient Orientation Feature)

  • 김민기
    • 한국콘텐츠학회논문지
    • /
    • 제12권12호
    • /
    • pp.517-523
    • /
    • 2012
  • 생체인식(biometrics)은 인간이 갖는 신체적 특징을 활용하여 개인을 식별하는 연구로, 비밀번호나 ID카드 등의 전통적인 개인 식별 방법을 대체하거나 보완할 수 있는 방법으로 많은 관심을 받고 있다. 생체인식의 대상 중 손가락 관절문은 지문, 홍채, 귀, 장문에 비하여 비교적 최근에 연구가 시작되었다. 본 논문은 그레이디언트 방향 특징을 이용하여 손가락 관절문을 효과적으로 인식하는 방법을 제안한다. 손가락 관절문의 주요 특징은 주름의 크기와 방향으로, 이러한 특징을 안정적으로 획득하기 위하여 불균일한 조명과 낮은 대비를 개선하는 전처리를 수행한 후 그레이디언트의 방향 정보를 추출하여 특징벡터를 구성하였다. 제안된 방법의 성능을 측정하기 위하여 158명으로부터 획득한 총 790개 손가락 관절문 영상을 대상으로 실험을 수행하였다. 실험 결과 99.69%의 인식률을 얻었으며, 기존 관련 연구에 비하여 1.882라는 높은 결정계수를 보여 제안된 방법이 손가락 관절문 인식에 효과적임을 확인하였다.

특징점간의 벡터 유사도 정합을 이용한 손가락 관절문 인증 (Finger-Knuckle-Print Verification Using Vector Similarity Matching of Keypoints)

  • 김민기
    • 한국멀티미디어학회논문지
    • /
    • 제16권9호
    • /
    • pp.1057-1066
    • /
    • 2013
  • 손가락 관절문(FKP, finger-knuckle-print)을 이용한 개인 인증은 손가락 관절부에 나타나는 주름의 특징을 이용하는 것으로, 텍스처의 방향 정보가 중요한 특징이 된다. 본 논문에서는 SIFT 알고리즘을 이용하여 특징점들을 추출하고, 벡터 유사도 정합을 통해 FKP를 효과적으로 인증할 수 있는 방법을 제안하다. 벡터는 질의 영상에서 추출한 특징점과 이에 대응되는 참조 영상의 특징점을 연결하는 방향 벡터로 정의된다. 국소적인 특징점 쌍으로부터 방향 벡터를 생성하기 때문에 방향 벡터 자체는 국소적인 특징만을 나타내지만, 두 영상 간에 존재하는 다른 벡터들 간의 유사도를 비교함으로써 전역적인 특징으로 확장되는 장점이 있다. 실험결과 제안하는 방법은 기존의 방향코드를 이용한 다양한 방식에 비하여 우수한 성능을 나타내었다.

A Multimodal Fusion Method Based on a Rotation Invariant Hierarchical Model for Finger-based Recognition

  • Zhong, Zhen;Gao, Wanlin;Wang, Minjuan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권1호
    • /
    • pp.131-146
    • /
    • 2021
  • Multimodal biometric-based recognition has been an active topic because of its higher convenience in recent years. Due to high user convenience of finger, finger-based personal identification has been widely used in practice. Hence, taking Finger-Print (FP), Finger-Vein (FV) and Finger-Knuckle-Print (FKP) as the ingredients of characteristic, their feature representation were helpful for improving the universality and reliability in identification. To usefully fuse the multimodal finger-features together, a new robust representation algorithm was proposed based on hierarchical model. Firstly, to obtain more robust features, the feature maps were obtained by Gabor magnitude feature coding and then described by Local Binary Pattern (LBP). Secondly, the LGBP-based feature maps were processed hierarchically in bottom-up mode by variable rectangle and circle granules, respectively. Finally, the intension of each granule was represented by Local-invariant Gray Features (LGFs) and called Hierarchical Local-Gabor-based Gray Invariant Features (HLGGIFs). Experiment results revealed that the proposed algorithm is capable of improving rotation variation of finger-pose, and achieving lower Equal Error Rate (EER) in our homemade database.