DOI QR코드

DOI QR Code

Personal Identification Using Inner Face of Fingers from Contactless Hand Image

비접촉 손 영상에서 손가락 면을 이용한 개인 식별

  • Kim, Min-Ki (Dept. of Computer Science, Gyeongsang National University, Engineering Research Institute)
  • Received : 2014.05.15
  • Accepted : 2014.07.16
  • Published : 2014.08.30

Abstract

Multi-modal biometric system can use another biometric trait in the case of having deficiency at a biometric trait. It also has an advantage of improving the performance of personal identification by using multiple biometric traits, so studies on new biometric traits have continuously been performed. The inner face of finger is a relatively new biometric trait. It has two major features of knuckle lines and wrinkles, which can be used as discriminative features. This paper proposes a finger identification method based on displacement vector to effectively process some variation appeared in contactless hand image. At first, the proposed method produces displacement vectors, which are made by connecting corresponding points acquired by matching each pair of local block. It then recognize finger by measuring the similarity among all the detected displacement vectors. The experimental results using pubic CASIA hand image database show that the proposed method may be effectively applied to personal identification.

Keywords

1. 서 론

인터넷 뱅킹, 전자상거래 등 현실 공간에서 이루어지는 활동들이 사이버 공간으로 확대되고 있고, 개인 및 회사의 활동 영역이 국제화됨에 따라 보안성이 강화된 개인 식별 방법에 대한 관심이 증대되고 있다. 이에 따라 인간의 고유한 생체정보를 활용한 개인 식별에 대한 연구가 활발히 이루어져 왔다[1,2]. 미국 표준연구원(NIST)은 연방정부 공무원들이 사용하고 있는 기존의 개인 식별 카드에 홍채 영상(iris image)과 지문정합(fingerprint matching) 기능의 추가를 검토하고 있으며[3], 2008년부터 추진한 미연방 수사국(FBI)의 차세대 식별(NGI, Next Generation Identification) 프로젝트는 금년에 장문(palmprint) 데이터베이스를 구축하였고, 내년에는 홍채(iris) 인식 시범사업을 계획하고 있다. 여러 생체특징을 활용할 경우 생체인식 시스템의 정확도를 향상시킬 수 있기 때문에 다양한 생체정보의 수집이 이루어지고 있다.

생체인식을 위해서는 인식 대상이 되는 사용자의 생체정보를 수집하여야 하는데, 지문, 얼굴, 홍채 등에 비하여 손 영상의 획득은 상대적으로 사용자에게 거부감이 적은 장점이 있다[4]. 손 영상의 획득 방식은 접촉식과 비접촉식으로 구분할 수 있으며, 접촉식 방식은 사용자로 하여금 손을 평평한 판(plate)에 올려놓도록 하는 무제약-접촉식과 손과 손가락의 위치를 유도하는 페그(peg)나 핀(pin)을 이용하는 제약-접촉식으로 세분된다[5]. 접촉식 방식은 입력 영상의 변형을 줄일 수 있는 장점이 있으나, 사용자에게 불편함을 초래하며 여러 사용자의 접촉에 따른 위생상의 문제를 유발할 수 있다. 비접촉식 방식은 접촉식 방식에 나타나는 문제점들을 해결할 수 있으나 입력 영상의 가변성으로 인하여 생체인식 시스템의 성능이 저하되는 문제를 해결하여야 한다.

본 연구는 비접촉식 방식으로 획득한 저해상도 손 영상으로부터 손가락 안쪽 면에 나타나는 특징을 추출하여 개인을 식별하는 방법을 탐구한다. 손가락 앞면에는 관절 라인(knuckle line), 주름(wrinkle), 능선(ridge) 등의 정보가 존재하는데, 능선은 저해상도 영상에서 잘 나타나지 않기 때문에 관절 라인과 주름이 개인 식별을 위한 주요한 특징으로 이용된다. 손가락 앞면에 나타나는 이러한 특징들은 장문에 비하여 높은 개인 식별력을 나타내지는 않지만 여러 생체특징을 활용할 경우 생체인식 시스템의 성능을 향상시킬 수 있다는 점에서 그 의미를 부여할 수 있다. 장문에 나타나는 주획(prinicple line)은 여러 방향으로 구성되어 있지만, 손가락 관절 부위에 나타나는 획은 손가락의 수직 방향으로 이루어져 있다. R. Zhao 외 [6]는 3×5 윈도우 템플릿을 이용하여 관절 라인을 구성하는 에지 성분을 추출하고, 에지 성분에 대한 교차 상관계수를 이용하여 정합을 수행하였다. L. Zhu & S. Zhang[7]은 소벨(Sobel) 연산자를 이용하여 에지 성분을 추출한 후 투영(projection) 연산을 통해 특징 벡터를 기술하였다. 그리고 특징 벡터간의 유사도를 측정하기 위하여 코사인 유사도 함수를 이용하였다. 손가락 앞면에서 추출한 에지 성분은 일반적으로 직선 형태로 나타나지 않기 때문에 Q. Li 외[8]는 라돈(Radon) 변환으로 에지 성분의 위치를 기술하고, 에지를 구성하는 화소 집합들 간의 하우스도르프(Hausdorff) 거리를 이용하여 유사도를 계산하였다. 에지 성분의 위치와 크기를 특징으로 하는 위의 연구들은 손의 기울어짐에 민감한 단점을 갖는다. 이러한 단점을 해결하기 위하여 M. Goh 외[9]는 관심영역을 N개의 블록으로 분할하고 각각의 블록 영상에 유한라돈변환(FRAT, Finite Radon Transform)을 적용하여 특징벡터를 생성하였다.

손가락 안쪽 면에는 관절 라인 이외에도 주름이라는 부가적인 정보가 존재한다. 입력 영상으로부터 보다 많은 정보를 이용한다면 두 패턴간의 식별 가능성이 높아질 수 있다. 즉, 손가락의 관절 라인만을 이용하여 개인을 식별하는 한계를 극복할 수 있다. 부 공간(sub-space)을 이용한 접근 방식은 손가락 안쪽 면 전체에 나타나는 정보를 활용한다[10,11]. L. Nanni 외[10]는 하르 웨이블릿(Haar Wavelet)과 라돈 변환으로 입력 영상을 변환한 후 비선형 피셔(Fisher) 변환을 통해 각각의 패턴을 식별할 수 있는 주요 특징을 추출하였고, S. Ribaric 외[11]는 K-L(Karhunen-Loeve) 변환에 의해 부 공간으로 투영하여 주요 특징을 추출하였다. 그러나 부 공간 방식은 많은 훈련 데이터가 필요하며, 변형에 의한 관심영역의 불일치를 해결하여야 한다. 김희승과 배병규의 연구[12]는 관심영역을 국소영역(local patch)으로 분할한 후 각 영역별로 FFG(Facet Function Gradient) 마스크 연산자를 적용하여 관절 라인과 주름의 정보를 내포한 특징벡터를 기술하였다. 이 방식도 비접촉식 영상 획득 환경에서 나타나는 변형에 의한 관심영역의 불일치에 의한 성능 저하의 문제점을 안고 있다.

본 연구는 비접촉방식으로 획득한 장문을 인식하기 위해 K. Ito 외[13]의 연구에서 제안된 위상상관(phase correlation)과 S. Ayoyama 외[14]의 연구에서 제안된 국소블록 정합에 착안하여 손가락 앞면을 인식하는 새로운 접근 방식을 제안한다. 위상상관은 정규화된 교차 파워 스펙트럼의 역방향 퓨리에변환(Fourier transform)으로 정의되므로, 위상상관을 이용하면 두 영상간의 이동 변위를 효과적으로 처리할 수 있다. 국소블록 정합은 영상을 균일한 크기의 블록으로 분할한 후 대응되는 블록들 간의 위상상관을 통해 전체 영상의 유사도를 판정하는 정합 방식이다. 본 연구에서는 대응되는 블록들 간의 유사도에 따라 대응점(corresponding point)을 추출하고, 대응점들 간의 이동 방향과 크기를 나타내는 변위벡터(displacement vector)를 이용하여 손가락 앞면을 인식하는 방법을 제안한다. 본 논문의 구성은 다음과 같다. 2장에서는 위상상관에 대한 이론적 배경을 살펴보고, 3장에서는 입력 영상에서 관심영역인 손가락 영역을 추출하는 방법을 기술한다. 4장에서는 위상 상관에 기반한 대응점 추출, 변위벡터 생성, 그리고 벡터 유사도를 기반으로 한 정합 방법을 설명한다. 그리고 5장에서는 공개 데이터베이스를 이용한 실험 결과를 제시하고, 이에 대한 분석을 통하여 제안된 방법의 타당성을 논의한다. 마지막으로 6장에서 결론을 맺는다.

 

2. 이론적 배경

Kuglin과 Hines[15]는 두 개의 유사한 영상 간의 이동 변위를 추정하기 위하여 위상상관을 이용하는 방법을 제안하였다. 위상상관에 의하여 두 영상간의 변위를 추출하는 원리는 퓨리에 이동 특성(Fourier shift property)에서 출발한다. 두 영상 f(x,y)와 g(x,y)가 단순한 이동 변형 (Δx, Δy)으로 나타날 때, 각각의 퓨리에 변환 F(u,v)와 G(u,v)의 관계는 식(1)과 같이 나타난다.

G*(u,v)을 G(u,v)의 켤레 복소수라 하면, 위상상관은 식 (2)와 같이 F(u,v)와 G(u,v)간의 정규화된 교차파워 스펙트럼으로 정의된다[13]. 그리고 M×N 크기의 두 영상 f(x,y)와 g(x,y)에 대한 POC(phaseonly correaltion) 함수 Pfg(m,n)은 식 (3)에 제시된 바와 같이 RFG(u,v)의 역방향 퓨리에변환으로 표현된다. 여기서 M=2M0+1이고, N=2N0+1이다.

일반적으로 고주파 성분은 잡영에 민감하기 때문에 역방향 퓨리에변환을 수행하기 전에 고주파 성분을 제거할 경우 보다 정확한 이동 변위를 찾아낼 수 있다. 수평성분과 수직성분의 주파수 범위를 각각 [–U0,U0]와 [–V0,V0]라고 할 때, U0의 V0의 최대 주파수는 각각 M/2–1, N/2–1이 된다. 따라서 스펙트럼의 유효크기를 식 (4)와 같이 기술할 때, 고주파 성분을 제거한 BLPOC(band-limited POC) 함수는 식 (5)로 정의된다[14]. 여기서 m과 n은 각각 [–U0,U0]와 [–V0,V0]의 범위를 갖는다.

유사한 두 영상에 대하여 BLPOC 함수를 적용하면 두드러진 최고점(peak)이 발생한다. 이 최고점의 크기는 두 영상의 유사도를 나타내고, 최고점의 위치는 두 영상 간의 이동 변위를 나타낸다. 따라서 BLPOC 함수를 적용하여 이동 변위를 찾아내고, 두 영상을 정확하게 배치(alignment)시킨 후 BLPOC 함수를 다시 적용하면 두 영상간의 유사도를 측정할 수 있다.

 

3. 손가락 영역 추출

손 영상으로부터 관심영역인 손가락 영역을 추출하기 위한 과정은 Fig. 1에 제시된 바와 같이 이진화, 외곽선 추출, 특징점 추출, 손가락 영역 추출의 네 단계로 이루어져 있다. 본 연구에 이용한 영상은 단순한 배경을 갖고 있으나, 조명이 손바닥 전체 영역에 균일하게 비추어지지 않아 정적인 단일 임계값으로는 만족할 만한 이진화 결과를 얻을 수 없었다. 이러한 문제를 해결하기 위하여 본 연구에서는 명도 히스토그램의 분포로부터 임계값을 결정하는 Otsu[16]의 이진화 방법을 이용하였다. 그러나 Otsu의 이 진화 방법을 입력 영상에 적용할 경우 손가락 끊어짐 현상이 일부 나타나기 때문에, 이 문제를 해결하기 위하여 이진화 전에 형태학적 닫힘 연산(closing operation)을 수행하였다.

Fig. 1.Procedure of extracting finger area.

이진화된 영상으로부터 외곽선을 추출한 후 손가락 영역을 추출하기 위하여 손가락에 나타나는 특징점을 추출한다. 손가락이 갈라지는 부분과 손가락 끝부분은 손가락 영역을 탐색하는데 중요한 특징점이 된다. 일정한 간격을 갖는 세 점을 외곽선 상에 배치한 후 외곽선을 따라 이동시켜 가면서 세 점이 이루는 각도를 측정하여 특징점을 추출한다. Fig. 2-(a)는 손가락의 분기점(B0~B3)과 끝점(T0~T4)을 보여주고 있다. 손가락의 분기점이 추출되면 이 분기점으로부터 손가락 하단의 시작점과 끝점을 추출한다. 이 두 점의 중점과 손가락 끝점을 연결하는 선을 손가락의 방향으로 설정한다. 예를 들어 Fig. 2-(b)에서 분기점 B0로부터 엄지 하단의 최단거리를 이루는 외곽선상의 두 점 B0-S와 B0-E를 추출한다. 그리고 이 두 점의 중점과 엄지의 끝점 T0를 연결한 직선이 엄지의 방향이 된다. Fig. 2-(b)에서 P0~P4는 손가락 움직임의 기준점이 되는 피벗(pivot) 포인트를 나타낸 것으로, 이 피벗 포인트는 손가락 방향을 나타내는 직선과 이웃한 분기점 간을 잇는 직선의 교차점으로 설정한다. 단, 검지는 예외적으로 검지 하단의 시작점(B1-S)과 끝점(B1-E)을 연결하는 직선의 중점으로 한다. 예를 들어 엄지의 피벗 포인트 P0는 분기점 B0와 B1을 잇는 직선과 손가락 방향을 나타내는 직선의 교차점이다. 손가락 관절의 위치는 손가락 하단부보다 아래쪽에 위치하므로[17], 피벗 포인트 P0과 끝점 T0간의 길이의 20%를 손바닥 쪽으로 확장하여 손가락 외접 사각형을 생성한다.

Fig. 2.Extracting finger area: (a) finger valley and tip, (b) minimum bounded rectangle of finger.

 

4. 특징 추출 및 정합

4.1 손가락 영상의 전처리

비접촉식 방식으로 획득된 손 영상은 그 크기가 서로 다르게 나타난다. 본 연구에서는 개인별 손의 크기에 대한 정보는 인식에 이용하지 않고, 단순히 손가락 앞면에 나타나는 관절 라인과 주름 부위의 명도 값 차이에 의해 발생하는 국소 영역의 위상상관을 이용하기 때문에 손가락 방향과 크기에 대한 정규화가 필요하다. 이것은 Fig. 2 (b)에 나타난 최소 외접사각형을 수평방향으로 회전시킨 후 320×80 크기로 정규화 함으로써 회전 및 크기 변형을 해결할 수 있다. 손가락 영상에서 관절 라인과 주름 부위의 명도 값은 다른 부위의 명도 값과 차이를 나타내지만 그 차이가 크기 않기 때문에 관절 라인과 주름에 나타나는 방향 성분을 강조할 필요가 있다. 이를 위하여 식(1)에 제시된 가버(Gabor) 필터를 적용하였다. 가버 필터는 θ에 따라 특정 방향의 성분을 강조하는데 효과적인 것으로 알려져 있다. 특히 장문에 나타나는 라인과 주름의 방향 정보를 추출할 때 가버 필터를 적용하여 텍스처 특징을 효과적으로 추출할 수 있었다[18].

추출된 손가락 영역을 회전시켜 손가락 길이방향이 수평이 되도록 하였을 때, 관절 라인은 수직 방향이고 주름의 주 방향은 수평 방향이므로 가버 필터의 방향(θ)은 0도와 90도를 적용하였고, 사인(sine) 파형의 주파수(u)는 0.1, 표준편차(σ)는 2.0을 사용하였다. 가버 필터링 후 조명 변화에 따른 명도 값의 변화를 최소화하기 위하여 직류성분을 제거하였다. Fig. 3-(a)에 나타난 바와 같이 직류성분을 제거하면 영상이 균일한 밝기를 나타내는 이점이 있으나, 직류성분을 제거하면 영상의 명도 대비가 낮아지기 때문에 직류 성분을 제거한 후 히스토그램 평활화(equalization)를 수행하였다. 끝으로 고주파 잡영을 제거하기 위하여 5×5 평균 필터를 적용하였다. Fig. 3의 상단영상은 추출된 손가락 영상을 θ=0, 하단 영상은 θ=π/2인 가버 필터를 적용한 후 평활화와 평균 필터링을 수행한 결과이다.

Fig. 3.Preprocessing: (a) Gabor filtering, (b) equalization, (c) mean filtering.

4.2 대응점 추출

두 영상 간에 이동 변형만이 존재한다면 전체 영역을 대상으로 위상상관을 통해 두 영상간의 이동 변위를 비교적 정확하게 구할 수 있다. 그러나 이동변형 외에 다른 변형이 함께 발생하게 되면 위상상관으로 구한 변위의 정확도는 현저히 저하된다. 그러나 두 영상을 동일한 크기의 국소영역들로 분할하게 되면, 변형이 적게 발생하는 국소영역이 존재할 뿐만 아니라 약간의 회전 변형은 이동 변형만으로 근사화 될 수 있기 때문에 효과적인 이동 변위의 추출이 가능하다. 이때 국소영역의 크기가 너무 작으면 해당 영역의 특징을 나타낼 충분한 정보를 포함할 수 없고, 국소영역의 크기가 너무 크면 변형의 영향을 크게 받게 된다. 다중 해상도를 갖는 피라미드 영상을 이용하면 동일한 크기의 국소영역으로 확장된 영역을 처리할 수 있기 때문에 보다 정확한 이동 변위를 구할 수 있다. 부화소 대응 정합(sub-pixel correspondence matching)[14]은 피라미드 영상을 이용하여 이동 변위를 추정하는 방법으로, 참조영상내의 한 점 p에 대응되는 질의영상내의 한 점 q를 탐색하는 알고리즘은 다음과 같다.

1) 층(layer)의 개수가 L인 두 개의 피라미드 영상을 만든다. l번째 영상 fl(x′,y′)는 l-1번째 영상 fl–1(x,y)를 부샘플링(subsampling)한 영상으로, 이것은 2×2 화소들을 평균하여 얻는다.

2) 초기 참조점 p0에 대응되는 l번째 층에서의 참조점 pl은 식 (7)로 정의된다.

3) 원 영상에 해당하는 층을 l0, 피라미드 최상단층을 lmax라고 할 때, 최상단 층의 두 점 qlmax와 plmax의 위치는 같다고 가정한다. 그리고 l=lmax–1로 설정한다.

4) 참조점 pl과 2ql+1을 중심으로 하는 W ×W 크기의 국소영역에 대하여 위상상관으로이동 변위 δl을 추정하면, l번째 층의 참조점 ql은 식 (8)에 의해 결정된다.

5) l을 감소시키면서 단계4를 반복한다.

6) 초기 참조점이 p0, q0 인 두 국소영상으로부터 이동 변위 δ를 추정하면 질의영상의 참조점 q는 q0+δ가 된다.

본 연구에서는 2계층 피라미드 영상을 이용하였으며, 32×32 크기를 갖는 국소영역을 8픽셀 간격으로 참조영상과 질의영상에 균일하게 배치시킨 후 이들 국소영역의 중점을 초기 참조점으로 설정하였다. Fig. 4-(a)와 (b)는 참조영상과 질의영상에 배치된 초기 참조점들을 나타낸 것이고, Fig. 4-(c)는 질의영상에 배치된 초기 참조점들이 부화소 대응 정합을 통해 재배치된 결과를 보여주고 있다. 이들은 참조영상의 초기 참조점들에 대한 대응점들이 된다.

Fig. 4.Extraction of corresponding points: (a) initial points in a reference image, (b) initial points in a query image, (c) relocated points in a query image

4.3 변위벡터 기술 및 벡터 유사도 정합

질의영상의 모든 초기 참조점들은 부화소 대응 정합 의해 참조영상의 참조점들과 일대일로 대응이 이루어진다. 이때 BLPOC 함수에 의해 산출된 최고점 값이 큰 경우는 해당 대응점을 중심으로 하는 국소영역이 유사한 특징을 나타내는 것이고, 그 값이 작은 경우는 유사성이 떨어지는 것이다. 참조영상의 초기 참조점 pi에 대응되는 질의영상의 대응점 qj을 하나의 영상에 사상시켜 qi와 pj를 잇는 벡터를 변위벡터라고 정의하면, 대응하는 한 쌍의 점마다 하나의 변위벡터들을 생성할 수 있다. 그러나 대응되는 국소영역의 특성의 유사성이 떨어지는 대응점 쌍은 유의미하지 않으므로, 본 연구에서는 BLPOC 함수에 의해 산출된 최고점 값이 임계값 Tc보다 큰 대응점 쌍에 한하여 변위벡터를 생성하였다. 동일한 손가락에서 획득한 두 영상 간에는 상대적으로 많은 변위벡터가 생성될 것이고, 위치에 따라 변위벡터들은 국부적으로 유사한 크기와 방향을 나타낼 것이다. 그러나 다른 손가락에서 획득한 두 영상 간에는 적은 수의 변위벡터가 생성될 것이며, 변위벡터들 간의 크기와 방향이 상이하게 나타날 것으로 예측할 수 있다. 따라서 생성된 변위벡터의 개수와 벡터의 유사성을 토대로 두 손가락 영상이 동일한 손가락에서 획득된 것인지를 추정할 수 있다. Fig. 5는 참정합(genuine matching)과 허위정합(imposter matching)에서 생성된 유의미한 대응점 쌍과 변위벡터를 예시한 것이다. 상단에 제시된 것은 대응되는 국소영역의 유사도가 높은 대응점 쌍들을 나타낸 것이고, 하단에 제시된 것은 대응점들을 하나의 영상에 사상시켜 대응점을 잇는 변위벡터를 제시한 것이다.

Fig. 5.Corresponding points and displacement vectors: (a) genuine match, (b) imposter match.

두 변위벡터 V1과 V2의 유사도는 식 (9)와 같이 두 벡터의 크기 l1, l2와 방향 o1, o2의 차이로 정의할 때, 두 영상 l2과 l2간의 유사도는 식 (10)에 제시된 바와 같이 두 벡터간의 유사도가 임계값 Ts보다 큰 벡터 쌍의 개수로 측정할 수 있다.

 

5. 실험 결과 및 분석

5.1 실험 데이터

본 연구에서는 제안된 방법의 타당성을 검증하기위하여 연구 목적으로 공개된 CASIA 데이터베이스[19]를 이용하였다. CASIA 데이터베이스는 손바닥이 카메라를 향하게 하고 자연스럽게 손가락 사이를 벌리도록 한 후 비접촉식 방식으로 영상을 획득하였다. 본 연구에서는 백색광으로 촬영한 1,200개의 영상을 실험 데이터로 사용하였다. 100명으로부터 획득한 왼손과 오른손 각각 6개의 영상으로 구성되어 있으며, 공간 해상도는 768×596이다. Fig. 6은 CASIA 손 영상과 추출한 손가락 영상을 회전 및 크기 정규화한 것이다. Fig. 6-(b)의 최상단에 제시된 예와 같이 엄지의 경우 일부 영역이 잘리거나, Fig. 6-(d)의 최상단에 나타난 엄지 영상처럼 엄지 안쪽 면이 획득되지 않아 본 연구에서는 엄지를 제외한 검지, 중지, 약지, 소지를 대상으로 인식 실험을 수행하였다.

Fig. 6.Two sample images of CAISA database and their extracted finger images: (a) hand image with imperfect thumb, (b) normalized finger images of (a), (c) hand image with imperfect finger face, (d) normalized finger images of (c).

5.2 실험 파라미터 설정

대응점을 추출하기 위한 국소영역 W×W의 크기와 배치 간격에 따라 비선형 변형에 대한 적응성이 달라진다. 그리고 부화소 대응 정합에 의한 얻어진 대응점 쌍으로 변위벡터를 생성하게 되는데, 이때 대응되는 국소영역의 유사도를 판별하는 임계값 Tc에 따라 변위벡터의 생성 여부를 결정하게 된다. 따라서 국소영역의 크기와 배치 간격, 임계값 Tc가 인식률에 영향을 미치게 된다. 이 세 가지가 파라미터가 인식률에 미치는 영향을 파악하기 위하여 왼손 검지를 대상으로 첫 번째 영상을 참조영상으로 사용하고, 나머지 5개의 영상을 질의영상으로 설정하여 실험을 수행하였다. Fig. 7은 생성된 변위벡터의 개수만으로 유사도를 측정하여 인식한 결과로, 국소영역의 크기와 배치 간격에 무관하게 임계값 Tc가 0.4일 때 상대적으로 좋은 성능을 보였으며, 32×32 크기의 국소영역을 8픽셀 간격으로 배치하는 것이 적합한 것으로 나타났다.

Fig. 7.Effect of parameters on correct identification rate.

단순히 변위벡터의 개수만으로 유사도를 측정하지 않고, 이를 확장하여 식 (10)에 제시된 바와 같이 변위벡터간의 유사한 벡터 쌍의 개수로 유사도를 측정할 때, 임계값 Ts로 벡터의 유사도를 결정하게 되므로 Ts가 인식률에 미치는 영향을 파악하기 위하여 실험을 수행하였다. 임계값 Ts를 0.4, 0.5, 0.6, 0.7로 변화시켜 가면서 인식률을 측정한 결과 각각 93.4%, 93.4%, 93.6%, 93.2%로 인식률은 임계값 Ts에 크게 영향을 받지 않는 것으로 나타났다.

5.3 인식 성능 측정

제안된 방법의 인식 성능을 측정하기 위하여 1,200개 영상에서 추출한 4,800개의 손가락 영상을 대상으로 실험을 수행하였다. 개인당 6개의 손 영상 중 첫 번째 영상을 참조영상, 그리고 나머지 5개의 영상을 질의영상으로 사용하였다. Table 1은 왼손과 오른손에서 추출한 검지, 중지, 약지, 소지에 대한 인식 결과이다. θ는 손가락 관절문와 주름의 방향을 강조하기 위하여 전처리에 적용한 가버 필터의 방향을 나타낸 것이다. 수직 방향과 수평 방향을 강조한 영상을 모두 이용하였을 때, 왼손은 최대 2.8%, 오른손은 최대 3.4%의 인식률 향상을 보였다. 왼손이 오른손에 비하여 5.4%~7.8% 높은 인식률을 보였는데 이것은 오른손이 왼손에 비하여 움직임이 자유로워 영상 획득시 오른손의 변형이 보다 크기 때문으로 추정된다.

Table 1.Correct identification rate using a single finger (%)

하나의 손 영상에서 엄지를 제외한 나머지 4개의 손가락을 추출하므로 여러 손가락에서 추출한 정보를 결합한다면 개인 인식 성능을 개선할 수 있다. 각 손가락에 대한 유사도 점수를 결합하여 개인 간의 유사도를 측정하기 위하여 최적 규칙(optimum rule)과 평균 규칙(mean rule)을 적용하였다. 최적 규칙은 각 손가락의 유사도 점수들 중 유사도가 가장 높은 손가락의 유사도 점수를 최종 유사도 점수로 사용하는 것이고, 평균 규칙은 각 손가락의 유사도 점수들을 평균하여 최종 유사도 점수로 사용하는 것이다. 실험 결과 Table 2에 제시된 바와 같이 평균 규칙을 이용한 결합 방식이 최적 규칙에 비하여 더 좋은 성능을 나타내었다. 4개의 손가락을 모두 이용하여 개인을 인식할 경우 왼손과 오른손은 각각 98.6%, 95.6%의 인식률을 보였으며, 양손을 모두 사용할 경우 인식률은 99.6%였다.

Table 2.Correct identification rate using multiple fingers (%)

Table 3은 관련 연구들에서 제시한 인식률을 정리한 것으로, 인식률은 실험 데이터에 따라 크게 차이가 발생할 수 있기 때문에 인식률 자체만으로 성능을 직접 비교하기는 어렵다. 다만, 기존 연구에서 제시한 인식률을 참고하였을 때 제안된 방법의 타당성을 확인할 수 있었다.

Table 3.Comparison of correct identification rate

 

6. 결 론

손가락 안쪽 면에 나타나는 관절라인과 주름의 특징을 이용하여 개인을 식별하는 연구는 다른 생체특징을 이용하는 연구에 비하여 비교적 최근에 시작되었다. 여러 생체정보를 결합하여 생체인식 시스템을 구성하면 상호 보완적인 역할이 가능하고, 시스템의 전반적인 성능을 개선할 수 있기 때문에 새로운 생체 특징에 대한 발굴과 이에 대한 연구가 활발히 이루어지고 있다. 본 연구에서는 비접촉식 방식으로 획득한 손 영상에서 나타나는 크기, 회전, 이동 변형을 효과적으로 처리하기 위하여 위상상관을 기반으로 대응점을 추출하고, 변위벡터를 생성한 후 이들 변위벡터들 간의 유사도를 측정하여 개인을 식별하는 방법을 제안하였다. 손가락 안쪽 면은 관절 라인과 주름의 방향이 중요한 특징이 되는데, 이들 텍스처 정보를 강조하기 위하여 전처리 과정에서 수직 방향과 수평 방향의 가버 필터를 사용하였다. 두 방향의 가버 필터를 모두 이용한 경우 왼손은 최대 2.8%, 오른손은 최대 3.4%의 인식률 향상을 보였다. 4개의 손가락을 모두 이용하여 개인을 인식할 경우 왼손과 오른손은 각각 98.6%, 95.6%의 인식률을 보였으며, 양손을 모두 사용할 경우 인식률은 99.6%였다. 실험 데이터의 차이로 제안된 방식의 인식 성능을 기존 연구결과와 직접 비교할 수는 없었지만 실험을 통해 제안된 방법의 타당성을 확인할 수 있었다. 본 연구는 기존의 연구들이 각 연구자가 수집한 데이터를 이용하여 인식 실험을 수행한 것에 비하여, 공개된 데이터베이스를 이용하여 실험 결과를 제시하였으므로 향후 후속 연구자들이 제안된 방법의 성능을 객관적으로 비교 평가할 수 있을 것으로 기대된다.

References

  1. A.H. Mir, S. Rubab, and Z.A. Jhat, "Biometrics Verification: a Literature Survey," International Journal of Computing and ICT Research, Vol. 5, No. 2, pp. 67-80, 2011.
  2. D. Bhattacharyya, R. Ranjan, F. Alisherov, and M. Choi, "Biometric Authentification: a Review," International Journal of u- and e-Service, Science and Technology, Vol. 2, No. 3, pp. 13-28, 2009.
  3. P.J. Grother, W.J. Salmon, and R. Chandramouli, Biometric Specifications for Personal Identify Verification, NIST Special Publication 800-76-2, U.S. Department of Commerce, 2013.
  4. N. Duta. "A Survey of Biometric Technology based on Hand Shape," Pattern Recognition, Vol. 42, No. 11, pp. 2797-2806, 2009. https://doi.org/10.1016/j.patcog.2009.02.007
  5. V. Kanhangad, A. Kumar, and D. Zhang, "Contactless and Pose Invariant Biometric Identifcation using Hand Surface," IEEE Transaction on Image Processing, Vol. 20, No. 5, pp. 1415-1424, 2011. https://doi.org/10.1109/TIP.2010.2090888
  6. R. Zhao, K. Li, M. Liu, and X. Sun, "A Novel Approach of Personal Identification based on Single Knuckle Print Image," Proceeding of Asia-Pacific Conference on Information Processing, pp. 218-221, 2009.
  7. L. Zhu and S. Zhang, "Multimodal Biometric Identification System based on Finger Geometry, Knuckle Print and Palm Print," Pattern Recognition Letters, Vol. 31, No. 12, pp. 1641-1649, 2010. https://doi.org/10.1016/j.patrec.2010.05.010
  8. Q. Li, Z. Qui, D. Sun, and J. Wu, "Personal Identification using Knuckleprint," Advances in Biometric Person Authentication, LNCS Vol. 3338, pp. 680-689, 2004.
  9. M.K. Goh, C. Tee, and A.B. Teoh, "Bi-modal Palm Print and Knuckle Print Recognition System," Journal of Information Technology in ASIA, Vol. 3, pp. 53-66, 2010.
  10. L. Nanni and A. Lumini, "A Multi-matcher System based on Knuckle-based Features," Neural Computing and Application, Vol. 18, Issue 1, pp. 87-91, 2009. https://doi.org/10.1007/s00521-007-0160-4
  11. S. Ribaric and I. Fratric, "A Biometric Identification System based on Eigenpalm and Eigenfinger Features," IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 27, No. 11, pp. 1698-1709, 2005. https://doi.org/10.1109/TPAMI.2005.209
  12. H. Kim and B. Bae, "A Study for Individual Identification by Discriminating the Finger Face Image," Journal of Korea Multimedia Society, Vol. 13, No. 3, pp. 378-391, 2010.
  13. K. Ito, T. Aoki, H. Nakjima, K. Kobayasi, and T. Higuchi, "A Phase-Based Palmprint Recognition Algorithm and Its Experimental Evaluation," Proceeding of International Symposium on Intelligent Signal Processing and Communication Systems, pp. 215-218, 2006.
  14. S. Ayoyama, K. Ito, and T. Aoki, "Finger-Knuckle-Print Recognition using BLPOCBased Local Block Matching," Proceeding of Asian Conference on Pattern Recognition, pp. 525-529, 2011.
  15. C.D. Kuglin and D.C. Hines, "The Phase Correlation Image Alignment Method," Proceeding of International Conference on Cybernetics and Society, pp. 163-165, 1975.
  16. N. Otsu, "A Threshold Selection Method from Gray-level Histograms," IEEE Transaction on System, Man, and Cybernetics, Vol. 9, No. 1, pp. 62-66, 1979. https://doi.org/10.1109/TSMC.1979.4310076
  17. E. Yoruk, E. Konukoglu, B. Sankur, and J. Darbon, "Shpae-Based Hand Recognition," IEEE Transaction on Image Processing, Vol. 15, No. 7, pp. 1803-1815, 2006. https://doi.org/10.1109/TIP.2006.873439
  18. A. Morales, M.A. Ferrer, and A. Kumar, "Towards Contactless Palmprint Authentication," IET Computer Vision, Vol. 5, No. 6, pp. 407-416, 2011. https://doi.org/10.1049/iet-cvi.2010.0191
  19. Chinese Academy of Sciences' Institute of Automation (CASIA) Multi-spectral Palmprint Database. http://biometrics.idealtest.org/(accessed May, 15, 2014)