DOI QR코드

DOI QR Code

Rapid Stitching Method of Digital X-ray Images Using Template-based Registration

템플릿 기반 정합 기법을 이용한 디지털 X-ray 영상의 고속 스티칭 기법

  • Cho, Hyunji (Dept. of Information System Eng., Graduate School, Hansung University) ;
  • Kye, Heewon (Dept. of Information System Eng., Graduate School, Hansung University) ;
  • Lee, Jeongjin (Dept. of Computer Science and Engineering, Soongsil University)
  • Received : 2015.05.10
  • Accepted : 2015.05.08
  • Published : 2015.06.30

Abstract

Image stitching method is a technique for obtaining an high-resolution image by combining two or more images. In X-ray image for clinical diagnosis, the size of the imaging region taken by one shot is limited due to the field-of-view of the equipment. Therefore, in order to obtain a high-resolution image including large regions such as a whole body, the synthesis of multiple X-ray images is required. In this paper, we propose a rapid stitching method of digital X-ray images using template-based registration. The proposed algorithm use principal component analysis(PCA) and k-nearest neighborhood(k-NN) to determine the location of input images before performing a template-based matching. After detecting the overlapping position using template-based matching, we synthesize input images by alpha blending. To improve the computational efficiency, reduced images are used for PCA and k-NN analysis. Experimental results showed that our method was more accurate comparing with the previous method with the improvement of the registration speed. Our stitching method could be usefully applied into the stitching of 2D or 3D multiple images.

Keywords

1. 서 론

디지털 X-ray(digital radiography)는 환자에 대한 침습적인 처치 없이 진찰 부위의 관찰을 가능하게 하여 의료 분야에서 중요한 기술로 사용되고 있다. 그러나 X-ray 촬영 장비에서는 센서의 개수가 제한적이기 때문에, 한 번의 촬영으로 얻을 수 있는 진찰범위가 제한된다. 따라서 진찰 범위 확대를 위해 스티칭(stitching) 기법이 사용된다[1].

스티칭은 두 개 이상의 영상에서 중첩되는 부분을 합성하는 방법으로, 사용자가 수동으로 중첩되는 영역을 찾아 입력하는 수동 스티칭 기법과, 영상처리 알고리즘을 통하여 자동으로 중첩 영역을 찾는 자동스티칭 기법이 있다.

수동 스티칭 기법은 두 개 이상의 영상에서 중첩되는 영역을 사용자가 직접 찾아 입력하고, 해당 입력을 기준으로 알파 블렌딩(alpha blending)을 수행하여 영상을 하나로 합성하는 방법이다. 사람이 직접눈으로 확인하고 중첩 영역을 입력하기 때문에 비교적 정확도가 높은 편이지만, 사용하기가 번거롭고 시간이 오래 걸리는 단점이 있다.

자동 스티칭 기법은 영상처리 알고리즘을 통하여 영상의 중첩 영역을 탐색하고, 탐색된 중첩 영역을 기준으로 두 개 이상의 영상을 하나로 합성하는 방법이다. 알고리즘의 탐색 오류로 인해 부정확한 결과가 도출될 가능성이 있지만, 수동 스티칭과 비교했을 때 수작업이 최소화되어 사용이 편리하고 속도가 빨라 임상에서의 선호도가 높다.

자동 스티칭 기법은 크게 두 단계로 구성된다. 첫번째, 두 개 이상의 입력 영상에서 중첩 영역을 찾는다. 두 번째, 중첩 영역을 기준으로 입력 영상을 하나로 합성한다. 이 때, 정확한 스티칭을 위하여 중첩영역을 찾는 알고리즘이 중요하다. 기존에 연구된 중첩 영역을 찾는 방법은 크게 특징 기반 정합 기법(feature-based registration)과 템플릿 기반 정합 기법(template-based registration)의 두 가지로 구분된다.

특징 기반 정합 기법은 영상의 주요 특징 점을 추출하여 정합하는 방법으로, 특징 점 추출을 위한 대표적인 방법으로 해리스 코너 검출기가 있다[2]. 해리스 코너 검출기는 지역 윈도우를 조금씩 이동하여 영상의 코너를 검출하는 Moravec의 코너 검출기[3]를 보완한 방법이다. 해리스 코너 검출기는 지역 윈도우의 이동 간격이 매우 작다고 가정하고, 선형 근사 기법을 이용하여, 도출 된 탐색 행렬에 대해서 고유 값의 크기에 따라 코너, 선, 평면을 구분한다. 이 방법은 기존 Moravec의 코너 검출기에서 발생하는 에지와 코너의 잡음을 제거하고, 특징 점 추출의 정확도를 향상시켰다. 또한, 해리스 코너 검출기를 발전시킨 특징 점 추출 기법으로 SIFT(Scale Invariant Feature Transform)[4]와 FAST(Feature from Accelerated Segment Test)[5] 등이 있다. 이와 같은 특징 기반 정합 기법은 피사체의 크기나 위치가 변해도 식별이 가능해 자동 스티칭을 위한 특징 점 추출과정에 일반적으로 사용되고 있다. 그러나, 진단을 위한 X-ray 영상은 일반적으로 피사체의 크기와 촬영 각도가 동일하므로 연산 효율이 좋은 템플릿 기반 정합 기법을 사용하는 것이 수행 시간 측면에서 보다 효율적이다.

템플릿 기반 정합 기법은 영상에서 일정 영역을 지정된 템플릿과 비교하여 가장 유사도가 높은 영역을 판별하는 방법으로, 영상처리의 다양한 분야에서 응용되고 있다[6]. 템플릿 기반 정합의 가장 대표적인 유사도 측정 방법으로는 정규상호상관(NCC, Normalized Cross Correlation)계수가 있다[7]. 정규 상호상관계수는 정규화 된 상호 연관성을 찾는 기법으로, 입력 영상과 템플릿 영상 사이에서 밝기 값의 선형적인 차이 및 기하학적인 유사도를 측정한다. 정규상호상관 계수는 두 영상 사이의 밝기 차에 민감하게 반응하지 않기 때문에, 서로 다른 영상의 유사도를 측정하여 합성하는 자동 스티칭 기법에 적합하다.

템플릿 기반 정합을 이용한 자동 스티칭에 관한 연구 중 의료 영상 분야에 적용된 것은 다음과 같다. 박 등[8]은 정규상호상관 계수를 이용한 3차원 치과 CT(Computed Tomography) 영상의 자동 스티칭 기법을 제안하였다. 정규상호상관 계수를 이용한 중첩영역의 판별 후, 각 영상의 외곽선을 기준으로 생성된 거리 맵을 기준으로 가중치 함수를 구성 하여 기울기 벡터를 블렌딩 한다. 그리고 시드 기반 영역 확장(SRG, Seeded Region Growing) 방식을 이용하여 다음으로 처리 할 픽셀을 구하였다. 그 결과, 두 영상간 합성에서 평균 밝기 값의 차이나 비네팅 효과로 발생하는 심 결함과 이중 에지 현상을 제거할 수 있었다. Gooßen et al.[9]은 줄자를 기반으로 한 X-ray 영상의 자동 스티칭 기법을 제안하였다. X-ray 디텍터와 함께 설치된 줄자의 선과 숫자 영역을 검출하고, 검출 한 줄자 영역을 따라 이동하면서 템플릿 기반 정합을 통해 오 인식 영역을 보정한다. 줄자 영역을 검출한 뒤에 템플릿 기반 정합을 수행하여 정확도를 향상시켰다. 이 방법은 우수한 인식률을 보이지만, 줄자가 포함되지 않은 영상에서는 유사도 측정이 불가능하다는 문제점이 있다.

X-ray 영상은 비교적 특징이 뚜렷하지 않은 저주파 성질이 강하기 때문에 템플릿 기반 정합 기법만으로 유사도를 측정할 경우 잘못된 매칭 점을 찾을 가능성이 존재한다. 따라서 템플릿 기반 정합을 수행하기 이전에 추가적인 정보를 탐색하여 인식률을 높일 수 있는 단계가 필요하다. 본 논문에서는 입력 영상의 위치를 우선적으로 탐색한 후에 템플릿 기반 정합을 수행하여 정확도와 성능을 향상시킨 X-ray 영상의 자동 스티칭 기법을 제안한다. 제안 기법은 정합을 수행하기에 앞서, 주성분 분석(PCA, Principal Component Analysis)과 k-NN(k-Nearest Neighborhood) 알고리즘을 이용하여 입력 된 두 영상 사이의 위치를 판별하고, 템플릿 기반 정합을 통해 영상이 중첩되는 부분을 찾는다. 그리고 알파 블렌딩을 통해 입력 영상을 합성한다.

본 논문은 다음과 같은 순서로 구성되어 있다. 2장에서는 제안하는 X-ray 영상의 자동 스티칭 기법에 대해 기술하며, 3장에서 실험 결과를 분석한다. 그리고 4장에서 결론을 맺는다.

 

2. 제안 스티칭 기법

본 논문에서 제안하는 자동 스티칭 기법은 Fig. 1에서와 같이 네 단계로 구성된다. 입력은 영상의 입력 순서에 따라 첫 번째 입력 영상과 두 번째 입력영상으로 구성된다. 첫째, 스티칭의 가속화를 위해 영상을 축소한다. 둘째, 두 개의 입력 영상에 대해서 상, 하 또는 좌, 우에 해당하는 위치를 구분한다. 셋째, 두 번째 단계에서 판별된 위치에 따라 템플릿 기반 정합의 유사도 측정을 위한 템플릿 영상과 입력영상을 구분하고, 템플릿 기반 정합을 수행한다. 넷째, 템플릿 기반 정합을 통해 도출 된 매칭 점을 기준으로 알파 블렌딩을 수행하여 영상을 하나로 합성한다. 알고리즘의 수행 속도 향상을 위하여 비교적 수행 시간이 오래 걸리는 영상의 위치 판별 단계(두번째 단계)와 템플릿 정합 단계(세 번째 단계)는 축소된 영상을 이용한다.

Fig. 1.A flow chart of the proposed method.

2.1 입력 영상의 위치 판별

제안된 자동 스티칭 기법은 정확도의 향상을 위하여 두 개의 입력 영상에 대한 상, 하 또는 좌, 우의 위치를 우선적으로 판별한다. 영상의 위치를 판별하기 위하여 고차원의 입력 데이터를 저차원의 특징 벡터로 변환하는 주성분 분석을 이용하였다[10].

주성분 분석은 입력된 각 데이터의 상관관계를 축소된 특징 벡터로의 표현하는 방법이다. 즉, 입력 데이터의 각 픽셀 간의 관계에서 주된 특징을 추출함으로써 저주파 성질이 강하고 복잡한 인체를 대상으로 하는 X-ray 영상에서 불 필요한 데이터를 제거하여 연산에 사용할 수 있다. 특징을 축소하여 상관관계가 높은 특징을 연산에 이용함으로써 오류 발생 확률을 낮추고 정확도를 높일 수 있다.

훈련 집합 X = {x1,x1,x3,...,xN}이 있을 때 주성분 분석을 이용하여 훈련 집합의 특징을 축소하는 과정은 다음과 같다. 입력 된 훈련 집합 X ={x1,x1,x3,...,xN}에 대해서 식 (1)을 통해 훈련 집합 X의 공분산 행렬 c를 구한다.

이 때, 는 모든 훈련 집합의 평균 벡터를 의미한다. 훈련 집합에서 최대 분산을 갖는 특징 벡터를 얻기 위해, 식 (1)을 통하여 도출된 공분산 행렬 c를 이용하여 cu = λu를 만족하는 고유 값 λ와 고유 벡터 u를 구한다. 이 때, 고유 값을 기준으로 가장 큰 M개의 고유 벡터를 선택하여 특징 벡터 V를 만든다. 여기서 V는 N차원에서 M차원으로 차원이 축소된 훈련 집합의 특징 벡터이다.

제안하는 두 X-ray 영상간의 위치 선정을 위한 훈련 집합 생성 과정을 Fig. 2에 나타내었다. 훈련 집합 X는 입력 영상 중 첫 번째 입력 영상에서 상, 하, 좌, 우 위치에서 각각 일부 영역에 해당하는 M개의 패치 영상을 추출하여 사용한다. 이 때, 서로 다른 훈련 데이터 생성을 위해 패치 영상의 추출 위치를 x축과 y축으로 이동하면서 서로 다르게 한다.

Fig. 2.The extraction of training data for principal component analysis of input image1.

추출 된 상, 하, 좌, 우 위치의 패치 영상을 주성분 분석의 훈련 데이터로 입력하고, 식 (1)을 통하여 도출된 공분산 행렬의 고유 값과 고유 벡터를 구한다. 그리고, 고유 값을 기준으로 가장 큰 M개의 고유 벡터를 선택하여 축소된 차원의 특징 벡터 V를 추출한다.

첫 번째 입력 영상에서 추출한 특징 벡터 V와의 유사도 검사를 위해 두 번째 입력 영상에서 새로운 패치를 추출한다. 새로운 패치를 샘플 데이터 s라 할 때, 샘플 데이터 s의 특징 벡터는 다음의 식 (2)를 통하여 추출할 수 있다.

샘플 데이터는 Fig. 3에서와 같이 두 번째 입력 영상의 상, 하, 좌, 우의 위치에서 각각 하나의 영상을 추출한다.

Fig. 3.The extraction of sample data for principal component analysis of input image2.

훈련 데이터와 샘플 데이터에서 추출 한 특징 벡터들 사이의 유사도를 측정하기 위해 두 특징 벡터들간의 유클리디안 거리(Euclidean distance)를 구한다. 훈련 데이터를 통하여 추출한 특징 벡터가 vt = [vt1,vt2,vt3,vt4,...vtm] 이고, 샘플 데이터를 통해 추출한 특징 벡터가 vs = [vs1,vs2,vs3,vs4,...vsm] 일 때, 두 특징 벡터 사이의 유클리디안 거리는 식 (3)를 통하여 계산할 수 있다.

유사도 측정에서 가장 유사한 하나의 특징 벡터를 선택하는 것은 오류 발생 확률이 크므로 정확도 향상을 위해 k-NN 알고리즘을 추가로 수행한다. k-NN 알고리즘은 특징 벡터들 중에서 가장 가까운 유클리디안 거리를 갖는 K개의 벡터를 추출하여 가장 많이 포함된 벡터를 판별하는 방법이다. 훈련 데이터와 샘플 데이터의 특징 벡터들 사이에서 최단 거리를 갖는 K개의 특징을 추출하고, 추출 된 특징들 중 가장 많이 포함된 위치를 판별하여 입력된 두 X-ray 영상에 대한 위치를 판단한다. 예를 들어, k-NN 알고리즘을 통해 도출된 최단 거리를 갖는 특징으로 첫 번째 입력 영상에서 ‘상’에 해당하는 위치와 두 번째 입력 영상에서 ‘하’에 해당하는 위치의 특징이 가장 많이 포함되었다면, 첫 번째 입력 영상의 상단부와 두 번째 입력 영상의 하단부가 서로 가장 유사하다는 의미가 된다. 따라서 스티칭을 위하여 첫 번째 입력 영상이 아래에 위치하고, 두 번째 입력 영상이 위에 위치해야 한다는 사실을 예측할 수 있다.

2.2 템플릿 기반 정합

두 개의 X-ray 입력 영상에 대한 유사도를 측정하여 중첩된 정확한 위치를 찾기 위하여 템플릿 기반정합을 수행한다. 본 논문에서는 유사도를 구하기 위한 척도로 정규상호상관 계수를 이용한다. 정규상호상관 계수는 정규화된 상호 연관성을 찾는 알고리즘으로, 템플릿 영상과 입력 영상에 대한 밝기 값의 선형적인 차이 및 기하학적인 유사도를 측정한다. 템플릿 영상은 입력 영상과의 비교를 위해 부분적으로 추출 된 영상을 가리킨다. 입력 영상 I와 템플릿 영상 T 사이의 유사도를 식 (4)를 통하여 계산할 수 있다.

이 때, 는 입력 영상에서 u, v에 위치한 영역을 템플릿 영상의 크기만큼 포함하여 구한 평균이고, 는 템플릿 영상의 평균이다.

2.1절에서 통하여 도출된 최단 거리를 갖는 특징 벡터를 바탕으로 템플릿 기반 정합을 수행하여 템플릿 영상과 입력 영상 사이의 유사도를 측정한다. 유사도 측정을 위한 기준 영상인 템플릿 영상으로써, 첫 번째 입력 영상을 통해 추출한 특징 벡터들 중에서 두 번째 입력 영상에서 추출 한 특징 벡터들과의 최단 거리를 갖는 훈련 데이터를 사용한다. 훈련 데이터는 첫 번째 입력 영상의 상, 하, 좌, 우의 각 위치에서 추출한 데이터를 가리킨다(Fig. 2). 템플릿 영상으로 첫 번째 입력 영상에서 추출된 훈련 데이터를 이용하여 두 번째 입력 영상에서 x축과 y축 방향으로 한 픽셀씩 이동하면서 템플릿 영상과의 유사도를 구한다.

알고리즘의 수행 속도 향상을 위하여 템플릿 기반정합은 축소된 영상과 원본 영상에서 총 두 번 수행한다. 축소된 영상에 대해서 템플릿 기반 정합을 수행한 뒤에 가로와 세로 방향으로 한 픽셀씩 확장한 영역에 대하여 원본 영상과 정합을 다시 수행한다.

2.3 알파 블렌딩

X-ray 영상의 자연스러운 합성을 위해서 2.2절에서 탐색한 매칭 점을 기반으로 알파 블렌딩을 수행한다. 알파 블렌딩은 두 개 이상의 입력 영상에 대해서 투명도를 조절하여 중첩되어 보이도록 출력하는 기법이다. 두 개의 입력 영상 IA, IB와 두 입력 영상이 합성된 결과 영상 IR에 대해서 2.2 절을 통하여 도출된 매칭 점이 (mxA,myA), (mxB,myB), (mxR,myR)라 할 때, 픽셀 위치에 따른 알파 블렌딩을 구하는 수식은 식 (5)와 같다.

이 때, 매칭 점과의 거리에 따라 두 입력 영상에 곱해지는 가중치가 달라지며, 가중치는 식 (6)을 통해 도출할 수 있다.

이 때, dα는 영상에서 알파 블렌딩을 수행할 폭을 의미하며, X와 mR은 스티칭의 가로, 세로의 방향(dir)에 따라 달라진다. 예를 들어, 두 입력 영상이 좌, 우로 위치하여 스티칭을 가로로 수행한다면 알파 블렌딩을 x축 방향으로 가중치를 변화하여 수행해야 하므로 X는 mxR=+i가 되고, mR은 mxR이 된다.

 

3. 실험 결과

실험을 위하여 X-ray 촬영 장비를 통하여 얻은 12bit DR(Digital Radiography)영상을 대상으로 기존 템플릿 기반 스티칭 방법[8]과 제안하는 방법을 비교하며, 추가적으로 제안하는 주성분 분석 기반 특징 추출 기법과의 비교를 위해 에지를 기반으로 한 특징 추출 기법을 적용하여 스티칭 결과를 비교한다. 실험은 3008 × 3072 크기를 갖는 두 개의 입력 영상을 기준으로 하였으며 35명의 전 척추(whole spine AP) 데이터를 이용하였다. 실험 환경은 Intel Core i5 3570 3.4GHz CPU와 8GB 메모리를 갖는 시스템을 사용하였다.

기존 방법은 3차원 CT 영상을 대상으로 한 템플릿 기반 정합 기법을 2차원에 적용하였으며, 에지 기반 스티칭 기법에서 특징 추출을 위해 본문에서 제안한 주성분 분석 대신 소벨(sobel) 필터와 임계값 50을 적용하였다.

실험에서 제안하는 방법의 매개 변수는 다음과 같이 설정하였다. 제안하는 방법에서 위치 선정을 위한 주성분 분석의 훈련 데이터 크기로서, 길이가 긴 영역을 축소 영상의 80%, 길이가 짧은 영역을 축소 영상의 10%로 설정하였다. 또한 주성분 분석의 훈련 데이터 총 개수는 40개로 하였으며, 축소된 특징 벡터의 개수는 20개로 하였다. k-NN 알고리즘에서의 N의 개수는 5개로 제한하였으며, 템플릿 매칭을 위한 기준 영상의 크기는 주성분 분석의 훈련데이터와 동일하게 적용하였다. 수행 속도를 위해 기존 방법과 제안하는 방법에서 템플릿 정합은 원본 영상을 1/30로 축소하여 수행하였다.

Fig. 4에서 기존 기법과 제안 기법, 에지 기반 스티칭 기법의 결과를 비교하였다. Fig. 4(a), (b)는 두 개의 전 척추 입력 영상이고, Fig. 4(c), (d), (e)는 각각 기존 기법과 에지 기반 스티칭 기법, 제안 기법의 결과 영상이다. 동일한 영상에 대한 자동 스티칭의 결과로서 제안 기법은 올바른 매칭 점을 찾아서 합성에 성공한 반면에 기존 기법과 에지 기반 스티칭 기법은 매칭 점 판단 오류로 인해 확연하게 잘못된 매칭 결과를 보여 주었다.

Fig. 4.Comparison of the previous method[8] and the proposed method. (a) Input image1, (b) Input image2, (c) The stitching result of the previous method, (d) Edge based stitching method, (e) The stitching result of the proposed method.

기존 기법의 경우, 템플릿 기반 정합에서 저주파 성질이 강한 X-ray 영상의 특성에 의해 매칭 점을 오 인식하여 합성에 실패하는 경우가 빈번하게 나타났다. 마찬가지로 에지 기반 스티칭 기법은 에지 추출로서 매칭 점 인식 강화를 위한 전 처리를 수행하였지만, X-ray 영상 특유의 잡음을 더욱 증폭시키고 저주파 특성과 복잡한 인체 구조로 인해 오히려 오인식률이 증가하는 결과를 보였다. 반면에, 제안 기법은 주성분 분석 알고리즘을 통한 특징 추출에서 식(1)의 공분산 행렬을 이용하므로 입력 데이터의 모든 픽셀 간의 관계를 특징으로 표현 가능하다. 즉, 훈련 데이터와 샘플 데이터의 특징으로 위치를 우선적으로 판별함으로써 기존 저주파 성질에 의해 저하되었던 인식률을 높일 수 있었다.

Fig. 5는 또 다른 입력 데이터에 대하여 제안 기법과 기존 기법 및 에지 기반 스티칭 기법의 스티칭 결과를 보여준다. Fig. 5(a), (b)는 두 개의 전 척추 입력 영상이고, Fig. 5(c), (d), (e)는 각각 기존 기법과 에지 기반 스티칭 기법, 제안 기법의 결과 영상이다. 실험 결과, 기존 기법과 에지 기반 스티칭 기법에서 약간 틀어진 결과를 보이지만 제안 기법에서 정확한 매칭 점을 찾는 것을 볼 수 있다.

Fig. 5.Comparison of the previous method[8] and the proposed method. (a) Input image1, (b) Input image2, (c) The stitching result of the previous method, (d) Edge based stitching method, (e) The stitching result of the proposed method.

기존 기법과 에지 기반 스티칭 기법의 경우 템플릿 기반 정합의 유사도 측정을 위한 템플릿 영상으로 상, 하, 좌, 우의 각 위치에 대해 임의의 위치를 선정하여 사용한다. 반면에, 제안 방법에서는 주성분 분석을 통해 추출한 특징 벡터들 간에 유사도가 높은 데이터를 사용하여 템플릿 기반 정합의 인식률을 높일 수 있었다.

Table 1은 기존 기법[8]과 에지 기반 스티칭 기법, 제안하는 기법을 각각 적용했을 때의 정확도와 수행시간을 측정한 결과이다. 자동 스티칭의 매칭 포인트와 수동 스티칭의 매칭 포인트와의 평균 거리 오차가 15픽셀 이하일 경우에 스티칭에 성공했다고 판단하였다.

Table 1.The performance comparison between the previous method[8] and the proposed method

실험 결과, 기존 기법에서는 총 35명의 전 척추데이터 중에서 6명의 데이터에 대해서 실패하였으며, 에지 기반 스티칭 기법에서는 14명의 데이터에서 실패하였다. 반면에 제안 기법에서는 35명의 데이터중에서 2명의 데이터에 대해서 실패하는 결과를 보였다. 결과적으로 기존 기법과 비교하였을 때 제안기법에서 약 11% 높은 인식률을 보였으며, 에지 기반 스티칭 기법과의 비교에서는 약 34% 높은 인식률을 보였다.

스티칭 기법의 수행 속도는 기존 기법에 비하여 약 1.7배, 에지 기반 스티칭 기법에 비하여 약 1.9배 증가함을 확인할 수 있었다. 기존 기법은 입력 영상사이의 위치를 모르기 때문에 상, 하, 좌, 우의 모든 방향에 대해서 정합을 수행해야 한다. 에지 기반 스티칭 기법은 여기에 추가적인 에지 추출 연산을 수행한다. 반면에, 제안 기법에서는 템플릿 기반 정합을 수행하기에 앞서 입력 영상 사이의 위치를 판별하여, 판별된 위치에 대하여 단 한 번의 고정밀 정합을 수행하기 때문에 알고리즘의 수행 속도를 향상시킬 수 있었다.

실험 결과를 종합해 보면, 제안 기법에서 기존 기법 및 에지 기반 스티칭 기법과 비교했을 때 정확도와 알고리즘 수행 속도에서 향상된 결과를 보였다. 정합을 수행하기에 앞서 입력 영상의 위치를 판별함으로써 기존 방법에서 발생하는 오 인식률을 감소할 수 있었다. 또한, 템플릿 기반 정합의 템플릿 영상으로써 주성분 분석을 통해 추출한 특징 벡터들 간에 최단 거리를 갖는 데이터를 사용함으로써 템플릿 기반 정합의 인식률을 향상시킬 수 있었다. 마지막으로, 기존 방법에서 영상의 상, 하, 좌, 우의 모든 위치에 대해 정합을 수행하는 대신, 제안하는 방법에서 위치 판별을 우선적으로 하여 단 한 번의 정합으로 매칭 점을 도출함으로써 알고리즘 수행 속도를 향상시킬 수 있었다.

 

4. 결 론

본 논문에서는 템플릿 기반 정합을 수행하기에 앞서 두 개 이상의 입력 영상에 대해서 상, 하 또는 좌, 우의 위치를 우선적으로 판별한 뒤에 스티칭을 수행하는 자동 스티칭 알고리즘을 제안하였다. 입력 영상에 대한 위치 판별을 위해 주성분 분석과 k-NN 알고리즘을 이용하였으며, 템플릿 기반 정합의 유사도 측정을 위한 템플릿 영상으로 주성분 분석을 통해 추출한 특징 벡터 간에 유사도가 가장 높은 훈련 영상을 사용하였다. 또한, 알고리즘의 수행 성능을 위하여 주성분 분석과 템플릿 기반 정합에서는 입력 영상의 축소 본을 사용하였다.

실험 결과, 템플릿 기반 정합에 앞서 입력 영상의 위치를 판단함으로써 템플릿 기반 정합에서 발생하는 오 인식률을 감소 할 수 있었으며, 템플릿 기반 정합에 사용되는 템플릿 영상으로 두 입력 영상 간의 유사도가 높은 영상을 사용함으로써 템플릿 기반 정합의 정확도를 향상시킬 수 있었다. 또한, 입력 영상간의 위치를 미리 판단함으로써 단 한 번의 템플릿 기반 정합을 수행할 수 있도록 하여 가속화가 가능하였다.

본 논문의 제안 방법은 회전을 고려하지 않은 디텍터를 대상으로 하였으며, 회전을 이용한 디텍터의 경우에는 영상의 회전 변환 뿐 아니라 추가적인 왜곡 연산을 수행하는 연구를 향후 수행할 예정이다.

References

  1. A. Gooßen, M. Schlüter, T. Pralow, and R.R. Grigat, “A Stitching Algorithm for Automatic Registration of Digital Radiographs,” Lecture Notes in Computer Science, Vol. 5112, No. 1, pp. 854-862, 2008. https://doi.org/10.1007/978-3-540-69812-8_85
  2. C. Harris and M. Stephens, “A Combined Corner and Edge Detector,” Proceedings of the 4th Alvey Vision Conference, pp. 147-151, 1998.
  3. H.P. Moravec, Obstacle Avoidance and Navigation in the Real World by a Seeing Robot Rover , Doctor's Thesis of Carnegie- Mellon University, 1980.
  4. D.G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  5. E. Rosten, R. Porter, and T. Drummond, "Faster and Better: A Machine Learning Approach to Corner Detection," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, No. 1, pp. 105-119, 2006. https://doi.org/10.1109/TPAMI.2008.275
  6. T. Mahalakshmi, R. Muthaiah, and P. Swaminathan, "Review Article: An Overview of Template Matching Technique in Image Processing," Research Journal of Applied Sciences, Engineering and Technology, Vol. 4, No. 24, pp. 5469-5473, 2012.
  7. L.D. Stefano, S. Mattoccia, and F. Tombari, "An Algorithm for Efficient and Exhaustive Template Matching," Lecture Notes in Computer Science, Vol. 3211, No. 1, pp. 408-415, 2004. https://doi.org/10.1007/978-3-540-30125-7_51
  8. S.Y. Park, S.J. Park, J.J. Lee, J.S. Shin, and Y.G. Shin, “High-qaulity Stitching Method of 3D Multiple Dental CT Images,” Journal of Korea Multimedia Society, Vol. 17, No. 10, pp. 1205-1212, 2014. https://doi.org/10.9717/kmms.2014.17.10.1205
  9. A. Gooßen, M. Schlüter, M. Hensel, T. Pralow, and R.R. Grigat, Bildverarbeitung für die Medizin, Springer Berlin Heidelberg, New York, 2008.
  10. I.S. Oh, Pattern Recognition, Kyobo Book, Seoul, 2008.

Cited by

  1. 정규 상호상관도 및 이진화 기법을 이용한 뇌종양 세포의 형광 현미경 영상 스티칭 vol.20, pp.7, 2017, https://doi.org/10.9717/kmms.2017.20.7.979
  2. Automated stitching of microscope images of fluorescence in cells with minimal overlap vol.126, pp.None, 2015, https://doi.org/10.1016/j.micron.2019.102718