Abstract
Image fusion is the process of combining information from two or more source images of a scene into a single composite image with application to many fields, such as remote sensing, computer vision, robotics, medical imaging and defense. The most common wavelet-based fusion is discrete wavelet transform fusion in which the high frequency sub-bands and low frequency sub-bands are combined on activity measures of local windows such standard deviation and mean, respectively. However, discrete wavelet transform is not translation-invariant and it often yields block artifacts in a fused image. In this paper, we propose a robust image fusion based on the stationary wavelet transform to overcome the drawback of discrete wavelet transform. We use the activity measure of interquartile range as the robust estimator of variance in high frequency sub-bands and combine the low frequency sub-band based on the interquartile range information present in the high frequency sub-bands. We evaluate our proposed method quantitatively and qualitatively for image fusion, and compare it to some existing fusion methods. Experimental results indicate that the proposed method is more effective and can provide satisfactory fusion results.
영상 융합은 특징이 다른 두 개 이상의 영상에 대하여 각 영상의 특징을 모두 갖는 하나의 영상으로 재구성하는 기술로 의료 분야, 군사 분야, 원격 탐사 분야 등 여러 분야에 활용되고 있다. 지금까지 웨이블렛 기반 영상 융합은 주로 이산 웨이블렛 변환 하에서 고주파 영역에서는 표준편차와 같은 액티비티(activity) 측도를 사용하고 저주파 영역에서는 두 영상의 픽셀값의 평균을 취함으로써 이루어져 왔다. 그러나, 이산 웨이블렛 변환은 이동불변(translation-invariance)하지 않으므로 융합 영상에 블록 인공물이 생기곤 한다. 본 논문에서는 이산 웨이블렛 변환의 단점을 보완한 정상 웨이블렛 변환을 이용하여 고주파 영역에서는 영상 특징에 민감하지 않은 사분위수 범위를 사용하고 저주파 영역에서는 고주파 영역의 사분위수 범위 정보를 이용하여 영상을 융합하고자 한다. 영상 실험 결과, 제안된 방법은 정성적이고 정량적인 평가에서 입력 영상의 종류에 관계없이 로버스트한 결과를 낳음을 알 수 있었다.