• 제목/요약/키워드: Fusion Image

검색결과 885건 처리시간 0.026초

EFFICIENT IHS BASED IMAGE FUSION WITH 'COMPENSATIVE' MATRIX CONSTRUCTED BY SIMULATING THE SCALING PROCESS

  • Nguyen, TienCuong;Kim, Dae-Sung;Kim, Yong-Il
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 Proceedings of ISRS 2006 PORSEC Volume II
    • /
    • pp.639-642
    • /
    • 2006
  • The intensity-hue-saturation (IHS) technique has become a standard procedure in image analysis. It enhances the colour of highly correlated data. Unfortunately, IHS technique is sensitive to the properties of the analyzed area and usually faces colour distortion problems in the fused process. This paper explores the relationship of colour between before and after the fused process and the change in colour space of images. Subsequently, the fused colours are transformed back into the 'simulative' true colours by the following steps: (1) For each pixel of fused image that match with original pixel (of the coarse spectral resolution image) is transformed back to the true colour of original pixel. (2) The value for interpolating pixels is compensated to preserve the DN ratio between the original pixel and it's vicinity. The 'compensative matrix' is constructed by the DN of fused images and simulation of scaling process. An illustrative example of a Landsat and SPOT fused image also demonstrates the simulative true colour fusion methods.

  • PDF

뇌하수체 종양의 방사선 수술 시 영상 융합 프로토콜이 실제 PTV와 OAR 선량에 미치는 영향 (The Dosimetric Effect on Real PTV and OARs at Various Image Fusion Protocol for Pituitary Adenomas)

  • 이경남;이동준;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제21권4호
    • /
    • pp.354-359
    • /
    • 2010
  • 뇌하수체 종양의 치료 계획 시 다양한 영상 융합 프로토콜이 실제 PTV (planning target volume) coverage 및 OAR (organ at risk) 보호에 미치는 선량학적 영향을 확인하고자 하였다. 선량 체적 히스토그램(DVH, dose volume histogram)을 이용하여 각 프로토콜 별 실제 PTV의 coverage 및 그 변화 그리고 시각경로(optic pathway) 및 뇌간(brainstem)의 최대 흡수 선량과 임계 선량을 초과한 체적을 획득하였고 축상면(axial plane)과 관상면(coronal) 영상을 함께 사용하여 S-I (superior-inferior) 방향의 불확정도를 보정한 영상 융합 프로토콜이 축상면 만을 이용한 경우보다 시각경로 및 뇌간의 최대 흡수 선량과 임계 선량을 초과한 체적 모두 감소된 수치를 보임을 확인 하였다. 본 case에 한해 축상면 그리고 관상면 영상을 함께 사용하는 것이 OARs 보호에 가중치를 둔 방사선 수술 치료 계획 수립에 도움을 줄 수 있다.

아리랑 2/3호 고해상도 위성영상에 적합한 융합기법 (Pansharpening Method for KOMPSAT-2/3 High-Spatial Resolution Satellite Image)

  • 오관영;정형섭;정남기
    • 대한원격탐사학회지
    • /
    • 제31권2호
    • /
    • pp.161-170
    • /
    • 2015
  • 본 논문은 아리랑 2호와 3호에 대한 고해상 다분광 영상 제작을 위한 효과적인 영상융합 기법을 제시한다. 제안된 기법은 널리 알려져 있는 CS 기반의 영상융합 기법을 기본으로 하고 있다. 제안된 기법의 융합 과정은 크게 두 가지 단계로 구분할 수 있다. 첫 번째는 가중 평균된 다분광 영상을 이용한 Intensity 영상의 제작 단계와 두 번째는 최적화된 융합 매개변수를 통한 고주파 영상의 생성 단계이다. 제안된 기법에서는 기존의 방법을 개선한 다른 새로운 형식의 융합 매개변수를 정의하였으며, 이는 고주파 영상, 전정색 영상과 다분광 영상 간 공분산/분산 비를 이용하여 도출된다. 본 알고리즘의 평가를 위해서 기존의 융합 방법들의 결과와 정량적, 시각적 비교분석을 수행하였다. 정량적 분석에는 Spatial ERGAS, Spectral ERGAS, SAM, Q4 평가 지표가 사용되었다. 분석결과, 제안된 기법은 기존의 CS 기반의 영상융합 기법에 비하여 공간적/분광적인 측면에서 모두 향상된 결과를 나타냈다.

고해상도 광학 위성영상을 이용한 시공간 자료 융합의 적용성 평가: KOMPSAT-3A 및 Sentinel-2 위성영상의 융합 연구 (Applicability Evaluation of Spatio-Temporal Data Fusion Using Fine-scale Optical Satellite Image: A Study on Fusion of KOMPSAT-3A and Sentinel-2 Satellite Images)

  • 김예슬;이광재;이선구
    • 대한원격탐사학회지
    • /
    • 제37권6_3호
    • /
    • pp.1931-1942
    • /
    • 2021
  • 최근 고해상도 광학 위성영상의 활용성이 강조되면서 이를 이용한 지표 모니터링 연구가 활발히 수행되고 있다. 그러나 고해상도 위성영상은 낮은 시간 해상도에서 획득되기 때문에 그 활용성에 한계가 있다. 이러한 한계를 보완하기 위해 서로 다른 시간 및 공간 해상도를 갖는 다중 위성영상을 융합해 높은 시공간 해상도의 합성 영상을 생성하는 시공간 자료 융합을 적용할 수 있다. 기존 연구에서는 중저해상도의 위성영상을 대상으로 시공간 융합 모델이 개발되어 왔기 때문에 고해상도 위성영상에 대한 기개발된 융합 모델의 적용성을 평가할 필요가 있다. 이를 위해 이 연구에서는 KOMPSAT-3A 영상과 Sentinel-2 영상을 대상으로 기개발된 시공간 융합 모델의 적용성을 평가하였다. 여기에는 예측을 위해 사용하는 정보가 다른 Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model (ESTARFM)과 Spatial Time-series Geostatistical Deconvolution/Fusion Model (STGDFM)을 적용하였다. 연구 결과, 시간적으로 연속적인 반사율 값을 결합하는 STGDFM의 예측 성능이 ESTARFM 보다 높은 것으로 나타났다. 특히 KOMPSAT 영상의 낮은 시간 해상도로 같은 시기에서 KOMPSAT 및 Sentinel-2 영상을 동시에 획득하기 어려운 경우, STGDFM의 예측 성능 향상이 더욱 크게 나타났다. 본 실험 결과를 통해 연속적인 시간 정보를 결합해 상대적으로 높은 예측 성능을 가지는 STGDFM을 이용해 낮은 재방문 주기로 인한 고해상도 위성영상의 한계를 보완할 수 있음을 확인하였다.

A Survey of Fusion Techniques for Multi-spectral Images

  • Achalakul, Tiranee
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1244-1247
    • /
    • 2002
  • This paper discusses various algorithms to the fusion of multi-spectral image. These fusion techniques have a wide variety of applications that range from hospital pathology to battlefield management. Different algorithms in each fusion level, namely data, feature, and decision are compared. The PCT-Based algorithm, which has the characteristic of data compression, is described. The algorithm is experimented on a foliated aerial scene and the fusion result is presented.

  • PDF

사용자 편의성과 효율성을 증진하기 위한 신뢰도 높은 이미지-텍스트 융합 CAPTCHA (Reliable Image-Text Fusion CAPTCHA to Improve User-Friendliness and Efficiency)

  • 문광호;김유성
    • 정보처리학회논문지C
    • /
    • 제17C권1호
    • /
    • pp.27-36
    • /
    • 2010
  • 웹 서비스 신청 단계에서 신청자가 실제 인간 사용자임을 확인하기 위해 사용되는 텍스트 기반 캡차(text-based CAPTCHA)의 변형된 문자를 광학문자인식 기술로 파악하는 것이 가능하기에 캡차의 신뢰성이 떨어지는 문제가 발생하고 있다. 이 문제를 해결하기 위해 제안되었던 기존의 이미지 기반 캡차(image-based CAPTCHA)에서도 여러 문제점이 존재한다. 인공지능 프로그램을 사용하여 시스템이 보유하고 있는 제한된 수의 이미지 내용을 파악함으로써 신뢰도가 떨어지는 문제가 발생할 수 있으며, 제공된 이미지에 대해 사용자가 다른 유사한 단어를 입력하는 경우에는 오답으로 판정되어 반복적으로 캡차를 시도해야 하는 불편함이 발생 할 수 있으며 또한, 사용자에게 캡차 문제를 제공하기 위해 여러 이미지 파일을 전송해야 하기에 전송 비용의 비효율성 문제가 존재한다. 이러한 기존 이미지 기반 캡차의 문제점들을 해결하기 위해 본 논문에서는 이미지와 관련 키워드 일부를 융합하여 제공하는 이미지-텍스트 융합 캡차를 제안하였다. 본 논문에서 제안한 이미지-텍스트 융합 캡차에서는 이미지와 관련된 단어의 일부분을 힌트로 활용하여 쉽게 정답을 입력할 수 있도록 사용자 편리성을 제공하며 이미지와 텍스트를 한 이미지 파일 내에 융합시켰기 때문에 전송 비용을 절약하여 효율성을 증진할 수 있다. 또한, 캡차 시스템의 신뢰성 증진을 위해 인터넷 검색으로 캡차용 이미지를 대량으로 수집하도록 하였으며 수집되는 캡차 이미지의 정확성을 유지하기 위해 필터링 과정을 거치도록 하였다. 또한, 본 논문에서는 실제 실험을 통해 제안된 이미지-텍스트 융합 캡차가 기존 이미지 기반 캡차보다 사용자에게 편리하고 신뢰성이 증진될 수 있음을 입증하였다.

2단계 스테레오 정합기법을 이용한 DEM 추정 (DEM Estimation Using Two Stage Stereo Matching Method)

  • 남창우;우동민
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.3044-3046
    • /
    • 2000
  • A Stereo matching has been an important tool for reconstructing three dimensional terrain. In this stereo matching process, DEM(Digitai Elevation Map) can be generated by the disparity from reference image to target image. Generally disparity map in matching process can be implemented by wraping from reference image to target image and if the role of reference and target is interchanged, the different DEM can be obtained. To evaluate the generated DEM from matching process, We adapted the Photorealistic synthetic image generator using ray tracing technique. The generator produce two simulated image from previous DEM and Ortho-image which is regard as Ground-truth. In this paper, we are concern about estimating more accurate DEM from these two DEMs. The several fusion methods of two DEMs are proposed to generate accurate DEM and compared with previous method. one of fusion methods is by using Cross-Correlation match score and the true DEM should have a high matching score.

  • PDF

GRAYSCALE IMAGE COLORIZATION USING A CONVOLUTIONAL NEURAL NETWORK

  • JWA, MINJE;KANG, MYUNGJOO
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제25권2호
    • /
    • pp.26-38
    • /
    • 2021
  • Image coloration refers to adding plausible colors to a grayscale image or video. Image coloration has been used in many modern fields, including restoring old photographs, as well as reducing the time spent painting cartoons. In this paper, a method is proposed for colorizing grayscale images using a convolutional neural network. We propose an encoder-decoder model, adapting FusionNet to our purpose. A proper loss function is defined instead of the MSE loss function to suit the purpose of coloring. The proposed model was verified using the ImageNet dataset. We quantitatively compared several colorization models with ours, using the peak signal-to-noise ratio (PSNR) metric. In addition, to qualitatively evaluate the results, our model was applied to images in the test dataset and compared to images applied to various other models. Finally, we applied our model to a selection of old black and white photographs.

Reducing Spectral Signature Confusion of Optical Sensor-based Land Cover Using SAR-Optical Image Fusion Techniques

  • ;Tateishi, Ryutaro;Wikantika, Ketut;M.A., Mohammed Aslam
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.107-109
    • /
    • 2003
  • Optical sensor-based land cover categories produce spectral signature confusion along with degraded classification accuracy. In the classification tasks, the goal of fusing data from different sensors is to reduce the classification error rate obtained by single source classification. This paper describes the result of land cover/land use classification derived from solely of Landsat TM (TM) and multisensor image fusion between JERS 1 SAR (JERS) and TM data. The best radar data manipulation is fused with TM through various techniques. Classification results are relatively good. The highest Kappa Coefficient is derived from classification using principal component analysis-high pass filtering (PCA+HPF) technique with the Overall Accuracy significantly high.

  • PDF