• Title/Summary/Keyword: 영상 융합

Search Result 2,183, Processing Time 0.035 seconds

A Case Study of Land-cover Classification Based on Multi-resolution Data Fusion of MODIS and Landsat Satellite Images (MODIS 및 Landsat 위성영상의 다중 해상도 자료 융합 기반 토지 피복 분류의 사례 연구)

  • Kim, Yeseul
    • Korean Journal of Remote Sensing
    • /
    • v.38 no.6_1
    • /
    • pp.1035-1046
    • /
    • 2022
  • This study evaluated the applicability of multi-resolution data fusion for land-cover classification. In the applicability evaluation, a spatial time-series geostatistical deconvolution/fusion model (STGDFM) was applied as a multi-resolution data fusion model. The study area was selected as some agricultural lands in Iowa State, United States. As input data for multi-resolution data fusion, Moderate Resolution Imaging Spectroradiometer (MODIS) and Landsat satellite images were used considering the landscape of study area. Based on this, synthetic Landsat images were generated at the missing date of Landsat images by applying STGDFM. Then, land-cover classification was performed using both the acquired Landsat images and the STGDFM fusion results as input data. In particular, to evaluate the applicability of multi-resolution data fusion, two classification results using only Landsat images and using both Landsat images and fusion results were compared and evaluated. As a result, in the classification result using only Landsat images, the mixed patterns were prominent in the corn and soybean cultivation areas, which are the main land-cover type in study area. In addition, the mixed patterns between land-cover types of vegetation such as hay and grain areas and grass areas were presented to be large. On the other hand, in the classification result using both Landsat images and fusion results, these mixed patterns between land-cover types of vegetation as well as corn and soybean were greatly alleviated. Due to this, the classification accuracy was improved by about 20%p in the classification result using both Landsat images and fusion results. It was considered that the missing of the Landsat images could be compensated for by reflecting the time-series spectral information of the MODIS images in the fusion results through STGDFM. This study confirmed that multi-resolution data fusion can be effectively applied to land-cover classification.

A Study on the Improvement of Image Fusion Accuracy Using Smoothing Filter-based Replacement Method (SFR기법을 이용한 영상 융합의 정확도 향상에 관한 연구)

  • Yun Kong-Hyun
    • Spatial Information Research
    • /
    • v.14 no.1 s.36
    • /
    • pp.85-94
    • /
    • 2006
  • Image fusion techniques are widely used to integrate a lower spatial resolution multispectral image with a higher spatial resolution panchromatic image. However, the existing techniques either cannot avoid distorting the image spectral properties or involve complicated and time-consuming decomposition and reconstruction processing in the case of wavelet transform-based fusion. In this study a simple spectral preserve fusion technique: the Smoothing Filter-based Replacement(SFR) is proposed based on a simplified solar radiation and land surface reflection model. By using a ratio between a higher resolution image and its low pass filtered (with a smoothing filter) image, spatial details can be injected to a co-registered lower resolution multispectral image minimizing its spectral properties and contrast. The technique can be applied to improve spatial resolution for either colour composites or individual bands. The fidelity to spectral property and the spatial quality of SFM are convincingly demonstrated by an image fusion experiment using IKONOS panchromatic and multispectral images. The visual evaluation and statistical analysis compared with other image fusion techniques confirmed that SFR is a better fusion technique for preserving spectral information.

  • PDF

Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images (작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험)

  • Park, Soyeon;Kim, Yeseul;Na, Sang-Il;Park, No-Wook
    • Korean Journal of Remote Sensing
    • /
    • v.36 no.5_1
    • /
    • pp.807-821
    • /
    • 2020
  • The objective of this study is to evaluate the applicability of representative spatio-temporal fusion models developed for the fusion of mid- and low-resolution satellite images in order to construct a set of time-series high-resolution images for crop monitoring. Particularly, the effects of the characteristics of input image pairs on the prediction performance are investigated by considering the principle of spatio-temporal fusion. An experiment on the fusion of multi-temporal Sentinel-2 and RapidEye images in agricultural fields was conducted to evaluate the prediction performance. Three representative fusion models, including Spatial and Temporal Adaptive Reflectance Fusion Model (STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model (SPSTFM), and Flexible Spatiotemporal DAta Fusion (FSDAF), were applied to this comparative experiment. The three spatio-temporal fusion models exhibited different prediction performance in terms of prediction errors and spatial similarity. However, regardless of the model types, the correlation between coarse resolution images acquired on the pair dates and the prediction date was more significant than the difference between the pair dates and the prediction date to improve the prediction performance. In addition, using vegetation index as input for spatio-temporal fusion showed better prediction performance by alleviating error propagation problems, compared with using fused reflectance values in the calculation of vegetation index. These experimental results can be used as basic information for both the selection of optimal image pairs and input types, and the development of an advanced model in spatio-temporal fusion for crop monitoring.

Automatic fusion of T2-weighted image and diffusion weighted image in pelvis MRI (골반 T2강조 MR 영상과 확산강조 MR 영상 간 자동 융합)

  • Kang, Hye-Won;Jung, Ju-Lip;Hong, Helen;Hwang, Sung-Il
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.359-361
    • /
    • 2012
  • 본 논문은 T2강조 MR 영상과 확산강조 MR 영상의 강체 정합을 통해 크기, 위치, 회전 변환 왜곡을 보정하여 자궁내막암의 위치를 자동으로 찾는 방법을 제안한다. 영상해상도와 밝기값 분포가 서로 다른 두 영상간 정합의 정확성을 향상시키기 위해 잡음을 제거하고 두 영상의 밝기값 신호 분포의 유사성을 강화시킨다. 유사성이 향상된 두 영상의 크기, 위치, 회전 변환 왜곡을 보정하기 위해 정규화 상호정보를 최대화 하는 강체 정합을 반복적으로 수행한다. 정합된 영상에서 악성 종양을 쉽게 판별 할 수 있도록 현상확상계수지도를 컬러맵으로 생성하여 T2강조 MR 영상에서 얻은 종양의 후보군에 매핑하여 T2강조 MR 영상과 융합한다. 실험을 위하여 최적화 반복 과정에 따른 정규화 상호정보 수치 수렴 과정을 확인하고, 융합 후 종양 영역이 매핑되는 것을 육안평가를 통해 분석하였다. 제안방법을 통하여 T2강조 MR 영상과 확산강조 MR 영상을 융합함으로써 종양의 위치를 자동으로 파악하고 자궁내막암의 병기를 확정하는 용도로 활용할 수 있다.

News Image Generation AI (뉴스 영상 생성 AI)

  • Kim, Seon-moo;Lee, Seung-jun;Lee, Jeong-won;Park, Ji Hye
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.955-957
    • /
    • 2022
  • 뉴스와 같은 정확한 정보를 제공하는 영상을 제작하는 과정은 많은 자원과 시간이 소요된다. 작성된 기사를 이용하더라도 영상 기반의 뉴스를 제작하는 것은 인적, 시간적인 자원의 투여가 불가피하다. 뉴스를 송출하기 위해 소요되는 시간을 줄이기에 현실적으로 어렵다. 따라서 우리는 이러한 문제를 해결하고 빠른 뉴스 영상 제공이 가능한 "뉴스 영상 생성 AI"를 개발하기로 하였다.

Construction of Web-Based Medical Imgage Standard Dataset Conversion and Management System (웹기반 의료영상 표준 데이터셋 변환 및 관리 시스템 구축)

  • Kim, Ji-Eon;Lim, Dong Wook;Yu, Yeong Ju;Noh, Si-Hyeong;Lee, ChungSub;Kim, Tae-Hoon;Jeong, Chang-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.282-284
    • /
    • 2021
  • 최근 4차 산업혁명으로 의료빅데이터 기반으로 한 AI 기술이 급속도로 발전하고 있다. 특히, 의료영상을 기반으로 병변을 탐색, 분활 및 정량화 그리고 자동진단 및 예측 관련된 기술이 AI 제품으로 출시되고 있다. AI 기술개발은 많은 학습데이터가 요구되며, 임상검증에 단일기관에서 2개 이상 기관의 검증이 요구되고 있다. 그러나 아직까지도 단일기관에서 학습용 데이터와 테스트, 검증용 데이터를 달리하여 기술개발에 활용하고 있다. 본 논문은 AI 기술개발에 필요한 영상데이터에 대한 표준화된 데이터셋 변환 및 관리를 위한 시스템에 대해 기술한다. 다기관 데이터를 수집하기 위해서는 각 기관의 의료영상 데이터 수집 및 저장하는 기준이 명확하지 않아 표준화 작업이 필요하다. 제안한 시스템은 기관 또는 다기관 연구 그룹의 의료영상데이터를 표준화하여 저장할 수 있을 뿐만 아니라 의료영상 뷰어 및 의료영상 리스트를 통해 연구자가 원하는 의료영상 데이터 셋을 검색하여 다양한 데이터셋으로 제공할 수 있기 때문에 수집 및 변환 그리고 관리까지 지원할 수 있는 시스템으로 영상기반의 머신러닝 연구에 활력을 불어넣을 수 있을 것으로 기대하고 있다.

The comparative analysis of image fusion results by using KOMPSAT-2/3 images (아리랑 2호/3호 영상을 이용한 영상융합 비교 분석)

  • Oh, Kwan Young;Jung, Hyung Sup;Jeong, Nam Ki;Lee, Kwang Jae
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.32 no.2
    • /
    • pp.117-132
    • /
    • 2014
  • This paper had a purpose on analyzing result data from pan-sharpening, which have applied on the KOMPSAT-2 and -3 image. Particularly, the study focused on comparing each relative spectral response functions, which considers to cause color distortions of fused image. Two images from same time and location have been collected by KOMPSAT-2 and -3 to apply in the experiment. State-of-the-art algorithms of GIHS, GS1, GSA and GSA-CA were employed for analyzing the results in quantitatively and qualitatively. Following analysis of previous studies, GSA and GSA-CA methods resulted excellent quality in both of KOMPSAT-2/3 results, since they minimize spectral discordances between intensity and PAN image by the linear regression algorithm. It is notable that performances from KOMPSAT-2 and- 3 are not equal under same circumstances because of different spectral characteristics. In fact, KOMPSAT-2 is known as over-injection of low spatial resolution components of blue and green band, are greater than that of the PAN band. KOMPSAT-3, however, has been advanced in most of misperformances and weaknesses comparing from the KOMPSAT-2.

Multi-Modal based ViT Model for Video Data Emotion Classification (영상 데이터 감정 분류를 위한 멀티 모달 기반의 ViT 모델)

  • Yerim Kim;Dong-Gyu Lee;Seo-Yeong Ahn;Jee-Hyun Kim
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.9-12
    • /
    • 2023
  • 최근 영상 콘텐츠를 통해 영상물의 메시지뿐 아니라 메시지의 형식을 통해 전달된 감정이 시청하는 사람의 심리 상태에 영향을 주고 있다. 이에 따라, 영상 콘텐츠의 감정을 분류하는 연구가 활발히 진행되고 있고 본 논문에서는 대중적인 영상 스트리밍 플랫폼 중 하나인 유튜브 영상을 7가지의 감정 카테고리로 분류하는 여러 개의 영상 데이터 중 각 영상 데이터에서 오디오와 이미지 데이터를 각각 추출하여 학습에 이용하는 멀티 모달 방식 기반의 영상 감정 분류 모델을 제안한다. 사전 학습된 VGG(Visual Geometry Group)모델과 ViT(Vision Transformer) 모델을 오디오 분류 모델과 이미지 분류 모델에 이용하여 학습하고 본 논문에서 제안하는 병합 방법을 이용하여 병합 후 비교하였다. 본 논문에서는 기존 영상 데이터 감정 분류 방식과 다르게 영상 속에서 화자를 인식하지 않고 감정을 분류하여 최고 48%의 정확도를 얻었다.

  • PDF

Development of ATSC2.0 8-VSB/MH Hybrid 3DTV Service Coverage Measuring and Analyzing Equipment (ATSC2.0 8-VSB/MH 융합형 3DTV 서비스 커버리지 측정 및 분석기 개발에 관한 연구)

  • Kim, Sung-Hoon;Jung, Kyeonghoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.11a
    • /
    • pp.31-32
    • /
    • 2016
  • 본 논문은 ATSC2.0 기반 8-VSB/MH 융합형 3DTV (A/104 Part 5 Service Compatible 3DTV using Main and Mobile Hybrid Delivery, A/104 part 5) 방식의 서비스 커버리지 및 음영지역을 예측할 수 있는 측정 및 분석시스템 개발에 대하여 기술 한다. ATSC2.0 기반 고정/이동 방송시스템은 8-VSB 로 전송되는 고정 TV 방송서비스(좌영상 전송)와 ATSC-MH 로 전송되는 in-band 모바일 방송서비스(우영상 전송)를 모두 수신하여 좌/우영상의 재생 및 동기화를 통해 융합형 3D 영상을 복원하게 된다. 따라서 융합형 3DTV 수신기는 고정 및 모바일 방송신호를 모두 수신하여야 융합형 3D 영상복원을 할 수 있으며, 방송사 입장에서 서비스 커버리지 측정을 하기위해서는 8-VSB 및 ATSC-MH 신호의 수신여부를 모두 측정하여야 한다. 본 논문에서는 이와 같은 RF 수신전계강도 파라미터 및 GPS 정보등을 실시간으로 모니터링하여, 시스템 사용자에가 융합형 3DTV 서비스 커버리지 측정 및 분석을 통해 서비스를 위한 RF 방송망 셀 구성 및 음영지역을 예측할 수 있는 ATSC2.0 융합형 3DTV 서비스 커버리지 분석기 구현에 대한 내용을 기술한다.

  • PDF

The Study of Satellite Image Fusion for the Guarantee of Optimal GIS Basic Data (최적의 GIS 기반자료 확보를 위한 위성영상 융합기법 연구)

  • Kim, Soo-Chul;Han, Jung-Hyun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.256-260
    • /
    • 2008
  • 위성영상으로부터 적절한 정보를 추출하여 GIS(지리정보시스템)의 기반자료로 활용하기 위해서는 공간해상도와 분광해상도가 모두 우수한 양질의 고해상 영상을 확보해야 한다. 그러나 현재 운영되고 있는 위성영상은 이 두가지를 모두 만족시키지 못하므로 본 연구에서는 위성영상 융합기술을 사용할 것을 제안하였다. 그리하여 IHS PCA Wavelet 등의 융합기술들을 실험하였고 두가지 해상도를 모두 만족시키는 고해상 영상을 생산할 수 있음을 보였다. 또한, 실험 결과를 시각적 정량적으로 평가하여 IHS 융합기법이 가장 우수한 결과를 나타냄을 보였다.

  • PDF