• 제목/요약/키워드: STARFM

검색결과 3건 처리시간 0.014초

재난 모니터링을 위한 Landsat 8호 영상의 구름 탐지 및 복원 연구 (Cloud Detection and Restoration of Landsat-8 using STARFM)

  • 이미희;천은지;어양담
    • 대한원격탐사학회지
    • /
    • 제35권5_2호
    • /
    • pp.861-871
    • /
    • 2019
  • Landsat 위성영상은 재난 피해 지역에 대해 주기적이며 광역적인 관측이 가능하여 재난 피해분석, 재난 모니터링 등 활용도가 증가하고 있다. 하지만 광학위성영상 특성상 구름으로 인한 결측된 영역으로 인해 주기적인 재난 모니터링에는 한계가 있어 결측된 영역의 복원 연구가 필요하다. 본 연구에서는 Landsat 8호 영상 취득 시 제공되는 QA밴드를 이용하여 구름 및 구름그림자를 탐지 및 제거하고, STARFM 알고리즘을 통해 제거된 영역의 영상 복원을 수행하였다. 복원된 영상은 기존의 영상 복원 방법으로 복원된 영상과 MLC 기법을 통해 정확도를 비교하였다. 그 결과, STARFM으로 인한 복원방법이 전체정확도 89.40%로, 기존의 영상 복원 방법보다 효율적인 복원방법임을 확인하였다. 따라서 본 연구결과를 통해 향후 Landsat 위성영상을 이용한 재난분석 수행 시 활용도를 높일 수 있을 것으로 기대된다.

식생 모니터링을 위한 다중 위성영상의 시공간 융합 모델 비교 (Comparison of Spatio-temporal Fusion Models of Multiple Satellite Images for Vegetation Monitoring)

  • 김예슬;박노욱
    • 대한원격탐사학회지
    • /
    • 제35권6_3호
    • /
    • pp.1209-1219
    • /
    • 2019
  • 지속적인 식생 모니터링을 위해서는 다중 위성자료의 시간 및 공간해상도의 상호 보완적 특성을 융합한 높은 시공간해상도에서의 식생지수 생성이 필요하다. 이 연구에서는 식생 모니터링에서 다중 위성자료의 시공간 융합 모델에 따른 시계열 변화 정보의 예측 정확도를 정성적, 정량적으로 분석하였다. 융합 모델로는 식생 모니터링 연구에 많이 적용되었던 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM)과 Enhanced Spatial and Temporal Adaptive Reflectance Fusion Model(ESTARFM)을 비교하였다. 예측 정확도의 정량적 평가를 위해 시간해상도가 높은 MODIS 자료를 이용해 모의자료를 생성하고, 이를 입력자료로 사용하였다. 실험 결과, ESTARFM에서 시계열 변화 정보에 대한 예측 정확성이 STARFM보다 높은 것으로 나타났다. 그러나 예측시기와 다중 위성자료의 동시 획득시기의 차이가 커질수록 STARFM과 ESTARFM 모두 예측 정확성이 저하되었다. 이러한 결과는 예측 정확성을 향상시키기 위해서는 예측시기와 가까운 시기의 다중 위성자료를 이용해야 함을 의미한다. 광학영상의 제한적 이용을 고려한다면, 식생 모니터링을 위해 이 연구의 제안점을 반영한 개선된 시공간 융합 모델 개발이 필요하다.

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.