DOI QR코드

DOI QR Code

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성

Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection

  • 남윤지 ((주)쓰리디랩스 영상공학연구소) ;
  • 정성우 ((주)쓰리디랩스 영상공학연구소) ;
  • 김태정 (인하대학교 공간정보공학 ) ;
  • 이수암 ((주)쓰리디랩스 영상공학연구소)
  • Yunji Nam (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Sungwoo Jung (Image Engineering Research Center, 3DLabs Co., Ltd.) ;
  • Taejung Kim (Department of Geoinformatic Engineering, Inha University) ;
  • Sooahm Rhee (Image Engineering Research Center, 3DLabs Co., Ltd.)
  • 투고 : 2023.10.13
  • 심사 : 2023.10.21
  • 발행 : 2023.10.31

초록

위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

Time-series data generated from satellite data are crucial resources for change detection and monitoring across various fields. Existing research in time-series data generation primarily relies on single-image analysis to maintain data uniformity, with ongoing efforts to enhance spatial and temporal resolutions by utilizing diverse image sources. Despite the emphasized significance of time-series data, there is a notable absence of automated data collection and preprocessing for research purposes. In this paper, to address this limitation, we propose a system that automates the collection of satellite information in user-specified areas to generate time-series data. This research aims to collect data from various satellite sources in a specific region and convert them into time-series data, developing an automatic satellite image collection system for this purpose. By utilizing this system, users can collect and extract data for their specific regions of interest, making the data immediately usable. Experimental results have shown the feasibility of automatically acquiring freely available Landsat and Sentinel images from the web and incorporating manually inputted high-resolution satellite images. Comparisons between automatically collected and edited images based on high-resolution satellite data demonstrated minimal discrepancies, with no significant errors in the generated output.

키워드

1. 서론

위성영상의 경우 광범위한 정보를 주기적으로 신속하게 획득할 수 있다는 장점이 있다. 현재, 세계적으로 많은 수의 위성이 발사되고 운용되고 있으며, 미국의 위성들을 필두로 하여 수십, 수백 개의 위성을 운용되고 있다. 이로 인해 위성과 위성에서 얻은 다양한 데이터의 양이 급증하고 있으며, 이 데이터를 활용하고자 하는 수요가 점차 확대되고 있다.

위성영상의 공급이 빠르게 확대되고 있는 가운데, 군사적 용도에서부터 민간 분야까지 다양한 응용 분야에서의 위성데이터 활용에 대한 관심과 시도가 급증하고 있다. 특히 국내에서의 위성영상의 활용은 이전에 주로 군사 목적으로 사용되던 위성과는 다른 방식으로 활용되고자 하는 동향을 보이고 있다. 이러한 활용 분야는 도시 계획, 수자원 관리, 산림 감시, 시설물 모니터링, 그리고 산업 관리 등 다양한 분야에 걸쳐 있다. 국토위성(CAS-500)의 경우 사용자의 활용가능성을 높이기 위해 2023년부터 analysis ready data (ARD)를 생성하여 정밀기하보정 된 영상 데이터(Park et al., 2020a) 및 부가 자료를 도엽 단위로 제공하게 되었으며, 이를 통한 국내 위성데이터 확보가 용이해졌다. 이러한 동향을 반영하여 국토 관리의 효율성 향상과 민간 부문에서의 위성 활용 경쟁력을 강화하기 위해 다종 위성 정보와 부가 공간 정보를 활용한 위성 정보 빅데이터 기술 개발 연구가 진행 중에 있으며 이를 통해 위성영상과 관련된 다양한 데이터를 수집하고 분석하여 효율적인 응용 방법을 개발하는 노력이 진행중이다.

위성데이터를 활용하여 생성된 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 유용한 자료로 활용된다. 이러한 데이터는 시간에 따른 변화를 관찰하고 해석하는 데 핵심 역할을 하며, 이를 통해 해양·농업·도심 모니터링 등과 같은 여러 분야에서 활발하게 활용된다(Hyun and Kim, 2018; Kim et al., 2018). 시계열 데이터의 경우 데이터의 통일성을 위해 단일 영상을 분석하는 연구들이 다수 존재하고 있으며, 다종 영상을 활용한 연구들도 활발히 진행되고 있다.

그러나 다종 영상 기반으로 시계열 데이터를 활용한 연구에는 몇 가지 기술적인 과제가 존재한다. 이러한 데이터를 활용하기 위해서는 영상처리 소프트웨어 등의 도구를 이용한 입력영상의 별도의 기하보정이 필요하며, 영상 간의 좌표변환, 리샘플링, 그리고 서로 다른 해상도 영상 간의 공간해상도 일치 문제를 해결해야 한다. 다종 데이터의 연계를 위해 Ahn et al. (2020)은 KOMPSAT-3와 Landsat-8의 밝기값에 대한 교차 검보정을 수행하여 이러한 다종 영상을 활용한 시계열 데이터를 생성하는 방법을 연구하였으며, Park et al. (2020b)은 Sentinel-2 A/B 및 RapidEye와의 융합을 통해 시간 해상도와 공간 해상도가 높은 영상을 생성하는 방법론을 제안하였다.

그러나 이러한 선행 연구에서는 시계열 데이터를 생성하고 활용하기 위한 데이터 수집 및 가공 작업이 필요하다는 한계가 있다. 시계열 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 제공되지 않고 있으며, 시계열 공간 빅데이터를 서비스하는 방안에 대한 설계 및 샘플링 방안에 제시된 연구가 진행된 바 있으나(Kim et al., 2016), 시스템의 개발 및 데이터 적용을 통한 개선과 자동화가 필요하다.

본 논문에서는 이러한 필요성을 충족시키기 위해 사용자가 설정한 영역의 위성정보를 수집하여 시계열 데이터를 생성하는 기능을 제안한다. 이 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물로 만드는 것을 목표로 하며, 이를 위해 위성영상 자동수집 시스템을 개발한다. 본 시스템을 사용하여 시계열 데이터를 생성하고 그 결과와 활용 가능성을 확인해 보고자 한다.

2. 위성영상 자동수집 시스템 처리 과정

위성영상 자동 수집 시스템은 크게 위성영상 자동수집, 상대 기하보정 처리, 시계열 영상 및 시계열 비디오 영상 제작 세 가지 단계로 수행된다. 먼저, 영상의 자동 수집을 위해 사용자가 위성영상의 종류, 수집 기간, 수집 영역 등 영상 수집 조건을 설정한다.

영상 수집 조건 입력 후, 위성영상 자동 수집 모듈에서 웹 크롤링(Web Crawling) 기법을 사용하여 자동 수집을 수행하게 된다. 수집된 영상은 상대 기하보정 모듈을 통해 정밀 정사영상을 제작한다. 정사영상 제작이 완료되면 산출물 모듈 내 R, G, B 밴드합성을 수행하고 이후 좌표변환, 리샘플링, 관심영역 Crop 과정을 통해 시계열 위성영상 산출물을 생성한다.

본 시스템을 구성하는 각 단계에 대한 상세 흐름도는 Fig. 1과 같다.

OGCSBN_2023_v39n5_4_1085_f0001.png 이미지

Fig. 1. Flow chart for proposed method.

2.1. 위성영상 자동 수집

위성영상 자동 수집 모듈의 실행을 위해 먼저 사용자가 사용자 인터페이스를 통해 수집할 위성영상 종류, 데이터 수집 시기, 수집 영역을 설정한다.

본 모듈에서 수집 가능한 위성영상은 광학영상인 Landsat-8/9 operational land imager (OLI), Sentienl-2 A/B, 국토위성영상(CAS-500)이 있으며, synthetic aperture radar (SAR) 영상인 Sentinel-1이 있다. 해당 데이터는 현재 무료로 제공되고 있으며, 원격탐사 분야에서 가장 보편적으로 사용되고 있어 수집 대상 위성영상으로 선정하게 되었다. 두 번째, 자동 수집 모듈을 호출한다. 그런 다음, 웹크롤링을 활용하여 검색 조건에 맞는 영상을 검색한 후, 영상을 수집한다. 마지막으로, 수집한 위성영상을 사용자가 설정한 로컬 경로에 저장한다.

위성영상 자동 수집은 웹크롤링을 통해 설정한 영상 수집 조건에 적합한 위성영상을 자동으로 검색하여 수집한다. 본 모듈에 적용된 웹크롤링은 사용자가 원하는 최신의 대용량 데이터를 실시간으로 수집 가능하다는 장점이 있어 위성영상 자동 수집 기법으로 적용하였다. 본 시스템 내 웹크롤링 처리 단계는 Fig. 2와 같다.

OGCSBN_2023_v39n5_4_1085_f0002.png 이미지

Fig. 2. Flow chart for web-crawling method.

웹크롤링은 각 위성영상을 제공하고 있는 웹 페이지(URL)인 USGS Earth Explore, Copernicus Data Space, 국토정보 플랫폼에 접근한다. USGS Earth Explore의 경우, Landsat-8/9 OLI 영상을, Copernicus Data Space의 경우 Sentienl-2 A/B와 Sentiel-1 영상을, 국토정보플랫폼의 경우 국토위성영상의 수집이 가능하다.

이후, 사용자가 입력한 영상 수집 조건 값들을 각 플랫폼에 자동으로 할당하여 조건에 맞는 위성영상을 검색·수집한다. 마지막으로, 사용자가 설정한 로컬 경로에 수집된 영상을 저장한다. 설정 경로에 저장된 위성영상 데이터는 모두 압축파일 형태로 저장되며, Landsat-8/9 OLI는 TAR 형식, Sentienl-2는 ZIP 형식이다. 압축파일 형태의 데이터는 데이터 용량을 압축하여 빠른 속도로 데이터를 제공이 가능하다는 면에서 이점이 있다. 그러나 여러 데이터를 다운로드 받은 경우 압축해제 처리에 따른 번거로움이 따르므로 본 시스템에서는 압축해제 처리하여 데이터를 제공한다. Fig. 3은 본 시스템을 통해 자동 수집된 위성영상 데이터 예시를 나타낸다. 수집된 영상은 지정된 저장폴더에 서비스에서 제공되는 폴더 그대로 적용된다.

OGCSBN_2023_v39n5_4_1085_f0003.png 이미지

Fig. 3. Example of collected satellite imagery.

시스템은 영상의 자동/수동 수집 이후, 저장된 폴더의 키워드를 확인하여 각 위성에 맞는 모듈을 호출한다. Table 1은 시스템에서 인식 가능한 위성영상의 예시이다.

Table 1. Keyword setting based on satellite imagery folder names

OGCSBN_2023_v39n5_4_1085_t0001.png 이미지

2.2. 영상 정밀 기하보정

위성영상 자동 수집의 기준은 기하보정된 영상을 적용하는 것을 기반으로 하였다. 자동 수집 대상 위성영상인 Landsat-8/9 OLI 영상과 Sentinel-2 A/B 영상은 기하보정 처리가 완료된 영상이다. Landsat-8/9 OLI 영상과 Sentinel-2 A/B 영상의 경우 고해상도 영상과 중첩하였을 때 큰 조정 없이도 사용가능한 것을 확인하였다. Fig. 4는 고해상도 영상인 CAS-500 영상과 Sentinel-2 A/B 영상의 인접지역을 중첩 시킨 예시이며, 네모로 표시된 영역은 중첩영역을 확대한 결과를 보여준다. 두 영상 간에 해상도의 차이는 있으나 시각적으로 주요 객체들의 경계 부분에 큰 차이가 없음을 확인할 수 있다.

OGCSBN_2023_v39n5_4_1085_t0002.png 이미지

Fig. 4. CAS-500 images and Sentinel-2 A/B images: a visual comparison example.

최근 국토영상과 같은 영상은 자동 기준점 매칭 등의 기술을 적용하여 정밀 기하보정이 수행된 영상이 제공되나(Lee et al., 2020), 다수의 고해상도 위성영상에서 산출물로 제공되는 기하보정 영상의 경우, 초기 rational polynomial coefficient (RPC)와 digital elevation model(DEM)을 적용하여 보정되어 생성되므로 제공되는 정사영상의 정확도가 높지 않다. 이에 본 연구에서는 RPC와 함께 제공되는 고해상도 위성영상이 입력될 경우, 기준영상과의 상대 기하보정을 수행하여 영상을 조정하여 사용한다. 고해상도의 위성영상의 촬영 범위와 데이터 확보의 어려움을 감안하여 입력영상 중 Sentinel-2 A/B 영상을 레퍼런스로 하여 영상 간의 상대 기하보정을 수행한다. 상대 기하보정을 위한 타이포인트 추출은 scale invariant feature transform (SIFT) 기법을 기반으로 수행했으며(Lowe, 2004), 적용 결과로 보정된 RPC 정보를 활용하여 고해상도 영상의 리샘플링을 수행한다.

2.3. RGB 밴드합성

자동 수집 대상 영상들은 각자의 산출물 형태에 따라 폴더 구조와 파일명의 기준이 설정되어 있다. 각 산출 형태에 따라 RGB 밴드합성, 좌표변환, 리샘플링 및 Crop 영상 생성과 같은 단계가 수행된다. 예를 들어 Landsat8/9 OLI 영상의 경우 개별 단 밴드로 구성된 B2, B3, B4 밴드를 통합하여 하나의 영상으로 만드는 과정이 적용되고, Sentinel-2 A/B 영상의 경우 true colour images(TCI) 영상으로 알려진 RGB 밴드의 합성 결과를 사용한다. 이러한 기능은 새로운 위성데이터의 처리가 요구될 경우 해당 위성의 산출 형태에 맞추어 자동으로 적용되어야 한다. 위성영상은 16bit 영상으로 제공되므로, 화면 출력을 위해서는 8bit 3밴드 영상으로의 변환이 필요하다. 이를 위해 밴드별 이미지 스트레칭이 적용되며, 노이즈에 의한 보정 오차를 최소화하기 위해 99% 신뢰구간의 히스토그램을 이용하여 이미지 스트레칭을 수행했다.

2.4. 좌표변환 및 리샘플링

Landsat-8/9 OLI 및 Sentinel-2 A/B 영상과 같은 여러 관측 위성은 일반적으로 UTM 좌표계를 기반으로 하며 리샘플링을 통해 제공된다. 그러나 국내에서 운용되는 고해상도 위성영상인 국토위성영상은 UTM-K 좌표계를 사용한다. 따라서 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상 및 국내 위성영상을 통합하여 시계열 데이터를 생성하려면 동일한 좌표계를 사용하고 리샘플링을 수행해야 한다. 리샘플링의 기준 좌표계는 사용자의 입력에 따라 설정할 수 있다.

서로 다른 영상 간에 시계열 데이터를 생성하려면 좌표계 일치뿐만 아니라 각 영상의 이미지 크기와 공간해상도도 일치해야 한다. 이 연구에서는 저장 공간 효율성과 영상 간의 일관성 있는 시계열 데이터 생성을 위해 중간 수준의 위성 해상도를 기준으로 설정했다. 따라서 10 m 해상도의 Sentinel-2 A/B 영상을 기준으로 리샘플링을 수행하였으며 고해상도 위성영상의 경우 다운샘플링을, Landsat-8/9 OLI와 같은 저해상도 위성영상은 업샘플링을 수행하여 시계열 데이터를 생성했다. 부드러운 리샘플링 결과를 얻기 위해 Bicubic 보간법을 적용하여 결과를 생성했다.

이후 영상 Crop을 수행하며, 이때 입력되는 영역 정보는 초기 사용자가 설정된 사각 영역의 지상죄표로 적용된다. 수집한 영상에 대상 영역이 일부만 포함되어 있을 경우 해당 영역 범위는 유지한 상태로 밝기값은 Null 값으로 처리한다(Fig. 5).

OGCSBN_2023_v39n5_4_1085_f0004.png 이미지

Fig. 5. Examples of areas with null values: Sentinel-2 A/B.

3. 시계열 데이터 생성 결과

3.1. 대상 지역

본 논문에서는 아르헨티나 Olaroz 지역의 리튬 광산지역을 대상으로 하여 영상 수집을 수행하고, 이러한 영상 데이터를 UTM 좌표계로 변환하여 결과를 생성했다. Landsat-8/9 OLI 및 Sentinel-2 A/B 영상과 같은 여러 관측 위성은 일반적으로 좌표계로 변환하여 결과를 생성했다. 대상 지역의 좌표는 WGS84 경도 및 위도를 기준으로(–23.56584087, –66.74679293)이며, 이를 UTM 좌표계로 변환하면 남반구 Zone 19 기준(729979.13, 7392030.91)이다. 시계열 데이터 생성 지역은 중심에서 가로로 약 1.7 km, 세로로 약 2.7 km의 영역을 포함하고 있다(Fig. 6).

OGCSBN_2023_v39n5_4_1085_f0005.png 이미지

Fig. 6. Test area (Google Earth).​​​​​​​

3.2. 수집 영상

해당지역의 영상 수집을 위해 자체 개발된 시스템을 통해 Landsat-8/9 OLI 영상과 Sentinel-2 A/B 영상을 수집했다. 다음 Fig. 7은 수집된 영상의 예시와 영상에 포함되는 대상 영역을 표시한 것이다.

OGCSBN_2023_v39n5_4_1085_f0006.png 이미지

Fig. 7. This is a CollectedImageSample.(a) Landsat-8/9OLI(LC08_L2SP_232076_20200526_202008 20_02_T1). (b) Sentinel-2 A/B (S2A_MSIL2A_20200530T142741_N0500_R053_T19KGQ_20230510T11 5147.SAFE).​​​​​​​

시계열 데이터 생성을 위해 고해상도 영상은 미국의 군집위성인 BlackSky 영상을 확보하여 적용하였다. BlackSky 영상은 현재 약 60기의 위성체로 운영되고 있으며, 1 m 급의 공간해상도를 가지며 약 4.4 × 6.6 km의 영역을 촬영할 수 있다. Fig. 8은 대상 영역이 촬영된 BlackSky 영상의 예시이다.

OGCSBN_2023_v39n5_4_1085_f0007.png 이미지

Fig. 8. BlackSky image sample (BSG-113-20230511-110350-86829169-ortho).​​​​​​​

3.3. 시계열 데이터 수집 및 생성 결과

대상 영역 대비 수집 조건은 2020년부터 23년 5월의 영상들로 지정했으며, 그 결과 자동 수집으로 6장의 Landssat-8/9 OLI영상, 5장의 Sentienl-2 A/B 영상을 획득할 수 있었다. 추가적으로 수동으로 2장의 2023년 5월의 BlackSky 영상을 함께 처리하여 시계열 데이터의 생성을 수행했다. 수집된 영상은 개발 모듈을 거쳐 RGB 밴드합성 및 영역에 맞게 이미지 크롭 및 리샘플링을 수행한다. 이때 크롭된 이미지 파일은 원본 영상의 해상도에 맞추어 제작되며, 동영상 제작을 위한 결과물은 10 m 해상도의 Sentinel-2 A/B 영상에 맞추어 가공된다. Fig. 9는 시스템을 통해 수집되고 시계열 데이터로 구성된 영상 목록을 보여준다. 결과 이미지는 RGB 합성 결과를 기반으로 생성되었으며, Sentinel-2 A/B 영상은 TCI 영상의 밝기값을 적용하였다. 시간의 흐름에 따라 광산이 확대되는 것을 관찰할 수 있으며, 다종 위성영상들의 조합을 통해 시간상의 간격을 상대적으로 줄일 수 있는 시계열 데이터의 제작이 가능함을 확인하였다.

OGCSBN_2023_v39n5_4_1085_f0008.png 이미지

Fig. 9. Generated time-series data.

3.4. 기하정확도 확인

생성된 시계열데이터의 위치정확도 확인을 위해 대상영역에서 자연표적을 설정하고 해당점을 기준으로 고해상도 영상인 BlackSky 영상과 Landsat-8/9 OLI 그리고 Sentinel-2 A/B 영상의 위치정확도를 확인했다. 특징점은 영상 분석 소프트웨어를 이용하여 육안 수동으로 각 영상에서 획득했다(Fig. 10).

OGCSBN_2023_v39n5_4_1085_f0009.png 이미지

Fig. 10. Checkpoints for accuracy analysis.​​​​​​​

다음의 Table 2와 Table 3는 BlackSky 영상을 기준으로 측정된 정확도 분석 결과이다. 위치정확도 측정 결과, 먼저 Blacksky영상과 Landsat-8/9 OLI 영상 간 mean absolute error (MAE)는 X방향으로 9.21 m, Y방향으로 13.05 m, root mean square error (RMSE)는 X방향으로 11.04 m, Y방향으로 13.39 m인 것을 확인했다.

Table 2. Accuracy analysis result (Landsat-8/9 OLI)

OGCSBN_2023_v39n5_4_1085_t0003.png 이미지

Table 3. Accuracy analysis result (Sentinel-2 A/B)

OGCSBN_2023_v39n5_4_1085_t0004.png 이미지

그리고 Blacksky와 Sentinel-2 A/B 영상에서는 X방향으로 9.01 m, Y방향으로 12.40 m의 MAE를, X방향으로 11.74 m, Y방향으로 12.19 m의 RMSE를 확인했다. 해당 위치오차는 두 영상의 공간해상도를 고려할 때, 각 영상에서 2픽셀 이내의 오차를 나타낸다. 더 정확한 상대보정 및 정확도가 요구될 수 있지만, Sentinel-2 A/B 영상과 BlackSky 영상 사이에는 약 20배 정도의 해상도 차이가 있음을 고려할 때, 이 결과는 여러 다종 영상을 활용하여 시계열 데이터를 생성할 수 있는 가능성을 시사한다. 이 결과는 제안된 기법으로 생성된 다종 위성영상 간의 시계열 데이터가 정성적으로나 정량적으로 신뢰할 수 있음을 의미한다.

4. 결론 및 고찰

위성데이터를 활용한 시계열 데이터 연구는 오랜 시간 동안 진행되어 왔다. 그러나 시계열 데이터를 생성하기 위해서는 별도의 영상 처리 소프트웨어를 사용하여, 데이터 간 좌표변환 및 리샘플링 등과 같이 복잡한 전처리과정이 필요하여 다중 영상 데이터를 활용하기에 번거로움이 따른다는 문제점이 있었다.

이러한 문제점을 해결하기 위해 본 연구에서는 위성영상 자동 수집시스템을 개발했으며, 이 시스템을 사용하여 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있게 되었다.

위성영상 자동 수집 시스템을 이용한 다중 위성영상의 시계열 데이터 생성 실험을 통해 웹 상에서 무료로 제공되는 Landsat-8/9 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 BlackSky와 같은 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물의 생성이 가능했다.

이후에는 시계열 데이터 간의 상대적 위치오차를 최소화하기 위한 기술의 고도화 및 좌표가 획득되어 있지 않은 데이터 처리에 대한 연구 및 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열데이터의 생성방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용되면, 국토·농림·산업·해양분야에서 다양한 응용이 가능할 것으로 기대된다. 

사사

본 연구는 국토교통부/국토교통과학기술진흥원의 지원(과제번호: RS-2022-00155763)으로 수행되었으며, 이에 감사드립니다.

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

참고문헌

  1. Ahn, H., Na, S., Park, C., Hong, S., So, K., and Lee, K., 2020. Radiometric cross calibration of KOMPSAT-3 and Lnadsat-8 for time-series harmonization. Korean Journal of Remote Sensing, 36(6-2), 1523-1535. https://doi.org/10.7780/KJRS.2020.36.6.2.4
  2. Hyun, C.-U., and Kim, H., 2018. Arctic sea ice motion measurement using time-series high-resolution optical satellite images and feature tracking techniques. Korean Journal of Remote Sensing, 34(6-2), 1215-1227. https://doi.org/10.7780/KJRS.2018.34.6.2.6
  3. Kim, G. H., Jun, C. M., Jung, H. C., and Yoon, J. H., 2016. Providing service model based on concept and requirements of spatial big data. Journal of Korean Society for Geospatial Information Science, 24(4), 89-96. https://doi.org/10.7319/kogsis.2016.24.4.089
  4. Kim, T., Lee, W. H., and Han, Y., 2018. Analysis of thermal heat island potential by urbanization using Landsat-8 time-series satellite imagery. Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 36(4), 305-316. https://doi.org/10.7848/ksgpc.2018.36.4.305
  5. Lee, Y., Park, H., Kim, H.-S., and Kim, T., 2020. Analysis of geolocation accuracy of precision image processing system developed for CAS500. Korean Journal of Remote Sensing, 36(5-2), 893-906. https://doi.org/10.7780/KJRS.2020.36.5.2.4
  6. Lowe, G., 2004. Sift - The scale invariant feature transform. International Journal of Computer Vision, 60(2), 91-110. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  7. Park, H., Son, J.-H., Jung, H.-S., Kweon, K.-E., Lee, K.-D., and Kim, T., 2020a. Development of the precision image processing system for CAS-500. Korean Journal of Remote Sensing, 36(5-2), 881-891. https://doi.org/10.7780/KJRS.2020.36.5.2.3
  8. Park, S., Kim, Y., Na, S.-I., and Park, N.-W., 2020b. Evaluation of spatio-temporal fusion models of multi-sensor high-resolution satellite images for crop monitoring: An experiment on the fusion of Sentinel-2 and RapidEye images. Korean Journal of Remote Sensing, 36(5-1), 807-821. https://doi.org/10.7780/KJRS.2020.36.5.1.13