DOI QR코드

DOI QR Code

Extracting Flooded Areas in Southeast Asia Using SegNet and U-Net

SegNet과 U-Net을 활용한 동남아시아 지역 홍수탐지

  • Kim, Junwoo (Senior researcher, School of Earth and Environmental Sciences, Seoul National University) ;
  • Jeon, Hyungyun (Combined MS/PhD Student, School of Earth and Environmental Sciences, Seoul National University) ;
  • Kim, Duk-jin (Professor, School of Earth and Environmental Sciences, Seoul National University)
  • 김준우 (서울대학교 지구환경과학부 선임연구원) ;
  • 전현균 (서울대학교 지구환경과학부 석·박사통합과정생) ;
  • 김덕진 (서울대학교 지구환경과학부 정교수)
  • Received : 2020.10.12
  • Accepted : 2020.10.26
  • Published : 2020.10.31

Abstract

Flood monitoring using satellite data has been constrained by obtaining satellite images for flood peak and accurately extracting flooded areas from satellite data. Deep learning is a promising method for satellite image classification, yet the potential of deep learning-based flooded area extraction using SAR data remained uncertain, which has advantages in obtaining data, comparing to optical satellite data. This research explores the performance of SegNet and U-Net on image segmentation by extracting flooded areas in the Khorat basin, Mekong river basin, and Cagayan river basin in Thailand, Laos, and the Philippines from Sentinel-1 A/B satellite data. Results show that Global Accuracy, Mean IoU, and Mean BF Score of SegNet are 0.9847, 0.6016, and 0.6467 respectively, whereas those of U-Net are 0.9937, 0.7022, 0.7125. Visual interpretation shows that the classification accuracy of U-Net is higher than SegNet, but overall processing time of SegNet is around three times faster than that of U-Net. It is anticipated that the results of this research could be used when developing deep learning-based flood monitoring models and presenting fully automated flooded area extraction models.

홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생 기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 딥러닝은 전통적인 영상분류기법들에 비해 보다 정확도가 높은 위성영상분류기법으로 주목받고 있지만, 광학영상에 비해 홍수 발생 시 위성영상의 취득이 용이한 SAR 영상의 분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 활용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1 A/B 위성영상으로부터 침수지역 추출을 실시하였다. 분석결과 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타났다. 국지적 분류결과 확인을 위한 육안검증에서 U-Net이 SegNet에 비해 보다 높은 분류 정확도를 보여주었지만, 모델의 훈련에 필요한 시간은 67분 17초와 187분 19초가 각각 소요되어 SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다. 본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델과 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 기법의 제시를 위한 중요한 참고자료로 활용될 수 있을 것으로 판단된다.

Keywords

요약

홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생 기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 딥러닝은 전통적인 영상분류기법들에 비해 보다 정확도가 높은 위성영상분류기법으로 주목받고 있지만, 광학영상에 비해 홍수 발생 시 위성영상의 취득이 용이한 SAR 영상의 분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 활용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1 A/B 위성영상으로부터 침수지역 추출을 실시하였다. 분석결과 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타났다. 국지적 분류결과 확인을 위한 육안검증에 서 U-Net이 SegNet에 비해 보다 높은 분류 정확도를 보여주었지만, 모델의 훈련에 필요한 시간은 67분 17초와 187분 19초가 각각 소요되어 SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다. 본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델과 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 기법의 제시를 위한 중요한 참고자료로 활용될 수 있을 것으로 판단된다.

1. 서론

홍수는 갑작스레 발생하여 많은 인명과 재산의 손해를 발생시키는 대표적인 자연재해이다. 반복적으로 발생하는 이러한 홍수에 대응하고 발생 후 복구를 위한 피해 현황을 파악하기 위해 위성영상 기반의 원격탐사 기법의 적용 가능성이 평가되고 있다(Long et al., 2014; Manavalan, 2017).

원격탐사에 의한 홍수 피해지역 탐지에 관한 연구에 광학영상과 SAR(Synthetic Aperture Radar)영상이 활용되고 있지만(Pulvirenti et al., 2011), 홍수 발생 시 위성영상을 활용하여 침수된 지역을 추출하는 것은 홍수 발생기간 내의 위성영상 취득과 영상에 나타난 침수구역의 정확한 분류 등에서 많은 어려움이 존재한다. 광학영상은 수계분류에서 비교적 높은 정확도를 나타내지만, 홍수 발생 후 신속한 대응을 위한 위성영상의 취득에서 기상상태와 광량에 의해 영상의 취득과 활용도가 제한된다. 대상지역에 직접 마이크로파를 방출하여 산란된 신호의 특성을 감지하는 능동센서(active microwave sensors)인 SAR는 기상상태와 광량에 크게 영향을 받지 않고 영상의 취득이 가능하지만, 주변 환경조건과 바람에 의한 수계표면 상태변화 등이 영상분석을 통한 수계 추출 과정에서 불확실성을 높이는 것으로 알려져 있다(Greifeneder et al., 2014).

딥러닝은 최근 위성영상의 분석에서 기존의 위성영상 분석방법보다 더 정확도가 높은 분석결과를 제공할 것으로 주목받고 있으며, 원격탐사 분야의 연구에서 딥러닝 모델들은 영상분류와 분할, 영상내 객체의 탐지 등에 적용 되었다(Li et al., 2018; Ma et al., 2019). 해외의 일부 연구에서 딥러닝 기법을 적용하여 SAR 영상으로부터 수계추출을 시도하였지만(Kang et al., 2018), 광학영상에 비해 홍수발생시 위성영상의 취득에서 장점을 가지는 SAR 영상의 딥러닝 기법에 의한 영상 내 객체분류 잠재력은 아직 명확히 규명되지 않아 추가적인 연구를 필요로 한다. 특히 Sentinel-1 SAR 위성영상에 의미론적 영상 분할(semantic image segmentation) 딥러닝 모델을 적용하여 홍수탐지를 위한 수계추출을 시도한 연구는 극소수만이 발견된다(Nemni et al., 2020).

따라서 본 연구는 대표적인 의미론적 영상 분할을 위한 딥러닝 모델인 SegNet과 U-Net을 적용하여 동남아시아의 태국, 라오스, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)에 대해 Sentinel-1A/B 위성영상으로부터 침수지역 추출을 실시하고, 이러한 과정을 통해 두 딥러닝 모델을 활용한 SAR영상으로부터의 침수지역 추출 가능성을 평가하였다.

2. 연구지역과 위성영상의 취득/전처리

본 연구에서는 SAR 영상을 활용한 딥러닝 기반의 침수지역 추출 가능성을 확인하기 위해 동남아시아에서도 우기 동안 빈번한 홍수가 발생하는 태국, 라오스, 필리핀의 치–문강 유역(Chi-Mun river basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)을 연구지역으로 선정하였다(Fig. 1). 메콩강은 동남아시아에서, 그리고 카가얀강은 필리핀에서 가장 길이가 긴 강이며, 매년 홍수가 빈번하게 발생하는 대표적인 강이다. 태국 북동쪽에 위치한 이산지역의 코랏고원(Khorat plateau)을 따라 흐르며, 메콩강의 지류이기도한 문강(Mun river)의 중심지류인 치강(Chi river)의 코랏유역(Khorat basin) 또한 우기 동안에 넓은 지역이 침수피해를 반복적으로 겪는 것으로 알려져 있다. 세 지역은 고원과 평지, 산악지형에 둘러싸인 유역이라는 각기 다른 특징 또한 가지고 있어, 대상지역의 지형적 환경에 따라 다른 신호특성을 보여줄 수 있는 SAR 영상을 활용한 딥러닝 모델의 평가에 적합할 것으로 판단되었다.

OGCSBN_2020_v36n5_3_1095_f0001.png 이미지

Fig. 1. Research areas and satellite images for this research (Red boxes ‘a’~‘c’ indicate the Mekong region in Laos, Cagayan basin in the Philippines, and Khorat basin in Thailand, respectively), and corresponding insets show Sentinel-1 A/B SAR images for testing and validating the SegNet and U-Net models employed for flooded area extraction. Major cities in the three basins are shown in white in the insets).

딥러닝 모델의 학습과 예측을 위한 SAR 위성영상으로 유럽우주국(European SpaceAgency: ESA)에서 무료로 제공하는 Sentinel-1 A/B 위성영상을 활용하였다(Fig. 1). Sentinel-1 A와 B 위성은 180도의 위상차이로 동일한 지역을 12일의 주기로 각각 재방문하므로 Sentinel-1 위성은 6일의 비교적 높은 주기해상도(temporal resolution)를 가진다. ESA의 표준화된 자료제공 형식인 Interferometric Wide(IW) swath 모드의 Ground Range Detected High-resolution(GRDH) 형태의 SAR 자료는 신속한 데이터의 분석이 요구되는 홍수탐지를 위해 비교적 간단한 전처리 과정을 필요로 한다.

3개의 sub-swaths를 가지는 TOPS(Terrain Observation with Progressive Scans in azimuth) 모드의 IW GRD High Resolution의 빔(beam) 모드별 range와 azimuth 방향의 공간해상도(spatial resolution)는 약 20.4×22.5 m와 20.3×22.6 m이며, Pixel spacing은 10×10 m이다. 따라서 단일 영상이 커버하는 약 250 km의 주사폭에 비교해 single look에서 상대적으로 높은 5 m×20 m의 공간해상도를 가진다. 29.1°-46.0° 범위의 입사각(Incidence angle)과 56.5-42.8Hz의 Chirp Bandwidth에서 취득된 자료는 픽셀별로 16 비트(bits)의 값을 가지는 싱글(HH 또는 VV) 혹은 듀얼(HH+HV 또는 VV+VH) 편광(polarization)의 형태로 제공된다.

연구에서는 침수영역 추출을 위해 세 지역에 대한 홍수 발생 전과 발생 중의 6장의 Sentinel-1 A/B SAR 위성영상이 활용되었으며(Table 1), 딥러닝 모델 학습을 위한 훈련자료의 제작을 위해 동남아시아 지역에 대해 추가로 Sentinel-1 위성영상이 취득되었다. 취득된 위성영상은 방사보정과 기하보정의 Sentinel-1 A/B SAR 위성영상의 분석을 위한 전형적인 전처리 절차를 거쳤으며, 전처리 과정에서 수계탐지에 VH편광 보다 높은 정확도를 보여준다고 알려진 VV편광을 가지는 밴드만을 추출하여 후방산란계수를 산정하였다(Twele et al., 2016).

Table 1. Sentinel-1 A/B images used for this research

OGCSBN_2020_v36n5_3_1095_t0001.png 이미지

3. 연구 방법

1) SegNet과 U-Net

본 연구에서는 동남아시아의 대표적인 홍수 발생지역의 침수영역을 추출하기 위해 대표적인 의미론적 영상 분할 기반의 딥러닝 모델인 SegNet과 U-Net을 활용하였다(Fig. 2). Convolutional Neural Network(CNN)의 일종인 SegNet과 U-Net은 모델의 특성으로 인해 영상내 객체의 분할에서 픽셀 수준의 분류가 가능하여 다른 CNN기반의 기법들과는 달리 최종 분류 결과물의 해상도가 입력자료와 동일하게 유지된다.

OGCSBN_2020_v36n5_3_1095_f0002.png 이미지

Fig. 2. Architecture of SegNet and U-Net (source: Badrinarayanan et al., 2017; Ronneberger et al., 2015).

Convolution 레이어와 pooling 레이어로 구성된 인코더 네트워크(encoder network)에 상응하는 디코더 네트워크(decoder network)를 가지는 SegNet은 합성곱(convolutional) 기반의 딥러닝 모델이지만, 완전히 연결된(fully connected) 층을 가지지 않는다(Yang et al., 2020). SegNet은 낮은 밀도의 특징지도 생성을 위해 인코더로부터 제공된 pooling 지수를 사용하여, 업샘플링(upsampling) 레이어와 convolution 레이어로 이루어진 디코더가 입력 자료의 비선형 업샘플링을 실시한다. 업 샘플된 특징지도의 밀도를 높이기 위해 훈련 가능한 필터로 convolution을 수행하며, 디코드된 최종 특징지도는 픽셀 수준의 분류를 위해 입력 자료를 확률분포로 표준화하는 soft-max classifier에 입력되어 최종 분류된다(Badrinarayanan et al., 2017).

SegNet과 유사한 인코더–디코더의 모델 구조를 가지는 U-Net은 생물의학영상의 분할을 위해 개발되었지만, 도시특성의 분류에도 폭넓게 적용되고 있으며(Du et al., 2020), 적은 숫자의 훈련자료로도 높은 분류 정확도를 나타내는 것으로 알려져 있다(Wang et al., 2020). U-Net은 convolution 과정을 통해 입력 자료로부터 다 채널 특징지도를 생성하며, max-pooling 과정에서 저하된 해상도의 복원을 위해 인코더 과정에서 복사된 특징 지도를 활용하는 up-convolution 과정을 디코더 과정에서 거친다(Ronneberger et al., 2015).

2) 훈련자료 제작 및 딥러닝 코드 개발

딥러닝 모델의 훈련을 위한 학습 자료는 육안판독(visual interpretation)에 의한 픽셀 수준의 레이블링(labeling)을 통해 제작되었다(Pashaei et al., 2020). 이 과정에서 학습자료 제작의 정확도를 높이기 위해 대상지역의 수치지도와 구글어스 영상이 참조자료로 사용되었다. 전처리 된 Sentinel-1 A/B 위성영상을 수계를 포함하는 지역에 대해 1000×1000의 픽셀 크기를 가지는 영상 패치(image patch)로 분할한 후 육안판독을 통한 비교와 manual digitizing을 거쳐 약 100장의 수계(water)와 비수계(non-water)로 분류된(labeled) 영상을 제작하였으며, 참조자료를 활용한 육안판독에 의한 재검증을 통해 분류 정확도가 높다고 판단된 41장을 두 모델의 학습을 위한 입력 자료로 사용하였다(Fig. 3).

OGCSBN_2020_v36n5_3_1095_f0003.png 이미지

Fig. 3. Examples of 1000 × 1000-sized training data produced for this research (satellite image patches (top) and labeled images (bottom)).

최종적으로 학습에 적용된 패치의 사이즈는 두 모델의 구현 특성에 의거한 640×640이며, 이러한 과정을 위해 분할된 위성영상 패치와 분류된(labeled) 이미지 파일을 매칭하는 코드와 분석될 Sentinel-1 위성영상을 분할하는 코드는 Python과 Matlab을 기반으로 직접 개발되었다. 또한 학습된 모델의 적용을 통해 예측된 최종 분류된 결과 이미지를 다시 원본 영상의 크기로 모자이킹하는 코드는 처리시간 최소화를 위해 자동 구동되도록 Python을 기반으로 개발되었다.

3) 딥러닝 모델 훈련과 예측

본 연구에서는 기존의 SegNet과 U-Net과 동일한 architecture를 활용하였지만, 두 딥러닝 모델의 실행 과정을 직접코딩을 통해 개발하였으며, 모델 구현을 위한 반복적인 테스트를 통해 네트워크의 구조를 결정하는 분석에 최적화된 하이퍼파라미터(hyper-parameters)를 설정하였다. 두 모델에 적용된 activation fuction은 ReLU이며, 인코더의 깊이는 5, convolution을 위한 커널의 크기는 3×3이다. pooling은 2×2 크기에서 실행되었으며, stride는 인코딩과 디코딩의 단계에서 convolution은 1, pooling은 2로 설정되었다. SegNet과 U-Net의 learning rate는 0.001로 설정되었으며, 두 모델의 총 층의 개수는 각각 73개와 58개이다.

두 모델 훈련의 최대 epoch는 200회, 각 epoch당 iteration은 5로 설정되었으므로, 학습을 위한 최대 iteration은 1000회이다. 훈련의 검증빈도(validation frequency)는 매 20 iteration으로 설정하였으며, 훈련은 처리시간의 단축을 위해 검증기준(validation criterion)으로 설정된 손실값(loss)의 향상이 4회 이상 없을 시 자동으로 훈련을 종료하도록 설정하였다.

딥러닝 모델의 훈련과 대상지역에 대해 취득된 Sentinel-1 위성영상의 적용을 통한 침수지역의 추출 전 과정은 클라우드 기반의 유연적 컴퓨팅 플랫폼인 AWS(Amazon Web Services)에서 실행되었다. AWS는 4개의 CPU를 가지는 p2.xlarge 인스턴스를 사용하였으며, 연구 과정 전반에 걸쳐 사용된 GPU는 Nvidia Tesla K80이다. 학습에는 12GB의 GPU 메모리 중 약 11GB 정도가 사용되었다.

4) 모델 성능과 분류 정확도 평가

의미론적 영상 분할을 위한 딥러닝 모델의 종합적 성능은 주로 픽셀 수준의 전체 분류 정확도, 처리시간, 그리고 메모리 사용량으로 평가되며, 대부분의 딥러닝을 통한 의미론적 분할의 결과는 Mean Intersection-OverUnion(이하 Mean IoU) 혹은 Pixel Accuracy metrics로 그 정확도가 평가되었다(Goutte and Gaussier, 2005; Csurka et al., 2013; Fernandez-Moral et al., 2018; Pashaei et al., 2020).

본 연구에서는 제작된 훈련자료를 훈련의 시작 시점에서 6:2:2 비율로 무작위로 training, validation, testing sets로 분류하여 전체 분류 정확도의 평가에 용이한 Global Accuracy, Mean IoU, Mean Boundary F1 score(이하 Mean BF score)를 산정하였다.

홍수는 그 발생 특성으로 인해 침수 시기의 지상참조자료를 확보하기가 용이하지 않다. 따라서 본 연구에서는 최종산출물의 국지적인 수준의 분류 정확도를 추가로 확인하기 위해 딥러닝 기법을 통한 분류결과에 대한 육안검증을 실시하였다. 이를 위해 홍수 발생전의 평상시 수위 위성영상의 분류결과를 해당 지역의 수위 자료, 수치지도, OpenStreetMap, 그리고 Bing map과 비교하였다. 이를 통해 Global Accuracy, Mean IoU, Mean BF score로는 명확히 평가하기 힘든 국지적 수준의 SegNet과 U-Net의 분류결과를 정성적으로 비교 분석하였다. 육안검증과정에서 사용된 수위자료는 우기(6~8월) 동안 매일 제공되는 Mekong River Commission의 자료를 사용하였으며, 하천과 호수의 수치지도 레이어는 OpenDevelopmentMekong에서 취득되었다.

4. 결과

본 연구를 위해 제작된 훈련자료를 활용하여 SegNet과 U-Net 딥러닝 모델을 각각 훈련 시켰다. SegNet은 최대 200회로 설정된 epoch중 196회, 그리고 1000회의 iteration중 980회에서 학습이 종료되었다(Fig. 4). SegNet의 validation accuracy는 97.68%로 나타났으며, 총 훈련에는 67분 17초가 소요되었다. U-Net은 최대 200회로 설정된 epoch중 144회, 그리고 1000회의 iteration중 720회에서 학습이 종료되었다. 입력자료중 ‘validation dataset’으로 산정된 U-Net의 validation accuracy는 99.05%로 나타났으며, 총 훈련에는 187분 19초가 소요되어 SegNet에 비해 높은 validation accuracy를 보여주었지만, 총 훈련 시간은 약 3배가량 많이 소요되었다.

OGCSBN_2020_v36n5_3_1095_f0004.png 이미지

Fig. 4. Training progress of SegNet and U-Net (each image shows: (a) validation accuracy of SegNet, (b) Loss of SegNet, (c) validation accuracy of U-Net, (d) Loss of U-Net).

학습이 완료된 두 모델을 활용하여 취득된 Sentinel-1 영상으로부터 수계 추출을 실시하였으며(Fig. 5), 새로운 영상을 분석하는데 소요된 시간은 두 모델 모두 약 10여분 정도로 유사하게 나타났다. 모델들을 평가하기 위해 입력자료중 ‘test dataset’이 적용된 Global Accuracy, Mean IoU, Mean BF Score를 두 모델에 대해 산정하였다(Table 2). SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타나, U-Net이 전체적으로 더 높은 Global Accuracy, Mean IoU, Mean BF Score를 보여주었다.

OGCSBN_2020_v36n5_3_1095_f0005.png 이미지

Fig. 5. Segmentation results of SegNet and U-Net (the red boxes a~f above show water bodies in the three regions before and during flood. (a) SegNet Khorat basin, (b) SegNet Mekong region, (c) SegNet Cagayan basin, (d) U-Net Khorat basin, (e) U-Net Mekong region, (f) U-Net Cagayan basin).

Table 2. Segmentation accuracy of SegNet and U-Net

OGCSBN_2020_v36n5_3_1095_t0002.png 이미지

국지적 분류결과 확인을 위한 육안검증에 의한 분류 정확도 확인 결과 U-Net이 SegNet에 비해 상대적으로 더 정밀한 수계추출 결과를 제공하는 것으로 나타났다(Fig. 6). 분석결과인 이진 분류된 영상은 OpenStreetMap과 BingMap에중첩/비교되었으며,MekongRiverCommission의 수위자료는 실제 영상 취득 날짜의 하천 유량을 파악하여 육안검증과정에서 정성적 평가를 위한 추가정보를 제공하였다. 하천과 호수의 지리적 위치와 경계는 수치지도 레이어와 비교되었는데, 상이한 지형적 특성을 가지는 세 지역에 대한 SegNet의 분석결과는 참조자료를 활용한 비교/검증에서 수계의 과소 혹은 과대 탐지, 그리고 소규모 하천과 범람지역의 미탐지 경향이 U-Net에 비해 높은 것으로 나타났다.

OGCSBN_2020_v36n5_3_1095_f0006.png 이미지

Fig. 6. Examples of evaluating classification results by visual inspection (insets ‘a’~‘d’ show classified waterbody around the Pakse region before flood, and ‘e’ and ‘f’ are digital maps overlaid on ‘OpenStreetMap’ and ‘Bing satellite imagery’, respectively. See the dotted boxes in the images ‘a’~‘d’ for comparing classification results of SegNet and U-Net. Insets ‘a’~‘b’ are overlaid on ‘Bing satellite imagery’, and ‘c’~‘d’ are overlaid on ‘OpenStreetMap’).

따라서 두 딥러닝 모델에 의한 홍수 전과 홍수 중의 두시기 위성영상의 분류결과를 차분하여 생성된 침수 지역 추출의 결과에서도, 입력된 영상 분류결과 정확도의 차이로 인해, 비수계에서 수계, 수계에서 비수계, 변화 없음에 대한 변화탐지 분석결과가 단일영상의 분석보다 더 과소 혹은 과대 산정될 수 있어, SegNet의 최종 침수지역 추출 불확실성이 U-Net에 비해 높은 것으로 판단된다(Fig. 7).

OGCSBN_2020_v36n5_3_1095_f0007.png 이미지

Fig. 7. Flooded areas extracted using SegNet and U-Net (the red boxes a~f above show flooded areas in the three regions. (a) SegNet Khorat basin, (b) SegNet Mekong region, (c) SegNet Cagayan basin, (d) U-Net Khorat basin, (e) U-Net Mekong region, (f) U-Net Cagayan basin).

5. 토의

광학영상에 비해 홍수 발생 시 위성영상의 취득에서 장점을 가지는 Sentinel-1 SAR 위성영상에 의미론적 영상 분할(semantic image segmentation) 딥러닝 모델을 적용하여 홍수탐지를 위한 수계추출을 시도한 연구는 소수에 불과해 딥러닝 기법에 의한 영상내 객체분류 잠재력은 아직 명확히 규명되지 않았다. 본 연구는 Sentinel1 A/B 위성영상에 의미론적 영상 분할 모델인 SegNet과 U-Net을 적용하여 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 그리고 카가얀강 유역(Cagayan river basin)의 침수지역 추출을 실시하였다.

분석결과 세 지역에 대한 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타나, U-Net이 영상분류 정확도 측면에서 상대적으로 더 높은 모델 성능을 보여주었다. 하지만 분류정확도를 평가하는 Global Accuracy, Mean IoU, Mean BF Score, 이 세 지표는 상이한 측면을 서로 다른 기준으로 평가하고 있어 선행연구에서도 다양한 지표를 도입해 분류 정확도를 평가하고 있다(e.g., Yang et al., 2020). 또한 세 지표를 통한 분류결과 평가는 어떤 ground truth data를 어떻게 활용하느냐에 따라 그 결과 값이 차이를 보일 수 있어 어느 한 지표가 모델에 의한 분류결과를 완벽히 평가하지 못하는 것으로 판단된다. 이런 점들을 감안하여 본 연구에서는 추가적인 육안검증을 실시하였다. 대상지역의 수위자료, 수치지도, OpenStreetMap, 그리고 Bing map 등을 참조자료로 활용한 국지적 분류결과 확인을 위한 육안검증에서도 U-Net이 SegNet에 비해 과대/과소탐지와 오탐지, 미탐지 측면에서 보다 높은 분류 정확도를 보여주는 것으로 평가되었다. 이것은 U-Net이 투입되는 학습자료의 양에 비교적 적게 영향을 받으며, 모델 자체의 예측성능 또한 SegNet에 비해 비교적 높은 것에 기인하는 것으로 판단된다.

Fig. 7에 제시된 홍수 변화탐지의 결과는 해당 결과 이미지에 대한 별도의 정량적 정확도 평가를 실시한 것이 아니며, 입력 자료로 사용된 홍수 전 분류결과와 홍수 후 분류결과의 분류 정확도를 바탕으로, 두 입력 자료의 차분영상으로 생성된 탐지 결과 이미지를 단순 평가한 것이다. 따라서 변화탐지로 생성된 침수지역 추출 결과의 해석은 홍수발생시 지상검증자료 획득의 어려움으로 인해 비교적 높은 불확실성을 내포한다. 특히 Water to non-water는 산악지형에서 주로 탐지가 되었는데, 이를 해석할 수 있는 정확한 물리적 현상을 추론하기는 쉽지 않으며, 영상 분류결과의 세 가지 지표에 의한 정확도를 감안할 때, 오분류된 지역일 가능성 또한 존재하는 것으로 판단된다. 향후 이러한 사실들을 보다 명확히 검증할 수 있는 새로운 정확도 평가 방법이나 지상참조자료의 활용이 필요할 것으로 판단된다.

SegNet과 U-Net의 훈련에 소요된 시간은 67분 17초와 187분 19초로 나타나, SegNet이 U-Net에 비해 약 3배정도 빠른 처리속도를 보여주었지만, 두 모델의 훈련이 완료된 후 학습된 모델을 적용하여 새로운 Sentinel-1 영상을 분석하는데 소요되는 시간은 약 10여분 정도로 유사하게 나타났다. 따라서 모델의 훈련이 필요하지만 신속성을 요구하는 홍수탐지에는 SegNet의 활용이 가능할 것으로 판단되며, 신속성에 비해 높은 정확도가 요구되거나 모델의 재학습이 필요하지 않은 경우에는 U-Net이 보다 적합할 것으로 판단된다. U-Net은 사전에 취득된 충분한 양의 훈련자료 적용을 통해 미리 학습된 모델로 구축된 Sentinel-1 영상기반의 홍수탐지 모델의 실용적 활용에 높은 적용 가능성을 가지는 것으로 사료된다.

본 연구는 노동집약적인 딥러닝 모델학습을 위한 훈련자료 제작의 특성으로 인해 비교적 적은 숫자의 훈련자료를 활용하였지만, 모델학습에 사용된 훈련자료의 양에 비해 위성영상의 분류결과는 비교적 높은 것으로 판단된다. 하지만 SegNet이나 U-Net과 같은 의미론적 영상 분할 모델의 적용에서 보다 높은 분류 정확도를 확보하기 위해서는 더 많은 학습자료의 활용이 필요할 것으로 판단 된다. 따라서 보다 정확한 침수지역 추출을 위해서는 수치지도나 토지피복도를 활용한 자동화된 학습자료 추출 기법의 개발을 통한 대용량 훈련자료의 확보가 필요할 것으로 판단되며, 위성영상의 확보, 보조자료의 활용, 데이터 베이스의 구축, 딥러닝 모델의 적용을 포함하는 보다 개선된 딥러닝과 SAR 위성영상 기반의 홍수탐지 모델의 제시가 필요할 것으로 판단된다. 추가로 딥러닝 기법을 적용한 SAR 영상기반의 홍수탐지 모델을 실무적으로 활용을 위해서는 위성영상의 확보와 분석을 포함하는 전과정의 자동화 또한 요구될 것으로 판단된다.

6. 결론

SAR 위성영상에 딥러닝 기법을 적용하여 홍수 발생시 침수된 지역을 추출하는 것은 분류 잠재력의 검증과 향상 측면에서 더 많은 연구가 요구된다. 본 연구는 Sentinel-1 A/B 위성영상에 의미론적 영상 분할 모델인 SegNet과 U-Net을 적용하여 동남아시아의 라오스, 태국, 필리핀의 대표적인 홍수 발생지역인 코랏 유역(Khorat basin), 메콩강 유역(Mekong river basin), 카가얀강 유역(Cagayan river basin)의 침수지역 추출을 시도하였다.

세 지역에 대한 침수지역 탐지에서 SegNet의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9847, 0.6016, 0.6467로 나타났으며, U-Net의 Global Accuracy, Mean IoU, Mean BF Score는 각각 0.9937, 0.7022, 0.7125로 나타나, U-Net이 영상분류 정확도 측면에서 상대적으로 더 높은 모델 성능을 보여주었다. 대상지역의 수위자료, 수치지도, OpenStreetMap, 그리고 Bing map 등을 참조자료로 활용한 국지적 분류결과 확인을 위한 육안검증에서도 U-Net이 SegNet에 비해 과대/과소탐지와 오탐지, 미탐지 측면에서 보다 높은 분류 정확도를 보여주는 것으로 평가되었지만, SegNet과 U-Net의 훈련에 소요된 시간은 67분 17초와 187분 19초로 나타나, SegNet이 U-Net에 비해 약 3배 정도 빠른 처리속도를 보여주었다.

본 연구의 결과는 향후 딥러닝 기법을 활용한 SAR 영상기반의 홍수탐지 모델의 제시와 실무적으로 활용이 가능한 자동화된 딥러닝 기반의 수계탐지 모델 구축을 위한 기초자료로 활용될 수 있을 것으로 판단된다.

사사

본 연구는 행정안전부 재난안전 산업육성지원 사업의 지원을 받아 수행된 연구임(no.20009742).

References

  1. Badrinarayanan, V., A. Kendall, and R. Cipolla, 2017. Segnet: A deep convolutional encoder-decoder architecture for image segmentation, IEEE transactions on pattern analysis and machine intelligence, 39(12): 2481-2495. https://doi.org/10.1109/TPAMI.2016.2644615
  2. Csurka, G., D. Larlus, F. Perronnin, and F. Meylan, 2013. What is a good evaluation measure for semantic segmentation?. BMVC, 27: 1-11.
  3. Du, L., G.W. McCarty, X. Zhang, M.W. Lang, M.K. Vanderhoof, X. Li, C. Huang, S. Lee, and Z. Zou, 2020. Mapping Forested Wetland Inundation in the Delmarva Peninsula, USA Using Deep Convolutional Neural Networks, Remote Sensing, 12(4): 644. https://doi.org/10.3390/rs12040644
  4. Fernandez-Moral, E., R. Martins, D. Wolf, and P. Rives, 2018. A new metric for evaluating semantic segmentation: leveraging global and contour accuracy, Proc. of 2018 IEEE intelligent vehicles symposium, Changshu, CA, Jun. 36-30, pp. 1051-1056.
  5. Goutte, C. and E. Gaussier, 2005. A probabilistic interpretation of precision, recall and F-score, with implication for evaluation, In European Conference on Information Retrieval Springer, Berlin, Heidelberg, pp. 345-359.
  6. Greifeneder, F., W. Wagner, D. Sabel, and V. Naeimi, 2014. Suitability of SAR imagery for automatic flood mapping in the Lower Mekong Basin, International Journal of Remote Sensing, 35(8): 2857-2874. https://doi.org/10.1080/01431161.2014.890299
  7. Kang, W., Y. Xiang, F. Wang, L. Wan, and H. You, 2018. Flood detection in gaofen-3 SAR images via fully convolutional networks, Sensors, 18(9): 2915. https://doi.org/10.3390/s18092915
  8. Li, Y., H. Zhang, X. Xue, Y. Jiang, and Q. Shen, 2018. Deep learning for remote sensing image classification: A survey, Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 8(6): e1264.
  9. Long, S., T.E. Fatoyinbo, and F. Policelli, 2014. Flood extent mapping for Namibia using change detection and thresholding with SAR, Environmental Research Letters, 9(3): 035002. https://doi.org/10.1088/1748-9326/9/3/035002
  10. Ma, L., Y. Liu, X. Zhang, Y. Ye, G. Yin, and B.A. Johnson, 2019. Deep learning in remote sensing applications: A meta-analysis and review, ISPRS Journal of Photogrammetry and Remote Sensing, 152: 166-177. https://doi.org/10.1016/j.isprsjprs.2019.04.015
  11. Manavalan, R., 2017. SAR image analysis techniques for flood area mapping-literature survey, Earth Science Informatics, 10(1): 1-14. https://doi.org/10.1007/s12145-016-0274-2
  12. Nemni, E., J. Bullock, S. Belabbes, and L. Bromley, 2020. Fully Convolutional Neural Network for Rapid Flood Segmentation in Synthetic Aperture Radar Imagery, Remote Sensing, 12(16): 2532. https://doi.org/10.3390/rs12162532
  13. Pashaei, M., H. Kamangir, M.J. Starek, and P. Tissot, 2020. Review and evaluation of deep learning architectures for efficient land cover mapping with UAS hyper-spatial imagery: A case study over a Wetland, Remote Sensing, 12(6): 959. https://doi.org/10.3390/rs12060959
  14. Pulvirenti, L., N. Pierdicca, M. Chini, and L. Guerriero, 2011. An algorithm for operational flood mapping from synthetic aperture radar (SAR) data based on the fuzzy logic, Natural Hazard and Earth System Sciences, 11: 529-540. https://doi.org/10.5194/nhess-11-529-2011
  15. Ronneberger, O., P. Fischer, and T. Brox, 2015. U-net: Convolutional networks for biomedical image segmentation. In International Conference on Medical image computing and computer-assisted intervention, Springer, Cham, CH, pp. 234-241.
  16. Twele, A., W. Cao, S. Plank, and S. Martinis, 2016. Sentinel-1-based flood mapping: a fully automated processing chain, International Journal of Remote Sensing, 37(13): 2990-3004. https://doi.org/10.1080/01431161.2016.1192304
  17. Wang, S., W. Chen, S.M. Xie, G. Azzari, and D.B. Lobell, 2020. Weakly Supervised Deep Learning for Segmentation of Remote Sensing Imagery, Remote Sensing, 12(2): 207. https://doi.org/10.3390/rs12020207
  18. Yang, M.D., H.H. Tseng, Y.C. Hsu, and H.P. Tsai, 2020. Semantic Segmentation Using Deep Learning with Vegetation Indices for Rice Lodging Identification in Multi-date UAV Visible Images, Remote Sensing, 12(4): 633. https://doi.org/10.3390/rs12040633