DOI QR코드

DOI QR Code

Analysis of Availability of High-resolution Satellite and UAV Multispectral Images for Forest Burn Severity Classification

산불 피해강도 분류를 위한 고해상도 위성 및 무인기 다중분광영상의 활용 가능성 분석

  • Shin, Jung-Il (Research Center of Geoinformatic Engineering, Inha University) ;
  • Seo, Won-Woo (Department of Geoinformatic Engineering, Inha University) ;
  • Kim, Taejung (Department of Geoinformatic Engineering, Inha University) ;
  • Woo, Choong-Shik (Department of Forest Disaster Research, National Institute of Forest Science) ;
  • Park, Joowon (Department of Forestry, Kyungpook National University)
  • 신정일 (인하대학교 공간정보공학연구소) ;
  • 서원우 (인하대학교 공간정보공학과) ;
  • 김태정 (인하대학교 공간정보공학과) ;
  • 우충식 (국립산림과학원 산림방재연구과) ;
  • 박주원 (경북대학교 임학과)
  • Received : 2019.10.15
  • Accepted : 2019.11.22
  • Published : 2019.12.31

Abstract

Damage of forest fire should be investigated quickly and accurately for recovery, compensation and prevention of secondary disaster. Using remotely sensed data, burn severity is investigated based on the difference of reflectance or spectral indices before and after forest fire. Recently, the use of high resolution satellite and UAV imagery is increasing, but it is not easy to obtain an image before forest fire that cannot be predicted where and when. This study tried to analyze availability of high-resolution images and supervised classifiers on the burn severity classification. Two supervised classifiers were applied to the KOMPSAT-3A image and the UAV multispectral image acquired after the forest fire. The maximum likelihood (MLH) classifier use absolute value of spectral reflectance and the spectral angle mapper (SAM) classifier use pattern of spectra. As a result, in terms of spatial resolution, the classification accuracy of the UAV image was higher than that of the satellite image. However, both images shown very high classification accuracy, which means that they can be used for classification of burn severity. In terms of the classifier, the maximum likelihood method showed higher classification accuracy than the spectral angle mapper because some classes have similar spectral pattern although they have different absolute reflectance. Therefore, burn severity can be classified using the high resolution multispectral images after the fire, but an appropriate classifier should be selected to get high accuracy.

1. 서론

산불은 산림환경, 임산물과 산림에 인접한 건물, 시설물, 인명의 손실을 가져오는 재난이다. 통계에 의하면 우리나라는 2004년부터 2018년까지 6,588건의 산불이 발생하였고 총 11,065 ha의 피해면적과 약 3,000억원의 피해금액을 기록하였다(Korea Forest Service, 2019). 우리나라의 산불 발생원인은 자연발화는 매우 드물고, 실화가 주를 이룬다(Park et al., 2019; Lee et al., 2017). 특히 인화성 물질을 갖고 있는 소나무가 주로 분포하며, 봄철 낮은 강수량, 강한 바람 등의 기후 특성을 갖고 있는 동해안에서 대형 산불들이 지속적으로 발생하고 있다. 2019년 4월 강원도 고성-속초에서 약 1,200 ha와 강릉-동해에서 약 700 ha의 피해를 기록한 2건의 대형 산불이 발생하였다(Shin et al., 2019; Park et al., 2019). 산불은 산림의 식생과 더불어 토양의 유기물질과 수분을 태움으로써 산사태 등의 2차 피해의 위험을 내재하고 있다. 특히, 우리나라는 기후 특성상 봄철 산불 후 이어지는 장마와 폭우에 따른 산사태 위험이 매우 높아 신속하고 정확한 피해 조사가 필요하다.

위성영상은 산불 피해 분석에 있어 신속하게 획득할 수 있는 자료로 적극적으로 사용되고 있다. 산불 피해 면적 및 강도를 분석하는 전통적인 방법은 산불 전과 후에 분광지수(spectral indices)의 차이를 이용하는 것이다 (López-García and Caselles, 1991; Barbosa et al., 1999). 대표적으로 Normalized Difference Vegetation Index (NDVI), Normalized Burn Ratio (NBR)과 같은 분광지수가 산불 피해에 민감하게 반응하는 것으로 알려져 있다(Chafer et al., 2004; Epting et al., 2005; Collins et al., 2007; Tran et al., 2018). 최근 산불 피해강도에 민감하게 반응하는 단파 적외선(shortwave infrared, SWIR) 파장영역을 이용한 NBR 또는 Burned Area Index (BAI)가 NDVI에 비해 높은 정확도를 보인다는 보고가 있었고, SWIR 밴드를 포함하는 다양한 위성영상이 활용되고 있다(Amos et al., 2019; Filipponi, 2018; Chuvieco et al., 2002). Park et al. (2019)은 산림고사지수 (Forest Withering Index, FWI)를 개발 하고 Sentinel-2 영상에 적용하여 신속하게 고성-속초 산불과 강릉-동해 산불의 피해면적을 제시하였다. 위성영상은 신속하게 자료를 획득할 수 있다는 장점이 있지만, 영상의 해상도, 촬영 시점의 대기 상태에 따라 사용에 한계가 있을 수 있다.

최근 무인기의 대중화와 센서 기술의 향상으로 다양한 과학기술 분야에서 무인기의 활용이 증가하고 있다. 무인기 영상은 원하는 시기에 고해상도 영상 획득이 가능하며, 위성영상이나 항공영상에 비해 복사보정이 용이하다는 장점을 갖고 있다(Tang and Shao, 2015; Torresan et al., 2017; Sankey et al., 2017; Carvajal-Ramírez et al., 2019). 선행 연구들은 산불 피해강도 분석에 있어 무인기 영상의 높은 활용 가능성을 보고하고 있다(McKenna et al., 2017; Fraser et al., 2017; Fernando et al., 2018). 그러나, 산불은 언제, 어디에서 발생할지 예측하기 어렵다는 특징을 갖고 있어 무인기를 이용한 산불 피해 탐지 및 피해 강도 분석에 있어 대부분 산불 후 영상과 함께 부가자료를 이용하고 있다(Fernández-Guisuraga et al., 2018).

산불 피해 분석에 있어 피해 면적을 산정하는 것과 함께 산불 피해강도 분류를 통해 보상 및 복구 정책을 수 립하기 위한 기초자료 제공이 필요하다. 산불 피해강도 등급으로 많은 연구에서 Composite Burn Index (CBI)의 등급을 이용하고 있다. Won (2013)은 미국에서 개발된 CBI를 개량한 한국형 CBI (KCBI)를 제안하였고 위성영 상을 이용한 KCBI 분류 가능성을 제시하였다. CBI는 산 불 피해강도 등급을 심(extreme), 강(high), 중(moderate), 경(low), 미피해(unburn)으로 분류하는데, 이는 연소심도와 함께 장기간의 생태계 반응 모두를 포함한다(Key and Benson, 2002; Van Wangtendonk et al., 2004; Hartford and Frandsen, 1992; Neary et al., 1999; Miller and Yool, 2002; Smith and Wooster, 2005). 피해강도는 연소심도와 혼용되지만 산불 피해 후 장기간의 생태계 변화 정도를 의미한다는 측면에서 산불 피해지역에 대한 모니터링에 주로 이용되고 있다(Won, 2013). 여기에서 피해강도를 이해하기 쉽게 심 등급은 수관전소, 강 등급은 수관 열해, 경 등급은 지표화로 정의할 수 있다. 또한 중 (moderate) 등급은 수관열해와 지표화가 공간적으로 혼합된 형태를 의미한다. 따라서 고해상도 영상을 이용하여 개체목 단위의 정확한 피해강도 분류가 가능한지, 그리고 어떤 방법이 적절한지 알아볼 필요가 있다.

본 연구에서는 산불 피해강도 분류에 있어 산불 후에 획득된 고해상도 위성영상과 무인기 다중분광영상의 활용 가능성과 보다 높은 분류정확도를 얻기 위한 감독 분류 기법의 종류를 분석하고자 한다. 이를 위하여 고 해상도 위성영상과 무인기 다중분광영상에 두 종류의 대표적인 감독분류 기법을 적용하여 공간해상도와 분류 기법에 따른 분류정확도를 비교한다.

2. 연구지역 및 자료

1) 연구지역

연구지역은 강원도 강릉시 옥계면 인근으로 동해안에 위치하고 있다(Fig. 1). 동해안은 겨울에서 봄까지 푄 (Föhn) 현상과 낮은 강수량으로 인해 매우 건조한 기후를 갖는다. 동해안 산림의 주요 수종인 소나무(Pinus densiflora)는 휘발성 물질인 송진을 포함하고 있다. 이러한 기후와 환경 특성은 대형 산불이 자주 발생하는 원인이다. 2019년 강릉-동해 산불로 2019년 4월 4일부터 5일까지 약 700 ha의 산림이 손실되었고, 약 700억원의 피해금액이 발생하였다. 연구지역은 강릉-동해 산불피해지 서쪽 경계부의 약 2 km×0.5 km에 해당하는 지역이다. 연구지역 내에는 Fig. 2(a)의 예시와 같이 다양한 피해강도 등급이 동시에 존재한다. 능선부를 따라 수관화 피해지역이 검은색으로 나타나고 계곡부에 갈색으로 변색된 열해와 녹색 잎이 보이는 지표화 피해지역이 혼재되어 있다. 지표화 피해지역의 하층에서 보면 Fig. 2(b-c)의 예시와 같이 지표와 줄기의 아래 부분이 타거나 그을렸으나, 수관부에는 녹색 잎이 분포하는 것을 볼 수 있다.

OGCSBN_2019_v35n6_2_1095_f0001.png 이미지

Fig. 1. Location of the study area, city of Gangneung (Shin et al., 2019).

OGCSBN_2019_v35n6_2_1095_f0002.png 이미지

Fig. 2. Examples of burn severity (a) mixed area of burned crown, boiled crown and burned surface, (b) green crown of burned surface area and (c) ground of burned surface area.

2) 연구 자료

(1) 위성영상

본 연구에서 사용한 위성영상은 2019년 4월 12일 13시 16분에 촬영된 KOMPSAT-3A 영상으로 산불 발생 후 약 일주일 후에 촬영된 영상으로 자연색 조합과 적외선 칼라 조합을 보여주고 있다(Fig. 3). 이 영상은 2 m의 공간해상도와 B, G, R, NIR의 4개 밴드로 구성되어 있고, level 1R 수준으로 전처리되어 10 m 이상의 위치 오차를 갖는다.

OGCSBN_2019_v35n6_2_1095_f0003.png 이미지

Fig. 3. A KOMPSAT-3A satellite image of study area that was acquired on April 12, 2019, natural color composite, (b) pseudo-infrared composite.

위치오차를 감소시키기 위하여 국토위성정보 수집 시스템에 적용 예정인 정밀영상 제작 소프트웨어를 이용한 추가 전처리를 실시하였다. 이 소프트웨어는 사전에 구축된 지상기준점 영상 데이터베이스(GCP chip DB)와 위성영상의 정합(matching)을 통하여 정밀기하(precise geometry)를 수립하고, 정밀 수치표고모형(DEM)을 이용하여 정사보정(orthometric correction)을 실시하는 일련의 정밀영상 제작 과정을 자동으로 수행 할 수 있다(Shin et al., 2018; Yoon et al., 2018). 여기에서 지상기준점 영상 데이터베이스는 국토지리정보원에서 구축한 정사항공사진에서 국가기준점에 해당하는 위치에 해당하는 일부 영역을 추출한 chip 영상과 기준점 측량 자료로 구성된 데이터베이스이다(Bae et al., 2018). 추가 전처리를 마친 정밀영상의 위치오차는 약 1 m로 기하 정확도가 크게 개선되었다.

(2) 무인기 영상

무인기 영상은 2019년 5월 9일 회전익 무인기에 장착된 RedEdge, Micasense (WA, USA)를 이용하여 촬영되었다. 영상은 청색, 녹색, 적색, 적색경계(red-edge), 근적외선의 5개 밴드로 구성되어 있으며, 공간해상도는 약 30 cm이다. 촬영된 영상은 Pix4D, Pix4D S.A.(Switzerland)소프트웨어를 이용하여 기하보정, 복사보정, 모자이크의 전처리 과정을 거쳤고, 그 결과 반사율 모자이크 영상을 획득하였다. Fig. 4는 사용한 무인기 영상의 천연색 조합과 칼라 적외선 조합을 보여주고 있다.

OGCSBN_2019_v35n6_2_1095_f0004.png 이미지

Fig. 4. RedEdge multispectral UAV image (a) natural color composite and (b) pseudo-infrared composite (Shin et al., 2019).

(3) 기준 자료

검증자료는 현장조사를 기반으로 한 스크린 디지타 이징 방법으로 제작하였다(Fig. 5). 수관화 및 열해 지역은 육안 판독으로 명확히 구분되지만, 지표화 피해 지역과 미피해 지역의 경우 영상 육안판독으로 구분하는 데 한계가 있다(Fig. 6). 연구지역은 경사가 매우 급하고 접근이 제한적인 지역으로 직접적으로 피해지역에 접근하지 못하였고, 피해지역 인근에서 지표화 피해지역과 미피해 지역의 경계를 관측한 후 무인기 영상을 이용한 스크린 디지타이징을 수행하였다.

OGCSBN_2019_v35n6_2_1095_f0006.png 이미지

Fig. 5. A reference map by visual interpretation based on a field survey (Shin et al., 2019).

OGCSBN_2019_v35n6_2_1095_f0005.png 이미지

Fig. 6. Examples of the UAV image (natural color composite) by forest burn severity: (a) burned crown, (b) boiled crown, (c) burned surface, (d) unburned pine, (e) unburned deciduous.

3. 연구방법

1) 분류등급 정의 및 샘플 수집

본 연구에서는 산불 연소 강도 등급을 수관화(burned crown), 열해(boiled crown), 지표화(burned surface), 미피해(unburned)로 정의하였다. 이 중 미피해는 수종의 분광특성을 고려하여 미피해 소나무(unburned pine)와 미피해 활엽수(unburned deciduous)로 구분하였다. 따라서 수관화, 열해, 지표화, 미피해 소나무, 미피해 활엽수의 총 5개 분류등급으로 정의하였다.

샘플 화소는 현장조사를 기반으로 한 기준자료를 참조하여 수집하였다. 샘플 지점은 무인기 영상과 위성영상의 공간 해상도 차이를 고려하여 10 m×10 m 공간이 동일한 피해강도로 구성된 지역을 대상으로 하였다. 샘플 지점은 각 피해강도 등급 별로 50개 지점을 추출하였고, 무인기 영상과 위성영상에서 각각 해당지점을 중심으로 3×3 개의 화소를 추출하여 각 등급별 450개 화소를 샘플로 사용하였다. 이중각 등급별 180개의 화소는 훈련샘플로 사용하였고, 270개 화소는 검증샘플로 사용하였다.

훈련 샘플을 이용하여 평균 분광반사율 계산하였다 (Fig. 7). 수관화는 모든 밴드에서 10%이하의 매우 낮은 반사율을 보인다. 이는 수관에 잎이 분포하지 않고 검게 탄 줄기와 지표로 구성되어 있기 때문이다. 열해는 수관화에 비해 높은 분광반사율을 보여주고 있다. 녹색과 적색 밴드에서 높은 반사율을 보이는 이유는 노랗게 변색된 잎이 수관에 분포하기 때문이다. 지표화와 미피해 소나무의 경우 매우 유사한 분광반사특성을 보여주고 있다. 이는 공중에서 수관 상단부를 관측하였을 때 녹색잎이 분포하고 있고, 하층과 지표만 피해를 입었기 때문이다. 그러나 지표화의 경우 지표의 유기물질과 수분을 태워버림으로써 수목의 생장에 스트레스를 유발한다. 스트레스를 받고 있는 식생은 분광반사특성에 서 red-edge 밴드 반사율이 높고, 근적외선 반사율이 낮게 나타나는 blue shift (또는 red-edge shift) 현상을 보이는데(Clevers and Jongschaap, 2003), 미피해 소나무와 지표화 등급에서도 이 현상을 볼 수 있다. 따라서, 이러한 특성을 이용하였을 때 지표화와 미피해 소나무 등급을 구분할 수 있을 것이다.

OGCSBN_2019_v35n6_2_1095_f0007.png 이미지

Fig. 7. Spectral reflectance curves from mean of collected training samples from RedEdge image (Shin et al., 2019).

2) 감독 분류

산불 연소 강도 분류를 위하여 최대우도법(maximum likelihood, MLH)과 분광각매퍼(spectral angle mapper, SAM)의 두 가지 감독분류 기법을 적용하였다. 두 기법은 전통적으로 널리 이용되고 있는 분류 기법으로, 각각 공분산을 기반으로 한 2차 통계치와 각 또는 거리를기반으로 하는 1차 통계치를 이용하는 분류기법을 대표하며, 유사한 분류기법 또한 적용이 가능할 것이다. 최대우도법은 식 (1)과 같이 각 밴드에서 화소값이 정규 분포를 이룬다는 가정 하에 한 화소를 가장 높은 확률을 갖는 등급으로 할당한다(Swain and Davis, 1981). 화소가 어떤 등급에 속할 확률은 훈련 샘플의 평균, 분산, 공 분산을 이용한 다변량 정규 밀도 함수(multivariate normal density function)에 의해 계산된다.

\(P\left(X \mid w_{i}\right)=\frac{\frac{1}{n}}{(2 \pi)^{2} \mid V_{i}^{\frac{1}{2}}} \exp \left[-\frac{1}{2}\left(X-M_{i}\right)^{T} V_{i}^{-1}\left(X-M_{i}\right)\right. \)       (1)

여기에서, n은 밴드 수, X는 관측 화소 벡터, Vi 는 각 클래스의 공분산 행렬, Mi는 각 클래스의 평균 벡터를 의미한다.

분광각매퍼는 분광반사율을 밴드 수 차원의 벡터로 가정하여 훈련샘플의 평균 벡터와 한 화소의 벡터 간 각 (angle)을 측정함으로써 유사도를 계산한 후 유사도가 가장 높은(각이 최소인) 등급으로 화소를 분류한다 (Kruse et al., 1993). 식 (2)는 분광각매퍼의 정의를 보여주고 있다.

\(\alpha=\cos ^{-1}\left(\frac{\sum_{i=1}^{n} t_{i} r_{i}}{\left(\sum_{i=1}^{n} t_{i}^{2}\right)^{\frac{1}{2}}\left(\sum_{i=1}^{n} r_{i}^{2}\right)^{\frac{1}{2}}}\right)\)         (2)

여기에서, α는 분광각, n은 밴드 수, t는 한 화소의 벡터, r은 한 분류등급에 대한 훈련샘플의 평균 벡터를 의미한다.

4. 연구결과

1) 무인기 다중분광영상의 피해강도 분류 결과

Fig. 7은 무인기로 촬영한 RedEdge 영상에 최대우도법과 분광각매퍼를 적용한 감독분류 결과이다. Fig. 5의 검증자료와 비교하였을 때 최대우도법 분류 결과는 대부분의 피해강도 등급이 매우 정확하게 분류된 것을 볼 수 있다(Fig. 8(a)). 다만 미피해 소나무가 지표화로 오분류되어 지표화가 과대 추정된 경향을 보여주고 있다. 분광각매퍼로 분류한 결과(Fig. 8(b))는 지표화가 미피해 소나무로 오분류되어 지표화의 과소추정 경향이 나타나는 것을 볼 수 있다. 또한 미피해 활엽수가 미피해 소나무로 오분류 되는 경향이 있어 전반적으로 미피해 소나무의 면적이 크게 나타나는 것을 볼 수 있다.

OGCSBN_2019_v35n6_2_1095_f0008.png 이미지

Fig. 8. Burn severity classification results of RedEdge UAV image using (a) MLH and (b) SAM classifiers.

Table 1과 2는 무인기 RedEdge 영상의 두 감독분류 결과에 대한 정확도를 confusion matrix의 형태로 보여 주고 있다. Table 1에서 최대우도법의 전체 분류정확도 는 89%로 매우 높게 나타나고 있다. 분류 등급별로 정확도를 분석하면 미피해 소나무를 제외한 4개 등급에서 87% 이상의 높은 분류정확도를 보여주고 있다. 미피해 소나무의 33%가 지표화로 오분류되는 것으로 나타나고 있는데, 이는 두 등급 간의 분광반사특성이 매우 유사하다는 것을 원인으로 들 수 있다. Table 2에서 분광 각매퍼의 전체 분류정확도는 81%로 나타나고 있다. 이는 최대우도법에 비해 낮은 수치이지만, 일반적으로 매우 높은 분류정확도로 볼 수 있다. 등급별 분류정확도를 보았을 때, 미피해 소나무와 미피해 활엽수를 제외한 3개 등급에서 85% 이상의 높은 분류정확도를 보이고 있다. 지표화의 13%가 미피해 소나무로 오분류되었고, 미피해 소나무의 24%가 지표화로 오분류된 것을 볼 수 있다. 이는 두 등급의 분광특성이 매우 유사하기 때문이다. 특히 미피해 활엽수의 경우 미피해 소나무와 지표화로 각각 20% 가량 오분류된 것을 볼 수 있다. 이는 분광각매퍼가 분광반사율의 절대값을 사용하지 않고, 분광반사율의 증감패턴을 비교하는 특성을 원인으로 들 수 있다.

Table 1. A confusion matrix for classification accuracy assessment of RedEdge UAV image using MLH (%)

OGCSBN_2019_v35n6_2_1095_t0001.png 이미지

Table 2. A confusion matrix for classification accuracy assessment of RedEdge UAV image using SAM (%)

OGCSBN_2019_v35n6_2_1095_t0002.png 이미지

2) 고해상도 위성영상의 피해강도 분류 결과

KOMPSAT-3A 영상에 최대우도법과 분광각매퍼의 두 가지 감독분류 기법을 적용한 피해강도 분류 결과는Fig. 9에서 보여주고 있다. 최대우도법 분류 결과(Fig. 9(a))는 검증자료와 비교하면 수관화와 열해 등급의 분류가 매우 정확히 이루어 졌으나 미비해 소나무 중 일부 화소가 지표화로 오분류 된 것을 볼 수 있다. 이는 무인기 영상의 최대우도법 분류 결과와 유사한 결과로 두 등급 간의 분광특성이 유사한 것을 원인으로 볼 수 있다. 분광각매퍼 분류 결과(Fig. 9(b))는 열해가 수관화로 분류 되어 수관화 지역이 과 추정된 양상을 보이고 있다. 또한 지표화와 미피해 활엽수가 미피해 소나무로 오분류 된 것을 볼 수 있다. 이는 수관화–열해 그리고 지표화–미피해 소나무–미피해 활엽수 간의 분광반사율 패턴이 유사한 것을 원인으로 볼 수 있다. 이러한 유사한 분광반사율 패턴에 의한 분광각매퍼의 오분류는 그 정도가 다르기는 하지만 앞의 무인기 다중분광영상의 분류 결과와 동일하게 나타났다.

OGCSBN_2019_v35n6_2_1095_f0009.png 이미지

Fig. 9. Burn severity classification results of KOMPSAT-3A satellite image using (a) MLH and (b) SAM classifiers.

KOMPSAT-3A 영상의 분류정확도를 Table 3과 4에 서 confusion matrix로 보여주고 있다. Table 3에서 최대 우도법의 전체 분류정확도는 81%로 나타나 상당히 높은 분류정확도를 보여주고 있다. 분류등급별로 보면 수관화, 열해, 지표화의 경우 92% 이상으로 매우 높은 정확도를 보여준다. 그러나 미피해 소나무의 경우 지표화 로 35%가 오분류되어 앞에서 지표화가 과추정 되는 경향을 증명하고 있다. 미피해 활엽수의 경우 미피해 소나무와 열해로 오분류 되는 경향이 나타나고 있다. 이는 앞의 무인기 영상의 최대우도법 분류 결과에서 미피해 활엽수의 분류정확도가 매우 높았던 것과 비해 전체 분류정확도를 저하시키는 요인으로 판단된다. 분광각 매퍼의 KOMPSAT-3A 영상에 대한 전체 분류정확도는 68%로 상대적으로 낮게 나타나고 있다(Table 4). 이는 수관화와 열해의 분류정확도가 88% 이상인 반면 지표화, 미피해 소나무, 미피해 활엽수의 분류정확도가 낮게 나타난 것이 전체 분류정확도에 반영된 것으로 볼 수 있다. 그 원인은 앞의 분류결과에 대한 육안판독에서 언급한 바와 같이 열해가 수관화로 오분류 된 점과 열해–미피 해 소나무–미피해 활엽수 간의 혼동이 크게 나타났기 때문이다.

Table 3. A confusion matrix for classification accuracy assessment of KOMPSAT-3A satellite image using MLH (%)

OGCSBN_2019_v35n6_2_1095_t0003.png 이미지

Table 4. A confusion matrix for classification accuracy assessment of KOMPSAT-3A satellite image using SAM (%)

OGCSBN_2019_v35n6_2_1095_t0004.png 이미지

5. 고찰 및 결론

본 연구에서는 산불 피해 강도 분석에 있어 산불 후 획득된 고해상도 다중분광영상의 활용 가능성을 알아보고자 하였다. 이를 위하여 무인기와 위성에서 촬영된 고해상도 다중분광영상을 대상으로 대표적인 감독분류의 두 가지 기법을 적용한 후 그 결과를 비교하였다.

감독분류 기법에 따른 분류정확도는 최대우도법이 분광각매퍼에 비해 높게 나타났고, 분류 결과에 대한 육안 분석 결과 또한 최대우도법이 보다 우수한 것으로 판단되었다. 이는 피해강도에 따라 수관화와 열해, 그리고 미피해 소나무(침엽수)와 미피해 활엽수의 경우 일부 밴드에서 분광반사율의 절대값에 차이는 있으나 증감 패턴이 유사하게 나타나는 것을 원인으로 들 수 있다. 따라서 피해강도에 따라 분광반사율의 절대값 차이를 보이지만 유사한 패턴을 보이는 경우 최대우도법과 같이 2차 통계값을 이용하는 분류기법이 더 적합한 것으로 판단된다.

공간해상도에 대한 분류정확도 측면에서 공간해상도가 높은 무인기 영상이 위성 영상에 비해 상대적으로 높은 정확도를 보여주었다. 이는 동일한 분류 기법을 기준으로 하였을 때 최대우도법과 분광각매퍼 두 분류 기법에서 동일한 경향으로 나타났다. 따라서 공간해상도가 상대적으로 높은 무인기 영상이 보다 정확히 피해강도를 분석할 수 있다고 판단할 수 있다. 그러나 상대적으로 우수한 최대우도법에 대한 무인기 영상과 위성영상의 분류결과 간에는 큰 차이가 나타나지 않았다. 따라서 센서가 장착된 플랫폼에 따른 자료획득의 장단점이 각기 다르지만 산불 후에 촬영된 무인기 영상과 위성영상 모두 산불 피해강도 분석에 활용할 수 있을 것으로 판단된다.

산불피해 등급 중 수관화, 열해, 지표화의 분류정확도는 영상의 공간해상도 및 분류기법에 관계없이 매우 높게 나타났다. 따라서 산불 피해강도 분석에 있어 무인기와 위성에서 촬영된 고해상도 다중분광영상의 활용 가능성이 높다고 할 수 있다. 다만 정확한 피해강도 분석을 위해서 분광반사 특성이 매우 유사한 지표화와 미피해 소나무를 정확하게 분류할 필요가 있다. 본 연구에서는 감독분류의 대표적인 두 가지 기법 모두에서 미피해 소나무가 지표화로 오분류 되는 비율이 반대의 경우에 비해 크게 나타나 지표화가 과추정되는 경향을 보여주었다. 또한 사용한 영상과 분류기법에 따라 미피해 침엽수와 활엽수 간의 혼동이 나타나는 경우도 있었다. 이는 보다 많은 훈련샘플 수집과 보다 다양한 분류기법을 적용하는 연구를 통해 개선될 것으로 기대 한다. 따라서, 향후 연구로 다양한 공간해상도 및 분광 해상도로 구성된 영상 간의 비교, 보다 다양한 분류기법 간의 비교, 지역적 특성 등에 대한 연구를 지속적으로 수행하여 최적의 산불 피해강도 분석 방법론을 정립 할 필요가 있다.

사사

본 연구는 국토교통부 위성정보 활용센터 설립 운영 사업(과제명: 국토위성정보 수집 및 활용기술 개발)의 연구비 지원(과제번호: 18SIUE-B148326-01)과 국립산림 과학원의 연구비 지원(과제번호: FE0500-2018-04)에 의해 수행되었습니다. 또한 연구자료를 제공해주신 국토 교통부 국토지리정보원과 한국항공우주연구원에 감사드립니다.

Acknowledgement

Grant : 국토위성정보 수집 및 활용기술 개발

Supported by : 국토교통부, 국립산림과학원

References

  1. Amos, C., G.P. Petropoulos, and K.P. Ferentinos, 2019. Determining the use of Sentinel-2A MSI for wildfire burning & severity detection, International Journal of Remote Sensing, 40(3): 905-930. https://doi.org/10.1080/01431161.2018.1519284
  2. Bae, K.H., K.E. Kweon, S.Y. Lee, and J.I. Kim, 2018. Data Model for GCP Construction of Satellite Image Quality, Proc. of 2018 Joint Fall Conference, Jeju, Korea, pp. 38-39.
  3. Barbosa, P.M., D. Stroppiana, J.M. Gregoire, and J.M.C. Pereira, 1999. An assessment of vegetation fire in Africa (1981-1991): Burned areas, burned biomass, and atmospheric emissions, Global Biogeochemical Cycles, 13(4): 933-950. https://doi.org/10.1029/1999GB900042
  4. Carvajal-Ramirez, F., J.R.M. Silva, F. Aguera-Vega, P. Martinez-Carricondo, J. Serrano, and F.J. Moral, 2019. Evaluation of Fire Severity Indices Based on Pre-and Post-Fire Multispectral Imagery Sensed from UAV, Remote Sensing, 11(9): 993-1011. https://doi.org/10.3390/rs11090993
  5. Chafer, C.J., M. Noonan, and E. Macnaught, 2004. The post-fire measurement of fire severity and intensity in the Christmas 2001 Sydney wildfires, International Journal of Wildland Fire, 13(2): 227-240. https://doi.org/10.1071/WF03041
  6. Chuvieco, E., M.P. Martin, and A. Palacios, 2002. Assessment of different spectral indices in the red-near-infrared spectral domain for burned land discrimination, International Journal of Remote Sensing, 23(23): 5103-5110. https://doi.org/10.1080/01431160210153129
  7. Clevers, J.P.G.W. and R. Jongschaap, 2003. Imaging spectrometry for agricultural applications. In Imaging Spectrometry - Basic Principles and Prospective Applications, Kluwer Academic Publishers, Dordrecht, Netherlands.
  8. Collins, B.M., M. Kelly, J.W. van Wagtendonk, and S.L. Stephens, 2007. Spatial patterns of large natural fires in Sierra Nevada wilderness areas, Landscape Ecology, 22(4): 545-557. https://doi.org/10.1007/s10980-006-9047-5
  9. Epting, J., D. Verbyla, and B. Sorbel, 2005. Evaluation of remotely sensed indices for assessing burn severity in interior Alaska using Landsat TM and ETM+, Remote Sensing of Environment, 96(3-4): 328-339. https://doi.org/10.1016/j.rse.2005.03.002
  10. Fernandez-Guisuraga, J., E. Sanz-Ablanedo, S. Suarez-Seoane, and L. Calvo, 2018. Using unmanned aerial vehicles in postfire vegetation survey campaigns through large and heterogeneous areas: Opportunities and challenges, Sensors, 18(2): 586-569. https://doi.org/10.3390/s18020586
  11. Filipponi, F., 2018. BAIS2: Burned Area Index for Sentinel-2, Proc. of International Electronic Conference on Remote Sensing 2018, Roma, Italy, Mar. 22-Apr. 5, vol. 2, pp. 364-370.
  12. Hartford, R.A. and W.H. Frandsen, 1992. When it's hot, it's hot... or maybe it's not! (Surface flaming may not portend extensive soil heating), International Journal of Wildland Fire, 2(3): 139-144. https://doi.org/10.1071/WF9920139
  13. Key, C.H. and N.C. Benson, 2002. Fire effects monitoring and inventory protocol-landscape assessment, USDA Forest Service Fire Science Laboratory, Missoula, MT, USA.
  14. Korea Forest Service, 2019. Statistical yearbook of wild fire 2018, Korea Forest Service, Daejeon, Korea (in Korean).
  15. Kruse, F.A., A.B. Lefkoff, J.W. Boardman, K.B. Heidebrecht, A.T. Shapiro, P.J. Barloon, and A.F.H. Goetz, 1993. The spectral image processing system (SIPS)-interactive visualization and analysis of imaging spectrometer data, Remote Sensing of Environment, 44(2-3): 145-163. https://doi.org/10.1016/0034-4257(93)90013-N
  16. Lee, S., K. Kim, Y. Kim, J. Kim, and Y. Lee, 2017. Development of FBI (Fire Burn Index) for Sentinel-2 images and an experiment for detection of burned areas in Korea, Journal of the Association of Korean Photo-Geographers, 27(4): 187-202 (in Korean with English abstract).
  17. Lopez-Garcia, M.J. and V. Caselles, 1991. Mapping burns and natural reforestation using Thematic Mapper data, Geocarto International, 6(1): 31-37. https://doi.org/10.1080/10106049109354290
  18. Miller, J.D. and S.R. Yool, 2002. Mapping forest post-fire canopy consumption in several overstory types using multi-temporal Landsat TM and ETM data, Remote Sensing of Environment, 82(2-3): 481-496. https://doi.org/10.1016/S0034-4257(02)00071-8
  19. Neary, D.G., C.C. Klopatek, L.F. DeBano, and P.F. Ffolliott, 1999. Fire effects on belowground sustainability: a review and synthesis, Forest Ecology and Management, 122(1-2): 51-71. https://doi.org/10.1016/S0378-1127(99)00032-8
  20. Park, S.W., S.J. Lee, C.Y. Chung, S.R. Chung, I. Shin, W.C. Jung, H.S. Mo, S.I. Kim, and Y.W. Lee, 2019. Satellite-based Forest Withering Index for Detection of Fire Burn Area: Its Development and Application to 2019 Kangwon Wildfires, Korean Journal of Remote Sensing, 35(2): 343-346 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.2.13
  21. Sankey, T., J. Donager, J. McVay, and J.B. Sankey, 2017. UAV lidar and hyperspectral fusion for forest monitoring in the southwestern USA, Remote Sensing of Environment, 195(1): 30-43. https://doi.org/10.1016/j.rse.2017.04.007
  22. Shin, J.I., W.S. Yoon, H.J. Park, K.Y. Oh, and T.J. Kim, 2018. A Method to Improve Matching Success Rate between KOMPSAT-3A Imagery and Aerial Ortho-Images, Korean Journal of Remote Sensing, 34(6-1): 893-903 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2018.34.6.1.5
  23. Shin, J.I., W.W. Seo, T. Kim, J. Park, and C.S. Woo, 2019. Using UAV Multispectral Images for Classification of Forest Burn Severity-A Case Study of the 2019 Gangneung Forest Fire, Forests, 10(1025): 1-15.
  24. Smith, A.M.S. and M.J. Wooster, 2005. Remote classification of head and backfire types from MODIS fire radiative power and smoke plume observations, International Journal of Wildland Fire, 14(3): 249-254. https://doi.org/10.1071/WF05012
  25. Swain, P.H. and S.M. Davis, 1981. Remote sensing: The quantitative approach, IEEE Transactions on Pattern Analysis and Machine Intelligence, 6(6): 713-714.
  26. Tang, L. and G. Shao, 2015. Drone remote sensing for forestry research and practices, Journal of Forestry Research, 26(4): 791-797. https://doi.org/10.1007/s11676-015-0088-y
  27. Torresan, C., A. Berton, F. Carotenuto, S.F. Di Gennaro, B. Gioli, A. Matese, F. Miglietta, C. Vagnoli, A. Zaldei, and L. Wallace, 2017. Forestry applications of UAVs in Europe: A review, International Journal of Remote Sensing, 38(8-10): 2427-2447. https://doi.org/10.1080/01431161.2016.1252477
  28. Tran, B.N., M. Tanase, L. Bennett, and C. Aponte, 2018. Evaluation of Spectral Indices for Assessing Fire Severity in Australian Temperate Forests, Remote Sensing, 10(11): 1680-1697. https://doi.org/10.3390/rs10111680
  29. Van Wagtendonk, J.W., R.R. Root, and C.H. Key, 2004. Comparison of AVIRIS and Landsat ETM+ detection capabilities for burn severity, Remote Sensing of Environment, 92(3): 397-408. https://doi.org/10.1016/j.rse.2003.12.015
  30. Won, M., 2013. Analysis of Burn Severity in Large-fire Area Using Satellite Imagery, Doctoral dissertation, Korea University, Seoul, Korea (in Korean with English abstract).
  31. Yoon, W., H. Park, and T. Kim, 2018. Feasibility Analysis of Precise Sensor Modelling for KOMPSAT-3A Imagery Using Unified Control Points, Korean Journal of Remote Sensing, 34(6-1): 1089-1100 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2018.34.6.1.19