DOI QR코드

DOI QR Code

Derivation and Evaluation of Surface Reflectance from UAV Multispectral Image for Monitoring Forest Vegetation

산림 식생 모니터링을 위한 무인기 다중분광영상의 반사율 산출 및 평가

  • Lee, Hwa-Seon (Department of Geoinformatic Engineering, Inha University) ;
  • Seo, Won-Woo (Department of Geoinformatic Engineering, Inha University) ;
  • Woo, Choongshik (Forest Disaster Management Division, National Institute of Forest Science) ;
  • Lee, Kyu-Sung (Department of Geoinformatic Engineering, Inha University)
  • 이화선 (인하대학교 공간정보공학과) ;
  • 서원우 (인하대학교 공간정보공학과) ;
  • 우충식 (국립산림과학원 산림방재연구과) ;
  • 이규성 (인하대학교 공간정보공학과)
  • Received : 2019.11.15
  • Accepted : 2019.12.12
  • Published : 2019.12.31

Abstract

In this study, two radiometric correction methods deriving reflectance from UAV multispectral image for monitoring forest vegetation were applied and evaluated. Multispectral images were obtained from a small multispectral camera having 5 spectral bands. Reflectance were derived by applying the two methods: (1) the direct method using downwelling irradiance measurement and (2) the empirical line correction method by linking a set of field reflectance measured simultaneous with the image capture. Field reflectance were obtained using a spectroradiometer during the flight and used for building the linear equation for the empirical method and for the validation of image reflectance derived. Although both methods provided the high correlations between field reflectance and image-derived reflectance, their distributions were somewhat different. While the direct method provided rather stable and consistent distribution of reflectance all over the entire image area, the empirical method showed very unstable and inconsistent reflectance distribution. The direct method would be more appropriate for relatively wide area that requires more time to acquire image and may vary in downwelling irradiance and atmospheric conditions.

1. 서론

산림분야에서 무인기(Unmanned Aerial Vehicle, UAV)는 기본적인 산림자원조사(Puliti et al., 2015)부터 산림병해충 피해 모니터링(Dash et al., 2017; Kim et al., 2017; Lee et al., 2019; Safonova et al., 2019)과 산불 모니터링(Merino et al., 2012; Yuan et al., 2015)까지 다양한 분석에 널리 활용되고 있다. 무인기는 위성 및 항공기와 비교하여 저비용으로 손쉽고 빠르게 영상을 획득할 수 있는 큰 장점을 가지고 있다. 뿐만 아니라, 무인기로 촬영한 센티미터 단위의 고해상도 영상으로부터 개체목 단위의 입목 정보를 분석할 수 있는 장점이 있다.

무인기 개발 초기에는 일반 디지털카메라로 촬영된 자연색 영상을 산림조사 및 모니터링에 주로 활용하였다. 최근에는 무인기 탑재를 위해 개발된 소형 다중분광카메라로 촬영된 다중분광영상을 산림의 활력도(Dash et al., 2017)와 생체량 및 엽면적지수(Messinger et al., 2016; Tian et al., 2017)와 같은 정량적 정보 분석에 주로 활용하고 있어, 그 활용 범위가 점차 확대되는 것을 알 수 있다. 무인기 탑재용 다중분광카메라는 가시광선 및 근적외선 파장대의 4~5개 밴드로 구성되는데, 최근에는 식물의 엽록소 함량에 민감한 적색경계밴드(red-edge band)를 추가하는 경향을 보이고 있다(Buzzard; Micasense; Tetracam Inc).

산림 식생의 시계열 모니터링을 위해서는 동일 지역에 대해 여러 시기에 걸쳐 촬영된 영상이 요구된다. 특히 엽면적 지수 또는 엽록소 함량과 같은 생물리적 변수의 시계열 모니터링을 위해서는 상이한 촬영시기 및 촬영조건에서 획득된 다중시기 영상의 화소값을 직접적으로 비교 가능한 반사율로 변환하여야 한다. 또한 무인기의 경우 항공 및 위성과 달리 여러 종류의 카메라를 이용하여 다중시기 영상을 촬영하게 되는 경우가 많기 때문에, 카메라의 종류나 촬영시기 및 촬영조건에 관계없이 다중시기 영상의 신호값을 정량적으로 비교하기 위해서는 무인기 영상의 화소값을 절대적 신호값인 반 사율로 변환하는 작업이 필수적으로 수행되어야 한다.

무인기 다중분광영상에서 반사율을 산출하기 위한 방법은 크게 두 가지로 구분된다(Assmann et al., 2018). 첫 번째는 실험적 보정 방법(empirical line correction)으로, 분광복사계(field spectroradiometer)와 고정된 반사율을 가지는 기준판(reference tarp)을 이용하여 영상 촬영과 동시에 현장에서 측정한 반사율과 무인기 영상의 화소값 사이의 선형관계식을 도출하여 보정하는 방법이다 (Del Pozo et al., 2014; Guo et al., 2019; Lee et al., 2016; Na et al., 2016; Iqbal et al., 2018; Xu et al., 2019; Wang and Myint, 2015). 두 번째는 직접적인 보정 방법으로, 영상 촬영 시 무인기에 복사조도계(downwelling light sensor, DLS)를 함께 탑재하여 매 영상마다 복사조도를 측정하고, 영상의 화소값을 복사휘도(radiance)로 변환하여 두 값을 나눔으로써 반사율을 직접적으로 산출하는 방법이다 (Deng et al., 2018; Sa et al., 2018). 최근 개발된 무인기 다중분광센서의 경우 촬영시점의 광량의 민감도와 노출시간 등을 감안하여 영상의 화소값을 복사휘도(radiance)로 변환하기 위한 복사보정계수(radiometric calibration coefficients)를 제공한다(Micasense). 복사보정계수를 적용하여 영상의 매 화소마다 변환된 복사휘도에 영상 촬영 시 DLS에서 측정된 복사조도로 나눔으로써 반사율로 변환할 수 있다. 물론 이 방법은 수광량을 측정할 수 있는 경량의 복사조도계가 카메라와 함께 무인기에 탑재된 경우 적용 가능하다.

대부분의 위성영상시스템은 체계적인 검보정 절차를 통해 정확한 복사보정계수를 제공하고 있으며, 더 나아가 자동적인 대기보정 처리가 완료된 반사율 영상을 산출물로써 사용자에게 제공하고 있다. 반면, 무인기 영상은 높은 운용성을 갖고 있지만 반사율 산출 등의 전처리를 사용자가 직접 수행하기 때문에 반사율 영상의 품질은 촬영조건과 반사율 산출 방법에 따라서 크게 달라진다(Aasen et al., 2015; Deng et al., 2018; Hakala et al., 2013). 무인기 다중분광영상의 반사율을 도출하기 위해 경험적 보정 방법이 주로 적용되어왔으나, 변화하는 촬영 조건을 고려하지 못한다는 점과 현장 반사율 측정의 어려움 등으로 최근에는 직접 보정 방법이 고안되었다 (Hakala et al., 2018). 그러나 직접 보정 방법 보다는 경험적 보정 방법이 반사율 산출에 여전히 빈번하게 적용되고 있다. 무인기 다중분광영상의 반사율을 산출하고 이를 평가한 선행연구는 주로 좁은 면적의 농경지에서 한정적으로 수행되어왔고, 두 방법 모두에서 안정적인 반사율을 산출하는 것으로 보고되었다(Deng et al., 2018). 그러나 균질성, 울폐도, 고도 등에서 경작지와 다소 상이한 특성을 가지는 산림 지역을 대상으로 반사율을 산출하고 이의 품질을 평가한 연구는 미미한 실정이다. 본 연구는 정량적인 정보에 기반한 산림 식생 모니터링을 위하여 무인기 다중분광영상의 화소값을 반사율로 변환하는 복사보정 방법을 적용하고 이를 평가하고자 하였다. 반사율을 산출하기 위하여 (1)실험적 보정 방법과 (2)복사조도계를 이용한 직접 보정 방법을 적용하였다. 산출된 반사율의 품질 평가를 위하여 반사율 영상과 식생지수 영상간 비교 분석을 수행하였고 현장에서 측정된 분광반사율을 이용한 검증을 실시하였다.

2. 연구자료

1) 무인기 다중분광영상 촬영

연구자료 획득을 위해 조립식으로 제작된 회전익 무인기에 Micasense RedEdge-M 센서를 탑재하여 다중분광영상을 촬영하였다(Fig. 1(a)). MicaSense RedEdge-M은 식생 분야 활용을 위해 개발된 다중분광카메라로 청색, 녹색, 적색, 적색경계, 근적외선의 5개 밴드를 갖고 있으며, 300 m 고도에서 촬영할 경우 약 20 cm의 공간해상도를 갖는다(Table 1). 무인기에 수광량을 측정하는 복사조도계(DLS)를 탑재하여 모든 낱장 영상 촬영과 동시에 수광량을 측정하였으며(Fig. 1(a)), DLS에서 측정되는 복사조도를 보정하기 위하여 촬영 시작과 끝에 기준 반사율판(calibrated reflectance panel)을 촬영하였다 (Fig. 1(b), (c)).

Fig. 1. Configurations of (a) MicaSense RedEdge-M multispectral sensor attached with Downwelling light sensor (DLS), (b) Calibrated reflectance panel (CRP), and (c) the pre- and post-flight CRP image acquisition.

Table 1. Specifications of MicaSense RedEdge-M sensor used for the study

연구지역은 인천대공원에 위치한 관모산 및 상아산을 포함하는 약 200 ha의 지역을 대상으로 선정하였다. 연구지역의 중심 부분은 산림으로 구성되어 있으며, 산림 주변으로 잔디밭과 나지, 호수, 도로, 건물 등이 포함되어 있다. 무인기 영상은 배터리 및 저장공간의 부족 등의 원인으로 총 4번에 걸쳐 촬영이 수행되었고, 촬영시간은 배터리 교환시간을 포함하여 약 2시간 정도 소요되었다. 영상 촬영 당시의 기상조건은 비교적 맑았으나 구름의 이동에 따라 수광량의 변화가 빈번하게 발생하였다. 전체 13개의 비행선으로 구성되었으며, 종중복도 80%과 횡중복도 60%으로 설정하여 총 1624장의 낱장 영상을 획득하였다. 이후 상용소프트웨어를 이용하여 낱장영상에 정사보정과 모자이크 처리를 적용하여 집성영상(mosaic image)으로 제작하였다.

2) 현장 반사율 측정

무인기 다중분광영상 촬영과 동시에 야외용 분광복사계(field spectroradiometer)를 이용하여 현장 반사율을 측정하였다. 무인기 영상은 총 4회에 걸쳐 촬영되었는데, 현장 반사율 측정 지점은 첫번째 비행에 해당하는 지역에 위치하고 있기 때문에 현장 반사율은 첫번째 무인기 촬영 시간과 동시에 측정하였다. 현장 반사율 측정 자료 중 일부는 (1) 실험적 보정 방법 적용에 사용했고, 나머지는 (2) 영상에서 산출된 반사율의 검증을 위하여 사용하였다. 실험적 보정 방법을 위해 연구지역 내의 불변성 지표(invariant targets)인 아스팔트, 콘크리트 등의 9개 지표를 선정하여 현장 반사율을 측정하였다. 또한 영상에서 산출한 반사율을 비교 분석하기 위하여 물, 토양, 잔디와 같은 6개 자연 지표물(natural targets)에 대해서도 현장 반사율을 측정하였다(Fig. 2).

Fig. 2. Several targets measured field reflectance by field spectroradiometer: (a) invariant artificial targets used for the empirical line method and (b) natural targets used for the verification of the image-derived reflectance.

분광반사율 측정을 위한 지표물 선정은 무인기 다중분광영상에서 식별이 가능하도록 주변 입목의 수관에 가려지지 않으며, 최소 1×1 m2 면적에서 균일한 피복상태를 가지고 있는 지표물에 대해서 이루어졌다. 분광측정은 ASD사의 Fieldspec3 spectroradiometer를 사용하였는데, 모든 지표물의 분광반사율은 약 1.5 m에 높이에서 8도 시야각(field of view)으로 측정하였다. 분광측정 시 편차를 고려하여 3~4방향 별 5회씩 측정하여 평균값을 분석에 사용하였다.

ASD 분광계로 측정된 반사율은 1 nm 파장간격을 갖고 있기 때문에 무인기 다중분광영상에서 획득된 5개 밴드의 반사율과 직접적인 비교가 어렵다. 따라서 MicaSense RedEdge-M 센서의 분광반응함수(spectral response function, SRF)를 이용하여 1 nm 간격의 연속된 반사율을 갖는 현장 반사율(ρfc)을 해당 센서의 반사율(ρf)로 모의 생성하였다(Equation 1).

\(\rho_{f, i}=\frac{\sum \rho_{f c} \times S R F_{i}}{\sum S R F_{i}}\)       (1)

Where

ρf,i: the simulated band i reflectance from field measured reflectance using SRF

SRFi : the spectral response function of multi spectral sensor for each band i

3. 무인기 다중분광영상 반사율 산출

1) 복사조도계를 이용한 직접적 방법

식생분야 활용을 위해 개발된 MicaSense RedEdge-M 다중분광카메라는 비행 중 변화하는 광량조건 및 대기상태를 고려하여 매 영상마다 복사조도를 측정하여 반사율을 산출한다. 무인기 다중분광영상 촬영 전과 후에 지상에서 반사율 보정 판넬을 촬영하여(Fig. 1(c)), 이 값을 토대로 매 영상마다 측정된 복사조도를 보정하여 최종 반사율을 산출하게 된다.

MicaSense RedEdge-M 카메라로 촬영한 다중분광영상에서 반사율을 산출하는 과정은 (1)화소값(pixel value, p)에서 복사휘도(radiance, L)로 변환과, (2) 복사휘도에서 반사율(reflectance, ρ)로 변환하는 과정으로 구분된다. 영상의 모든 화소값을 복사휘도로 변환하는 과정은 비네트 효과(V), 블랙 레벨(pBL), 노출 시간(te), ISO 감도(g), 복사보정계수(a1, a2, a3)를 고려하는 카메라 보정을 통해 수행된다(Equation 2)(MicaSense). 영상 촬영 시점의 광량과 촬영대상 물체의 밝기값을 고려하여 설정되는 ISO감도와 노출시간에 따라 복사보정계수가 적용되며, 아울러 비네트 효과와 블랙레벨 효과를 고려하여 복사휘도를 계산한다. 비네트 효과란 영상의 중앙부에서 외곽부분으로 갈수록 빛의 감도가 떨어지는 현상을 의미하는데, 비네트 다항식 모델을 사용하여 이를 보정한다. 블랙 레벨 효과란 센서가 복사휘도를 전기신호로 변환할 때 노이즈가 발생하고 어두운 조건에서는 그 노이즈가 더욱 심해지는 현상을 의미한다. 복사휘도 산출을 위해 필요한 인자들은 무인기 다중분광영상의 메타자료에서 확인할 수 있다.

\(L=V \cdot \frac{a_{1}}{g} \cdot \frac{p-p_{B L}}{t_{e}+a_{2} y-a_{3} t_{e} y}\)       (2)

Where 

L: the spectral radiance (W/m2/sr/nm)
V: the vignette polynomial function
p: the normalized pixel value (0-1)
pBL: the normalized black level value
g: the sensor gain setting (ISO speed)
te: the image exposure time
a1, a2, a3: the radiometric calibration coefficients

매 화소마다 산출된 복사휘도(L)를 복사조도로 나누면 결국 반사율이 되는데, 복사조도는 무인기에 탑재된 복사조도계(DLS)로 매 영상마다 측정된다. 매 영상마다 측정된 복사조도(EDLS)는 촬영 전후로 지상에서 측정된 반사율 보정 판넬에서 얻어진 기준 복사조도(ECRP)로  보정된다. 복사조도 보정 계수(f )는 매 영상 촬영 시점에 DLS로 측정된 복사조도의 오차를 보정하는데, ECRP를 매 영상마다 측정된 EDLS로 나눈 값이다. 최종적으로 무인기 다중분광영상의 반사율(ρ)은 영상에서 산출한 복사휘도, 수광량 센서에 기록된 복사조도, 복사보조 보정계수를 통해서 계산된다(Equation 3). 이 경우 얻어지는 반사율은 완전한 난반사면(Lambertian surface) 가정에서 얻어지는 값이다.


\(\rho=\frac{\pi \cdot L}{E_{D L S}} \cdot f\)       (3)

Where

ρ: the spectral reflectance obtained from the direct method
L: the spectral radiance (W/m2/sr/nm) calculated by Equation 2
f: the EDLS correction factor
EDLS: the spectral irradiance measured by DLS (W/m2/nm)

2) 실험적 보정 방법

실험적 보정 방법(empirical line correction)은 가장 간단한 형태의 보정 방법으로 위성영상이나 항공영상에서 반사율 산출에 종종 사용된다. 실험적 보정을 위해 아스팔트, 콘크리트 등의 9개의 불변성 지표에서 측정된 현장 반사율 자료를 이용하였다. 현장 반사율 측정자료(ρf)와 이와 동일 위치에 상응하는 다중분광영상의 화소값(p)을 이용하여 5개 분광 밴드별로 선형관계식을 도출하였다(Table 2). 이 때 무인기 다중분광영상의 화소값은 0~65535의 범위를 가지고 현장 반사율 측정자료는 근적외선 밴드를 기준으로 0.05부터 0.45까지 다양한 반사율을 가지고 있다. 각 밴드별로 현장 측정 반사율과 영상의 화소값을 이용하여 선형관계식을 산출하고 결정계수(r2)를 계산하였으며, 산출된 선형관계식의 결정계수는 0.935~0.966으로 높은 선형상관관계를 갖는 것으로 분석되었다(Table 2). 각 밴드별로 p와 ρf 사이에서 얻어진 선형관계식(ρE = a × p + b)을 원영상에 적용함으로써 반사율(ρE)을 산출하였다.

Table 2. The linear relationship between pixel value of UAV multi-spectral image (p) and field-measured reflectance (ρf ) at invariant targets for the five spectral bands

4. 결과 및 고찰

촬영된 무인기 다중분광영상에 (1) 복사조도계를 이용한 직접 보정 방법과 (2)실험적 보정 방법을 적용하여 산출된 반사율의 적절성을 평가하였다. 영상 전체적으로 품질을 평가하기 위하여 반사율 영상과 식생지수 영상을 비교하였으며, 정량적 평가를 위해 현장에서 측정된 반사율과 영상에서 산출된 분광 반사율을 비교 분석하였다.

1) 반사율 및 식생지수 영상의 비교

직접 보정 방법으로 산출한 반사율(ρ)과 실험적 보정 방법을 통해 산출한 반사율(ρE) 영상과, 각각의 적색 밴드와 근적외선 밴드를 이용하여 계산된 식생지수 (Normalized Difference Vegetation Index, NDVI) 영상을 비교하였다(Fig. 3). Fig. 3(a)의 반사율 칼라합성 영상은 근적외선 밴드, 적색 밴드, 녹색 밴드를 RGB 합성한 결과다. 영상을 두 개의 영역으로 구분하여 분석하였는데, 첫 번째는 현장 반사율 측정이 수행된 영상의 좌상단 영역, 두 번째는 영상의 중앙부를 차지하는 관모산과 상아산의 산림 영역에 해당한다.

Fig. 3. Comparison of (a) reflectance image and (b) NDVI image derived by the direct
method (ρ) and the empirical line method (ρE).

실험적 보정 방법에 사용된 현장 반사율 자료는 좌상단에 위치하는 호수 인근 영역의 인공물과 자연물에서 측정되었는데, 전체 연구영역 대비 매우 국소 지역에서만 획득된 것을 알 수 있다. 현장 반사율을 측정한 인근 영역에서는 ρ과 ρE이 유사하게 보이며 반사율이 균일했지만, 관모산 및 상아산 산림 영역은 두 방법으로 산출한 반사율이 매우 상이했다. ρ에서는 산림의 반사율에 큰 변이가 없으나, ρE는 해당 영역의 반사율이 상승하여 매우 밝게 보였다. 실험적 보정 방법으로 얻어진 반사율 영상에서 산림지역이 매우 높은 값으로 나타나는 이유는 현장반사율 측정이 이루어진 좌상단 영역의 복사조도와 대기상태가 산림 영역과 매우 다르기 때문으로 판단된다.

식생지수 영상에서도 반사율 영상과 동일하게 현장 반사율을 측정한 좌상단 영역의 NDVI, NDVIE가 서로 매우 유사한 것으로 분석되었다(Fig. 3(b)). 그러나 산림지역에서는 직접적 방법으로 산출된 식생지수는 산림의 특성을 고르게 잘 보여주고 있는 반면에, 실험적 방법으로 산출한 식생지수는 비이상적으로 낮은 값을 보였다. 식생지수는 근적외선 및 적색 밴드를 나누어 줌으로써 대기조건 및 수광량 등 환경조건을 어느 정도 감쇄하는 효과가 있음에도 불구하고, 관모산 및 상아산 영역에 대해서는 NDVIE 값이 여전히 매우 낮았다.

두 가지 방법으로 산출한 반사율 및 식생지수 영상에서 분석되는 값의 불일치는 영상 촬영 시점의 대기상태 및 구름에 의한 복사조도의 차이로 인해 발생할 수 있다. 연구에 사용된 다중분광영상은 2시간에 걸쳐 촬영되었는데 2시간 동안 복사조도의 차이는 수광량 센서(DLS)로 측정한 복사조도(EDLS) 자료를 통하여 확인할 수 있다. 총 13개의 비행선을 ρE 영상에 중첩하여 반사율이 비이상적으로 높은 영역의 비행선과 반사율이 정상적인 영역의 비행선을 각각 2개씩 선정하여 비행선에 따른 복사조도의 변화를 관찰하였다(Fig. 4). 적색 및 근적외선밴드의 파장영역에서 복사조도가 상대적으로 낮고 비행중 복사조도의 변이가 0.1정도 이내로 나타나는 비행선 1, 4에서는 ρE이 안정적으로 산출된 반면, 복사조도가 상대적으로 높고 변이가 0.4 정도로 크게 나타나는 비행선 2, 3에서는 ρE이 비정상적으로 높았다. 비행 중에 증가한 복사조도로 인해 화소값(p)이 증가하고, 이는 결과적으로 실험적 보정 방법에서 화소값을 반사율로 변환하기 위한 선형관계식 적용 이후에도 높은 ρE를 산출하게 된다. 예를 들어 유사한 임분 구조를 갖고 있더라도 비행 중 복사조도 증가에 따라 p가 적색 밴드에서 11,598에서 251,20로 근적외선 밴드에서 46,770에서 53,706로 증가하게 된다. 복사조도 증가에 따른 화소값의 증가폭이 근적외선 밴드보다는 적색 밴드에서 더 크기 때문에 결과적으로 NDVI는 감소하게 된다. 밴드별 비교 시, 적색 밴드에서는 복사조도의 값과 변이가 큰 반면에, 파장이 긴 근적외선 밴드에서는 복사조도의 값과 변이가 작았다.

Fig. 4. (a) Configuration of flight line of UAV multispectral image acquisition overlaid on reflectance image (ρE) and (b) comparison of downwelling irradiance (EDLS) measured by the DLS for each flight line.

본 논문의 분석결과와 상응하게 Hakala et al. (2013)은 광량이 일정하지 않은 날 무인기 다중분광영상 촬영 시 비행선에 따라 복사조도가 크게 변화하는 것으로 보고하였다. Deng et al. (2018)은 무인기 다중분광영상 촬영 시 기상조건이 맑은 날 보다는 흐린 날의 광량변화가 크기 때문에 현장 측정한 반사율과 비교 시 오차가 더욱 큰 것으로 보고하였다. 실험적 방법으로는 선형관계식을 얻기 위하여 현장 반사율을 측정한 지점 부근에서는 비교적 정확한 반사율 값을 얻을 수 있지만, 실험적 방법에서 도출된 선형관계식은 영상의 좌상단부 촬영 시점의 대기조건 및 복사조도에 기반을 두고 있기 때문에 이와 환경조건이 상이한 산림의 중앙부에서는 적용성이 낮다고 할 수 있다. 결국 실험적 방법은 광범위한 면적에 장시간 비행이 요구되는 지역에서는 변화하는 복사조도 및 대기상태 때문에 확장 적용하는 데 문제가 발생할 수 있다. 반면에 직접적 방법은 촬영 중 변화하는 복사조도를 대기상태를 매 영상마다 보정해 줄 수 있으므로 보다 안정적인 반사율 산출에 적합하다.

2) 분광 반사율 비교

우선, 실험적 보정 방법으로 산출한 반사율(ρE)과 식생지수 영상(NDVIE)에서 값이 비이상적으로 나타나는 현상을 보다 상세히 분석하기 위하여, 직접 보정 방법과 실험적 보정 방법을 통해 산출한 NDVI, NDVIE에 대하여 NDVI 프로파일을 비교하였다. 산림지역에서 NDVIE가 급감하여 값이 비정상적으로 낮은 영역과 정상적인 영역에 걸쳐 있는 약 70 m 길이의 횡단선을 긋고(Fig. 3(b): black line), 해당 선에 있는 화소들의 NDVI 프로파일을 추출하였다(Fig. 5). 이때 임분 특성에 따른 반사율의 변이를 최소화하기 위하여 수치임상도를 이용하여 동일한 수종, 울폐도, 수고를 가지고 있는 참나무 임상 내부에서 횡단선을 설정하였다. Fig. 5에서 NDVIE가 비균질한 영역과 균질한 영역의 경계는 약 200번째 화소에 해당한다. 이 경계를 기준으로 비균질한 영역에서는 0.602을 평균으로 0.33~0.89의 범위의 상대적으로 낮은 NDVIE를 나타냈고, 균질한 영역에서는 0.830을 평균으로 하여 0.62~1의 범위의 상대적으로 높은 NDVIE를 나타냈다. 횡단선 전체적으로 NDVIE 값의 편차가 매우 컸고, 상대적으로는 균질한 영역에서는 편차가 상대적으로 작았다. 반면 NDVI는 모든 화소에서 0.9 범위에서 균일한 값을 보여 직접적 방법을 통해 안정적인 반사율 및 식생지수가 산출되었다는 것을 확인할 수 있다.

Fig. 5. Comparison of NDVI profiles for the boundaries of consistent and inconsistent regions in two NDVI images derived by the direct method and empirical line method.

두 가지 보정 방법에 의하여 도출된 반사율과 현장 측정된 반사율과의 일치 여부를 비교하였다. 직접 보정 방법으로 산출한 반사율(ρ)의 검증은 현장에서 측정한 15개 지표물의 반사율(ρf)을 사용하였고, 실험적 보정 방법을 통해 산출한 반사율(ρE)은 선형관계식에 사용된 9개 지표물을 제외하고 자연 지표물에서 측정된 6개의 반사율(ρf)만을 사용하였다. 두 방법으로 변환된 반사율 영상에서 현장 반사율 측정 지점에 해당하는 화소를 추출하였고(2×2화소의 평균), 이를 현장 측정된 반사율과 비교하였다(Fig. 6).

Fig. 6. Comparison between field-measured reflectance (ρf) and image reflectance derived by (a) the direct method using downwelling irradiance measurement (ρ) and (b) the empirical line correction method (ρE) for five spectral bands.

직접 보정 방법에서 얻은 영상의 반사율(ρ)과 현장 측정된 반사율(ρf)은 0.986에서 0.993의 상관계수를 보이며, 영상에서 도출한 반사율과 참값이 매우 근접한 것으로 분석되었다(Fig. 6(a)). 영상에서 도출한 반사율은 현장 측정값과 약 2~4% 정도의 미미한 반사율의 차이를 가졌다. 두 측정값의 관계식 기울기가 모든 밴드에서 1.147~1.337 범위로 계산되어, 영상에서 얻어진 반사율이 현장 측정값보다 다소 낮은 경향을 보였다. 복사조도 측정을 통한 직접적 보정 방법은 현장 측정 반사율과 매우 일치하는 반사율을 산출하고 있어, 산림식생의 특성을 주기적으로 모니터링할 수 있는 충분한 가능성을 보여주고 있다.

실험적 보정 방법으로 도출한 반사율 영상에서는 산림 지역에서 비정상적으로 높은 반사율 분포를 보여주었다. 그러나 6개의 한정된 지표물에서 얻어진 영상의 반사율(ρE)은 현장 측정된 반사율(ρf)과 매우 밀접한 관계(상관계수 (r): 0.975~0.999)를 보여주고 있다(Fig. 6(b)).이와 같이 높은 상관계수는 실험적 보정 방법이 매우 적절한 보정 방법임을 의미하지만, 검증에 사용된 6개 현장 반사율 측정이 선형관계식 산출에 사용된 9개의 현장 측정지점과 매우 인접한 지점에서 수행되었음을 고려한다면 높은 상관계수가 오히려 당연한 결과라 할 수 있다. 만약 이와 동일한 방법으로 선형관계식 산출에 사용된 반사율 측정 지점과 시공간적으로 차이가 있는 현장(가령 산림 중앙부) 측정 반사율과 비교 검증했다면 상관계수가 높지 않았을 것으로 판단된다. 결국 다중분광영상의 실험적 보정 방법은 선형관계식 산출을 위한 현장 측정 지점과 인접한 지역에서 시공간적으로 차이가 나지 않는 좁은 지역에만 적합한 방법이라 할 수 있다.

5. 결론

산림조사, 산림병해충 피해 분석, 산불 모니터링 등산림 분야에서 무인기 다중분광영상의 활용이 증가하고 있고, 그 활용의 범위가 정량적 분석으로 점차 확대되고 있다. 본 연구에서는 무인기 다중분광영상을 생물리적 변수와 관련된 산림 식생 모니터링에 활용하기 위해 필요한 반사율을 산출하고 이를 평가하였다. 반사율 산출을 위해서 (1) 복사조도를 이용한 직접적 보정 방법과 (2) 실험적 보정 방법을 적용하였고, 현장에서 측정된 반사율 자료와 이를 비교평가 하였다. 두 방법으로 도출한 영상의 반사율과 현장 측정 반사율은 정량적으로 매우 밀접한 관계를 갖는 것으로 분석되었으나, 반사율 영상은 지역에 따라 상이한 분포를 나타냈다. 직접적 방법을 통해 산출한 반사율은 연구지역 전체에 대하여 안정적인 반사율 분포를 보여주고 있지만, 실험적 보정 방법을 통해 얻은 반사율에서는 비행 중 복사조도의 변화로 인하여 반사율의 변이가 비이상적으로 높은 분포 양상을 보였다.

무인기 다중분광영상의 반사율을 산출하기 위하여 실험적 보정 방법이 일반적으로 널리적용되고 있으며, 소규모 면적에 대해 단시간 촬영하는 경우 안정적인 반사율을 도출할 수 있는 효과적인 방법이라고 판단된다. 그러나 상대적으로 넓은 면적을 대상으로 비교적 긴 촬영 시간이 필요한 경우에는 안정적인 반사율 도출에는 부적합한 것으로 판단된다. 또한 실험적 보정 방법을 적용하기 위해서는 매번 영상 촬영마다 현장 반사율을 측정하거나 기준반사판을 설치해야 하는 번거로움이 있어 현실적 적용에 한계가 있을 수 있다.

산림분야에서 무인기 다중분광영상의 활용은 임분의 엽면적지수 및 생체량 추정과 수관의 수분함량과 같은 정량적 정보와 관련된 분야로 확대되고 있다. 또한 단일 시점의 영상 분석에서 동일 지역을 여러 시기에 걸쳐 촬영한 시계열 영상의 분석으로 확대되고 있기 때문에 영상으로부터 반사율 산출의 중요성이 더욱 강조되고 있다. 본 연구에서는 단일시기 촬영된 무인기 다중분광영상으로부터 반사율을 산출하고 그 품질을 분석하였으나, 향후 시계열로 촬영된 영상을 대상으로 반사율의 시간적 변이에 대한 검증이 수행되어야 할 것이다. 또한 다양한 기상조건, 광량 조건, 촬영 각도, 지형고도,대기 수증기량 등 보다 다양한 환경조건에서 촬영된 다중분광영상을 대상으로 산출된 반사율에 대한 보다 상세한 분석이 수행되어야 할 것이다.

References

  1. Aasen, H., A. Burkart, A. Bolten, and G. Bareth, 2015. Generating 3D hyperspectral information with lightweight UAV snapshot cameras for forest monitoring: From camera calibration to quality assurance, ISPRS Journal of Photogrammetry and Remote Sensing, 108(2015): 245-259. https://doi.org/10.1016/j.isprsjprs.2015.08.002
  2. Assmann, J.J., J.T. Kerby, A.M. Cunliffe, and I.H. Myers-Smith, 2018. Forest monitoring using multispectral sensors-best practices and lessons learned from high latitudes, Journal of Unmanned Vehicle Systems, 7(1): 54-75.
  3. Buzzard Cameras Quick Start Guide, 2018. Buzzard Cameras Limited, https://buzzard.camera/, Accessed on Nov. 10, 2019.
  4. Dash, J.P., M.S. Watt, G.D. Pearse, M. Heaphy, and H.S. Dungey, 2017. Assessing very high resolution UAV imagery for monitoring forest health during a simulated disease outbreak, ISPRS Journal of Photogrammetry and Remote Sensing, 131(2017): 1-14. https://doi.org/10.1016/j.isprsjprs.2017.07.007
  5. Del Pozo, S., P. Rodriguez-Gonzalvez, D. Hernandez-Lopez, and B. Felipe-Garcia, 2014. Vicarious radiometric calibration of a multispectral camera on board an unmanned aerial system, Remote Sensing, 6(3): 1918-1937. https://doi.org/10.3390/rs6031918
  6. Deng, L., Z. Mao, X. Li, Z. Hu, F. Duan, and Y. Yan, 2018. UAV-based multispectral remote sensing for precision agriculture: A comparison between different cameras, ISPRS Journal of Photogrammetry and Remote Sensing, 146(2018): 124-136. https://doi.org/10.1016/j.isprsjprs.2018.09.008
  7. Guo, Y., J. Senthilnath, W. Wu, X. Zhang, Z. Zeng, and H. Huang, 2019. Radiometric calibration for multispectral camera of different imaging conditions mounted on a UAV platform, Sustainability, 11(4): 978. https://doi.org/10.3390/su11040978
  8. Hakala, T., E. Honkavaara, H. Saari, J. Makynen, J. Kaivosoja, L. Pesonen, and I. Polonen, 2013. Spectral imaging from UAVs under varying illumination conditions, International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XL-1/W2: 189-194, https://doi.org/10.5194/isprsarchives-XL-1-W2-189-2013. https://doi.org/10.5194/isprsarchives-XL-1-W2-189-2013
  9. Hakala, T., L. Markelin, E. Honkavaara, B. Scott, T. Theocharous, O. Nevalainen, R. Nasi, J. Suomalainen, N. Viljanen, and C. Greenwell, 2018. Direct reflectance measurements from drones: sensor absolute radiometric calibration and system tests for forest reflectance characterization, Sensors, 18(5): 1417. https://doi.org/10.3390/s18051417
  10. Iqbal, F., A. Lucieer, and K. Barry, 2018. Simplified radiometric calibration for UAS-mounted multispectral sensor, European Journal of Remote Sensing, 51(1): 301-313. https://doi.org/10.1080/22797254.2018.1432293
  11. Kim, M.J., H.S. Bang, and J.W. Lee, 2017. Use of unmanned aerial vehicle for forecasting pine wood nematode in boundary area: A case study of Sejong Metropolitan Autonomous City, Journal of Korean Society of Forest Science, 106(1): 100-109 (in Korean with English abstract). https://doi.org/10.14578/jkfs.2017.106.1.100
  12. Lee, K.D., Y.E. Lee, C.W. Park, S.Y. Hong, and S.I. Na, 2016. Study on Reflectance and NDVI of Aerial Images using Fixed-Wing UAV "Ebee", Korean Journal of Soil Science and Fertilizer, 49(6): 731-742. https://doi.org/10.7745/KJSSF.2016.49.6.731
  13. Lee, S.K., S.J. Park, G.M. Baek, H.B. Kim, and C.W. Lee, 2019. Detection of damaged pine tree by the pine wilt disease using UAV Image, Korean Journal of Remote Sensing, 35(3): 359-373 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.3.2
  14. Merino, L., F. Caballero, J.R. Martinez-De-Dios, I. Maza, and A. Ollero, 2012. An unmanned aircraft system for automatic forest fire monitoring and measurement, Journal of Intelligent & Robotic Systems, 65(1-4): 533-548. https://doi.org/10.1007/s10846-011-9560-x
  15. Messinger, M., G. Asner, and M. Silman, 2016. Rapid assessments of Amazon forest structure and biomass using small unmanned aerial systems, Remote Sensing, 8(8): 615. https://doi.org/10.3390/rs8080615
  16. MicaSense Inc., 2017. MicaSesnse RedEdge-M Multi-spectral Camera User Manual, https://support.micasense.com, Accessed on Nov. 10, 2019.
  17. Na, S.I., C.W. Park, Y.K. Cheong, C.S. Kang, I.B. Choi, and K.D. Lee, 2016. Selection of Optimal Vegetation Indices for Estimation of Barley & Wheat Growth based on Remote Sensing - An Application of Unmanned Aerial Vehicle and Field Investigation Data -, Korean Journal of Remote Sensing, 32(5): 483-497 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2016.32.5.7
  18. Puliti, S., H. Orka, T. Gobakken, and E. Naesset, 2015. Inventory of small forest areas using an unmanned aerial system, Remote Sensing, 7(8): 9632-9654. https://doi.org/10.3390/rs70809632
  19. Sa, I., M. Popovic, R. Khanna, Z. Chen, P. Lottes, F. Liebisch, J. Nieto, C. Stachniss, A. Walter, and R. Siegwart, 2018. Weedmap: a large-scale semantic weed mapping framework using aerial multispectral imaging and deep neural network for precision farming, Remote Sensing, 10(9): 1423. https://doi.org/10.3390/rs10091423
  20. Safonova, A., S. Tabik, D. Alcaraz-Segura, A. Rubtsov, Y. Maglinets, and F. Herrera, 2019. Detection of Fir Trees(Abies sibirica) Damaged by the Bark Beetle in Unmanned Aerial Vehicle Images with Deep Learning, Remote Sensing, 11(6): 643. https://doi.org/10.3390/rs11060643
  21. Tetracam Inc, 2011. Multiple Camera Array User's Guide, http://www.tetracam.com/Products-Mini_MCA.htm, Accessed on Nov. 10, 2019.
  22. Tian, J., L. Wang, X. Li, H. Gong, C. Shi, R. Zhong, and X. Liu, 2017. Comparison of UAV and WorldView-2 imagery for mapping leaf area index of mangrove forest, International Journal of Applied Earth Observation and Geoinformation, 61(2017): 22-31. https://doi.org/10.1016/j.jag.2017.05.002
  23. Xu, K., Y. Gong, S. Fang, K. Wang, Z. Lin, and F. Wang, 2019. Radiometric Calibration of UAV Remote Sensing Image with Spectral Angle Constraint, Remote Sensing, 11(11): 1291. https://doi.org/10.3390/rs11111291
  24. Wang, C. and S.W. Myint, 2015. A simplified empirical line correction method of radiometric calibration for small unmanned aircraft systems-based remote sensing, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 8(5): 1876-1885. https://doi.org/10.1109/JSTARS.2015.2422716
  25. Yuan, C., Y. Zhang, and Z. Liu, 2015. A survey on technologies for automatic forest fire monitoring, detection, and fighting using unmanned aerial vehicles and remote sensing techniques, Canadian Journal of Forest Research, 45(7): 783-792. https://doi.org/10.1139/cjfr-2014-0347