DOI QR코드

DOI QR Code

Change Detection of Building Demolition Area Using UAV

UAV를 활용한 건물철거 지역 변화탐지

  • Shin, Dongyoon (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Kim, Taeheon (Department of Geospatial Information, Kyungpook National University) ;
  • Han, Youkyung (School of Convergence and Fusion System Engineering, Kyungpook National University) ;
  • Kim, Seongsam (Disaster Scientific Investigation Division, National Disaster Management Research Institute) ;
  • Park, Jesung (Disaster Scientific Investigation Division, National Disaster Management Research Institute)
  • 신동윤 (국립재난안전연구원 재난원인조사실) ;
  • 김태헌 (경북대학교 공간정보학과) ;
  • 한유경 (경북대학교 융복합시스템공학부) ;
  • 김성삼 (국립재난안전연구원 재난원인조사실) ;
  • 박제성 (국립재난안전연구원 재난원인조사실)
  • Received : 2019.09.19
  • Accepted : 2019.10.14
  • Published : 2019.10.31

Abstract

In the disaster of collapse, an immediate response is needed to prevent the damage from worsening, and damage area calculation, response and recovery plan should be established. This requires accurate detection of the damage affected area. This study performed the detection of the damaged area by using UAV which can respond quickly and in real-time to detect the collapse accident. The study area was selected as B-05 housing redevelopment area in Jung-gu, Ulsan, where the demolition of houses and apartments in progress as the redevelopment project began. This area resembles a collapsed state of the building, which clear changes before and after the demolition. UAV images were acquired on May 17 and July 9, 2019, respectively. The changing area was considered as the damaged area before and after the collapse of the building, and the changing area was detected using CVA (Change Vector Analysis) the Representative Change Detection Technique, and SLIC (Simple Linear Iterative Clustering) based superpixel algorithm. In order to accurately perform the detection of the damaged area, the uninterested area (vegetation) was firstly removed using ExG (Excess Green), Among the objects that were detected by change, objects that had been falsely detected by area were finally removed by calculating the minimum area. As a result, the accuracy of the detection of damaged areas was 95.39%. In the future, it is expected to be used for various data such as response and recovery measures for collapse accidents and damage calculation.

붕괴사고가 발생하였을 시, 피해악화를 방지하기 위해 즉각적인 대응이 필요하며 피해면적 산출, 대응 및 복구 계획 수립 등이 이루어져야 한다. 이를 위해선 피해지역에 대한 정확한 탐지가 이루어져야 한다. 본 연구는 붕괴사고 피해탐지를 위해 신속하고 실시간 대응이 가능한 Unmanned Aerial Vehicle(UAV)를 활용하여 피해지역 탐지를 수행하였다. 연구대상지역은 재개발 사업이 착수되면서 주택 및 아파트의 철거가 진행 중에 있는 울산 중구 B-05 주택재개발 지역으로 선정하였다. 이 지역은 건물의 철거 모습이 붕괴된 상태와 유사하고 철거 전후의 변화가 뚜렷하게 나타나 있으며, 2019년 5월 17일, 7월 9일 각각 UAV 영상을 획득하였다. 건물의 붕괴 전후 영상에서 변화지역을 피해지역으로 판단하였으며, 이를 위해 대표적인 변화탐지 기법인 분광벡터 변화분석 기법(Change Vector Analysis)과 SLIC(Simple Linear Iterative Clustering)기반 superpixel 기법을 이용하였다. 피해지역을 정확하게 탐지하기 위해 비관심지역(식생)을 ExG(Excess Green)를 이용하여 1차적으로 제거해주었고, 변화탐지가 된 객체들 중 면적으로 인한 오탐지가 된 객체들은 최소면적을 계산하여 최종적으로 제거해주었다. 그 결과 변화지역 탐지의 전체결과는 95.39%를 나타냈으며, 추후 붕괴사고에 대한 대응 및 복구대책 및 피해액 산출 등 다양한 자료로 활용할 수 있을 것으로 기대된다.

Keywords

1. 서론

매년 산불, 홍수, 산사태 등과 같은 자연재해와 화재, 붕괴, 화학사고 등과 같은 사회재난으로 인해 많은 인명피해와 경제적 손실이 크게 발생하고 있다. 재난·사고가 발생하였을 시, 피해지역에 대한 신속한 정보 획득은 필수적이고, 효율적인 복구대책 및 대응 체계를 수립하는 것은 매우 중요하다. 최근 재난·사고에 대한 현황 및 피해탐지를 위해 원격탐사 기술을 활용한 방법이 많이 제시되고 있다. Kim et al.(2010)은 자연재해 피해조사를 위해 고해상도 영상을 이용하여 피해조사시스템을 설계하여 피해지역에 대한 객관적이고 정확한 피해정보를 산출하였으며, Jung(2012)은 고해상도 위성영상을 이용하여 재난피해 지역을 탐지하고 추출하는 방법론을 제시하였다. 이처럼 위성영상은 산불, 홍수, 산사태 등과 같은 자연재해와 같은 광범위한 지역을 탐지하는 것과 시계열적인 분석에는 효율적이나 건물화재, 붕괴사고 등에는 실시간으로 대응하기엔 영상의 주기 또는 구름 등에 제약을 받게 된다.

이러한 문제를 해결하기 위해, 조작이 간단하고 신속하게 공간정보를 획득할 수 있는 무인비행장치 (Unmanned Aerial Vehicle, UAV)가 활용되고 있다(Kim and Kim, 2018). UAV는 위성 및 항공영상에 비해 소규모 지역 촬영에 적합하고, 재난·사고 발생 시, 즉각적인 대응이 가능하며 다른 장비에 비해 손쉽게 조작할 수 있으므로 재난·사고 피해조사에 매우 효과적으로 활용될 수 있다(Jung and Yun, 2012). 또한, 필요한 정보에 따라 고해상도 카메라, 멀티스펙트럴 카메라, 적외선 카메라 등 다양한 센서를 목적에 맞게 탑재할 수 있으며 위성영상에 비해 구름의 영향을 받지 않고 양질의 영상을 획득할 수 있다. Kim et al.(2010)은 풍수해 모니터링을 위한 UAV의 적용성을 분석하였으며, Kim et al.(2019)은 저수지 붕괴, 토사유출, 산사태 등에 대한 피해조사를 위해 드론을 활용한 매핑을 통해 피해정보를 정밀하게 파악하였다. 국내에서는 대부분 자연재해에 대해 UAV를 활용한 피해탐지 또는 모니터링 연구가 진행되고 있었으며, 붕괴로 인한 피해탐지 연구는 미흡한 실정이다. 붕괴사고의 경우, 피해지역에 대한 신속한 정보 획득은 필수적이고, 효율적인 복구대책 및 대응 체계를 수립하는 것은 매우 중요하다.

따라서 본 연구는 붕괴사고 발생을 대비하여, 실시간정보 수집과 신속한 대응이 가능한 UAV를 활용하여 건 물의 변화를 탐지하고자 한다. 본 연구에서는 붕괴 모습과 유사한 형태를 가지는 건물철거 현장을 대상으로 영상을 획득하였다. 울산 중구 B-05 주택재개발지역을 대상으로 2019년 5월 17일, 7월 9일 철거 전/후의 UAV 영상을 획득하였으며, 대표적인 변화탐지 알고리즘인 분광벡터변화분석 기법(Change Vector Analysis, CVA)과 SLIC(simple linear iterative clustering)기반 superpixel 알고리즘을 이용하여 건물의 변화를 탐지하였다. 또한, 알고리즘의 탐지 성능평가를 위한 검증을 수행하였다.

2. 연구지역 및 자료

1) 연구지역

지진과 같은 대규모 재해, 부실공사, 지반약화 등으로 인한 건물 붕괴 발생 시, 신속한 피해탐지 대비를 위해 울산 중구 B-05 주택재개발지역을 테스트베드로 선정하였다(Fig. 1). 이 지역은 2019년 4월말부터 내부철거작업이 이루어졌으며, 2019년 8월 현재까지 외부철거 작업이 진행되고 있다. 또한, 건물의 철거가 확연히 구분되는 지역을 선정하여 철거 전후의 변화탐지를 분석하였다.

OGCSBN_2019_v35n5_2_819_f0001.png 이미지

Fig. 1. Study Area: housing redevelopment region, Jung-gu, Ulsan city, Korea

2) 연구자료

본 연구에서는 고해상도 영상 획득을 위해, DJI사의 Inspire2 드론을 이용하였다(Fig. 2(a)). Inspire2는 회전익 드론으로, 매핑 또는 모니터링 분야에서 활용되고 있으며 목적에 맞는 카메라 센서를 탈부착 할 수 있다. 본 연구에서는 X5S 카메라를 장착하여 촬영하였다(Fig. 2(b)). 본 연구에 사용된 장비의 제원은 Table 1과 같다.

OGCSBN_2019_v35n5_2_819_f0002.png 이미지

Fig. 2. UAV and camera used in this study.

Table 1. UAV and camera specification

OGCSBN_2019_v35n5_2_819_t0001.png 이미지

건물 철거 전후의 변화탐지를 위해, 외부철거가 시작되기 전인 2019년 5월 17일, 외부철거가 진행 중인 2019년 7월 9일에 UAV 영상을 획득하였다. 재개발지역에고층아파트가 존재하여 비행고도는 120 m, ground sample distance는 2.91 cm로 설정하고 비행코스를 계획하였다. 또한, 철거로 인해 훼손되지 않는 지점을 선점하여 지상기준점 5점을 측량하였으며, 사용된 장비와 지상기준점 분포 및 좌표는 Fig. 3와 Table 2에 나타내었다. 최종적으로 Pix4D 소프트웨어를 통해 mosaic 정사영상 제작 및 DSM을 추출하였다(Fig. 4). 영상의 크기는 14557 × 11583이고 cell size는0.02 m이다. 정사영상의 정합 정확도는 철거 전/후 각각 RMSE 0.007 m/0.006 m 이고, GCP RMSE는 철거 전 영상 X=0.008 m, Y=0.005 m, Z=0.007 m, 철거 후 영상 X=0.007 m, Y=0.006 m, Z=0.007 m를 보였다.

OGCSBN_2019_v35n5_2_819_f0012.png 이미지

Fig. 3. (a) GPS equipment used in this study and (b) GCP location.

Table 2. Collected GCP coordinate

OGCSBN_2019_v35n5_2_819_t0002.png 이미지

OGCSBN_2019_v35n5_2_819_f0003.png 이미지

Fig. 4. UAV based ortho-photo and DSM.

3. 연구 방법

본 연구는 Fig. 5의 연구 흐름도를 바탕으로 신속하게 공간정보를 수집할 수 있는 UAV를 활용하여 도심지의 건물붕괴로 인한 피해지역을 탐지하고자 한다. 먼저 시간 변화에 따른 연구지역에 분포하는 건물의 변화양상을 파악하기 위해 UAV 영상을 기반으로 생성된 철거 전/후 영상의 DSM에 분광변화벡터 기법을 적용하여 변화확률지도를 생성하였다. 그리고 고해상도 영상의 효율적인 변화탐지를 수행하기 위해 영상분할기법 중 하나인 SLIC 기법을 활용하여 변화확률지도를 객체별로 분할하였다. 객체별로 분할된 변화확률지도의 히스토그램을 분석하여 변화지역에 해당되는 임계값을 적용하여 변화지역을 추출하고 ExG(Excess Green)을 활용하여 비관심지역을 제거한 다음 건물의 최소단위 면적을 고려하여 오탐지 지역을 제거하였다.

OGCSBN_2019_v35n5_2_819_f0004.png 이미지

Fig. 5. Flow chart of study

1) 분광변화벡터분석을 활용한 변화확률지도 생성

일반적로 변화지역은 영상 간 토지피복이 변화한 지역이므로 변화지역에 대한 분광특성이 영상 간 상이하게 표현된다. 이러한 변화지역에서 나타나는 분광특성을 활용하여 변화지역을 탐지할 수 있다. 대표적인 변화탐지 기법인 분광변화벡터분석은 영상 간 화소값을 분광공간에 표현하여 수식 (1)을 통해 변화지역을 탐지할 수 있는데 본 연구에서는 영상 간 건물붕괴로 인한 피해지역에 대한 변화확률지도를 생성하기 위해 건물의 높이 값 정보로 구성된 철거 전/후 영상의 DSM을 활용하여 산출된 분광변화벡터의 크기정보만을 활용하였다. 주요 인자로는 크기정보와 방향정보가 있다(Liu et al., 2015)..

\(X_{\triangle} = X_2-X_1\)       (1)

\(\rho = \sqrt{\sum_{i=1}^b (X_{\triangle , i})^2}\)        (2)

여기서,

XΔ: 대응화소 간 분광차벡터

X2: 철거 전 영상의 DSM

X1: 철거 후 영상의 DSM

ρ: 분광변화벡터의 크기정보

XΔ, i : 대표밴드의 대응화소 간 분광변화벡터

b: 대응되는 밴드 수

2) SLIC를 활용한 영상분할 및 변화지역 탐지

고해상도 영상을 활용하여 변화지역을 효과적으로 탐지하기 위해서는 영상을 객체별로 분할하여 객체 단위로 탐지하는 것이 효과적이다(Choi, 2015). 객체분할기법 중 하나인 SLIC 기법은 지역적인 군집을 통해 superpixel을 생성하는 방법으로, 기존의 superpixel생성기법들에 비해 영상분할 정확도와 연산 속도에서 우수하다(Achanta et al., 2012). SLIC 기법은 먼저 사용자가 superpixel 생성 개수를 지정하고, 지정된 superpixel 생성 개수에 따라 일정검색범위(S×S)가 결정된다. 그리고 초기 cluster를 중심으로 결정된 일정검색범위에 대응되는 거리측정치(distance measure)를 계산하여 인접한 픽셀들을 군집하여 하나의 객체로 분할한다. 여기서 거리측정치는 식 (3)과 같이 일정검색범위에 대응되는 CIELAB 색상 공간의 휘도와 색상 값 사이의 색상거리, 화소 공간좌표간의 거리, 그리고 색상 유사도와 공간 인접성 사이의 상대적 중요도를 나타내는 compactness factor를 활용하여 산출된다(Chung et al., 2018). 분할된 객체에는 cluster를 중심으로 결정된 일정검색범위에 대응되는 화소값들의 평균값이 저장된다. 이러한 과정을 지정된 반복회수에 도달하거나 이전 반복의 cluster 중심과의 차이가 임계치 이하가 될 때까지 반복적으로 수행함으로써 영상 전체에 대한 객체 분할 과정이 수행된다.


\(D = \sqrt{\ d_c^2 + ({d_s \over S})^2 m^2}\)        (3)

여기서,

D: 거리측정치

dc: 색상 거리

ds: 픽셀 공간좌표간 거리

S: 영상에 대한 검색 범위

m2 : Compactness factor

CVA 기법을 이용해 추출한 변화확률지도에 SLIC 기법을 적용하여 영상을 객체 단위로 분할하였다. 각 객체는 RGB 값, 공간휘도, 색상 값, 픽셀 좌표 등 5차원 공간상의 지역적인 군집을 통해 superpixel을 생성하게 된다. 또한 객체 단위로 분할된 변화확률지도에서 변화지역을 추출하기 위해 영상의 히스토그램을 분석하여 변화지역에 해당되는 임계값을 선정하였다. 그 후 선정된 임계값을 객체 단위로 분할된 변화확률지도에 적용하여 임계값보다 큰 객체를 변화지역으로 추출하였다.

3) 비관심(식생) 및 오탐지 지역 제거

추출된 변화지역은 도심지의 건물뿐만 아니라 식생에서 발생한 변화를 모두 포함하고 있기 때문에 식생 지역에서 발생한 변화지역은 제거해주어야 한다. 일반적으로 식생지역 추출에는 근적외선(near infrared) 밴드를 활용하여 생성된 식생지수(VI, Vegetation Index)를 활용하는 것이 효과적이다. 하지만 취득된 UAV영상은 근적외선 밴드 없이 R, G, B 광학밴드로만 구성되어 있기 때문에 근적외선 밴드 기반의 식생지수를 활용할 수 없다. 이에 본 연구에서는 R, G, B 광학밴드만을 활용하여 생성할 수 있는 다양한 식생지수 중 Woebbecke et al. (1995)이 제시한 ExG를 생성하여 식생지역 제거에 활용하였다. ExG는 식생과 비식생지 구분에 활용되고 있으며(Yeom et al., 2019), 식 (4)와 같이 정의된다.

\(Ex G = 2g_n-R_n - B_n\)       (4)

여기서,

Rn:\(R\over{R+G+B}\)

Gn: \(G\over{R+G+B}\)

Bn: \(B\over{R+G+B}\)

R, G, B: 적색, 녹색, 청색 밴드

기준영상과 입력영상의 ExG를 생성한 후, Otsu 함수를 적용하여 각각의 ExG에 대한 임계값을 산출하였다. Otsu 함수는 간단한 계산(이진화)를 통해 영상의 임계값을 계산할 수 있으며, 분할되는 두 객체 사이의 분산을 최대화하여 임계값을 찾는다(Otsu, 1979; Vala and Baxi, 2013). 임계값을 기준영상과 입력영상의 ExG에 적용하여 식생지역을 추출하였으며, 추출된 기준영상과 입력영상의 식생지역을 결합하여 식생에서 발생한 변화지역을 제거하였다. 식생지역에서 발생한 변화지역은 제거하였지만, 건물붕괴지역을 제외한 나머지 인공구조물의 변화로 인해 오탐지 된 객체도 제거해주어야 한다. 이에 건물의 최소단위 면적을 산출하여, 건물최소단위 면적에 포함되지 않는 지역을 오탐지 지역으로 판단하고 제거하였다.

4. 연구결과

본 연구에서는 건물의 변화 지역을 탐지하기 위해 UAV 정사영상으로부터 추출한 DSM을 활용하여 분광변화벡터분석 기법을 통한 변화확률지도를 생성하였다(Fig. 6). 철거 전 영상(기준영상)과 철거 후 영상(입력영상)을 앞의 식 (1)과 식 (2)에 적용하여 두 영상간의 차를 통해 재개발지역의 변화된 지역을 탐지하였다. Fig.7에서처럼, 화소 값이 크기 때문에 밝게 표현되는 부분이 변화된 확률이 높은 지역임을 의미한다. 변화학률지도를 기반으로 SLIC 기반 superpixel 기법을 적용하여 영상 객체분할을 수행하였다. Fig. 7(a)처럼 영상에 대해 일정한 간격을 가지는 격자 형태로 초기 cluster 중심을 샘플링하고 픽셀들에 대한 거리측정치를 계산해주었다. 이때 superpixel 개수는 10,000개, compactness는 기본 값인 10으로 설정하였으며 임계치가 1 이하가 될 때 까지 반복 작업을 수행하였다. 이처럼 할당된 픽셀들을 바탕으로 cluster 중심을 재계산하게 되며, 지정한 반복횟수에 도달하거나 임계치가 1 이하가 될 때 까지 거리측정치를 이용한 픽셀의 cluster 할당 반복 수행을 통해 Fig. 7(b)과 같은 최종 영상 분할 결과를 얻게 되었다.

OGCSBN_2019_v35n5_2_819_f0005.png 이미지

Fig. 6. Change probability map.

OGCSBN_2019_v35n5_2_819_f0006.png 이미지

Fig. 7. Image objectivization using SLIC-based superpixel.

하지만 유사한 cluster끼리 분할이 되면서 건물 철거 (붕괴)의 변화가 아닌 시기적인 차이로 인한 식생, 건축 자제, 자동차 등 비관심지역 및 객체들이 남아있다. 식생에 의한 오탐지 확률을 줄이기 위해 ExG를 통해 식생만을 추출하였다(Fig. 8). 1차적으로 재개발지역 내 존재하는 가로수, 정원, 공원 등이 추출되었으며 비관심지역(식생)을 제거하였다.

OGCSBN_2019_v35n5_2_819_f0007.png 이미지

Fig. 8. Extracted non-ROI using ExG(vegetation area).

비관심지역(식생)을 제거하였지만 건물의 변화 중 붕괴(철거)로 인한 변화 지역이 아닌 객체들이 탐지되어 있다(Fig. 9(a)). 서로 다른 시기의 영상을 활용하였기때문에, 자동차의 주·정차, 철거과정 기간 건축 자제들의 적재 유무, 기타 조경을 위한 인공구조물 유무 등에대한 오탐지 부분을 제거해주어야 결과를 정확한 결과를 얻을 수 있다. 변화확률이 높은 객체들 중 최소단위의 건물 면적을 계산하여 제거해주었는데 최소단위 건물 면적은 100 m2으로 설정하였으며, Fig. 9(b)는 최소단위 건물 면적 값 이하의 객체들을 제거한 후 건물 변화 탐지의 최종 결과를 나타낸다.

OGCSBN_2019_v35n5_2_819_f0008.png 이미지

Fig. 9. Area-based removal of falsely detected change regions: (a) before removing falsely detected regions, (b) after removing falsely detected regions.

Fig. 10은 최종적으로 변화 탐지한 결과를 나타내고 있으며, 검은 부분은 변화하지 않은 부분이고 흰색 부분은 변화가 일어난 부분을 나타낸다. 변화탐지 부분이 정확히 탐지되었는지 각 섹션별로 나누어 변화 탐지결과를 확인하였으며, 각각의 섹션에서 ①은 주택밀집 지역,②는 아파트 단지, ③은 교회의 부속 건물을 나타낸다. 변화가 일어난 지역에 대해서 탐지 정확도 검증을 위해 참조자료를 생성하여 비교하였다. 2019년 7월 9일 정사영상을 기준으로 각 섹션에 대해 디지타이징을 통한 참조자료를 제작하였다(Fig. 11).

OGCSBN_2019_v35n5_2_819_f0009.png 이미지

Fig. 10. Comparison by final change detection.

OGCSBN_2019_v35n5_2_819_f0010.png 이미지

Fig. 11. Reference data for validation.

그 후, 분류행렬(confusion matrix)을 이용하여 변화탐지의 정확도를 평가하였다. 분류행렬은 알고리즘의 성능을 평가하는 지표로 사용되는데, true positive(TP), true negaive(TN), false negative(FN), false positive(FP)로 분류되고 이 지표를 통해 정밀도(precision), f1-score, 전체결과(overall) 등을 계산하여 평가한다. 각 지표에 대한 계산은 아래 식에 의해 계산된다. Table 3은 참조자료와 변화탐지 알고리즘 결과를 비교한 분류행렬을 나타내고 있으며 분석한 결과, 정밀도(precision)는 76.96%, 전체 정확도(overall)은 95.39%로 나타났다. 참조자료와 변화탐지 알고리즘 결과를 비교하였을 때, 철거가 진행되면서 건축 잔해물들이 퍼져있는 부분 때문에 고저차로 인한 오탐지로 정밀도 값이 높지 않게 나타난 것으로 판단된다. 하지만 변화가 일어난 부분에 대한 전체적인 탐지 정확도는 95.39%로 양호한 수준을 보였다.

Table 3. Confusion matrix for change map and reference data

OGCSBN_2019_v35n5_2_819_t0003.png 이미지

\(Precision = {TP\over\ {TP+FP}}\)        (5)

\(Overall = {{TP+FN\over\ FP+TN+TPFN}}\)        (6)

또한, 철거로 인한 각 section의 변화 현상을 분석하기 위해 변화탐지 알고리즘 결과와 참조자료의 면적을 비교하였으며, 그 결과는 Table 4와 같다. Section①, ②의 면적이 차이를 보이는 이유는 Fig. 10, 12에서처럼 건물철거로 인해 철거의 잔해물들이 주변에 분포하면서 더 많은 면적이 탐지되었음을 알 수 있다. 하지만 Section①의 경우 전체적인 탐지부분에서 탐지된 형상은 참조자료와 비교하였을 때 유사한 모습을 나타내고 있다. Section③은 주차차량과 건축자제 등으로 인해 오탐지된 것으로 고려된다. 종합적으로 살펴보았을 때, 변화탐지 알고리즘은 DSM기반으로 추출하였기 때문에 기준영상 및 입력영상에서의 건축 잔해 및 자동차 유무에 따른 고저차가 오탐지에 큰 영향을 끼친 것으로 판단된다.

Table 4. Area comparison between change detection algorithm and reference data

OGCSBN_2019_v35n5_2_819_t0004.png 이미지

OGCSBN_2019_v35n5_2_819_f0011.png 이미지

Fig. 12. Comparison of detection area for each section.

5. 결론

본 연구는 건물 붕괴가 발생하였을 때, 신속한 대응을 위해 UAV를 활용하여 변화탐지를 수행하였다. 대표적인 변화탐지 기법인 분광변화벡터분석을 통해 변화확률지도를 생성한 후, SLIC기반 superpixel 기법을 적용하여 변화탐지를 수행하였다. 정확한 변화탐지를 위해, 비관심지역(식생) 및 오탐지 객체에 대해 특정 임계값을 설정하여 제거해주었다. 그 결과, 최종적으로 추출된 변화탐지 데이터는 참조자료와 비교하였을 때 95.39%의 전체 정확도를 나타냈다. 본 연구를 통해 추후 붕괴사고가 발생하였을 시, UAV의 활용을 통한 변화탐지 알고리즘을 적용하여 피해가 발생한 지역을 탐지하는데 충분히 활용 가능할 것으로 판단된다. 또한, 재난·사고 시 대응·복구 대책 및 피해액 산출 등 다양한 자료로 활용할 수 있을 것으로 기대된다.

하지만 변화탐지 분석 수행 시, 건축 잔해 및 주정차 차량 등 오탐지를 상승시키는 변수들이 존재하였으며, 더욱 안정적이고 정밀한 결과를 도출하기 위해 이러한 개체들을 보다 효과적으로 인식할 수 있는 연구가 수행되어야한다고 판단된다. 향후에는 더욱 다양한 시기의 영상을 확보하여 시계열적인 분석과 붕괴사고 현장의 복잡한 특성을 고려하여 지상기준점 측량없이 direct-georeferencing 기술을 통한 변화탐지를 수행할 예정이다.

사사

본 연구는 2019년 국립재난안전연구원의 “재난안전 관리업무지원기술개발(R&D)-재난원인 현장감식 기술개발(NDMI-주요-2019-05-01)” 지원으로 수행되었습니다.

References

  1. Achanta, R., A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Susstrunk, 2012. SLIC Superpixels Compared to State-of-the-Art Superpixel Methods, IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(11): 2274-2282. https://doi.org/10.1109/TPAMI.2012.120
  2. Choi, J, W., 2015. Unsupervised change detection for very high-spatial resolution satellite imagery by using object-based IR-MAD algorithm, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 33(4): 297-304. https://doi.org/10.7848/ksgpc.2015.33.4.297
  3. Chung, M. K., Y. K. Han, J. W. Choi, and Y. I. Kim, 2018. Optimal Parameter Analysis and Evaluation of Change Detection for SLIC-based Superpixel Techniques Using KOMPSAT Data, Korean Journal of Remote Sensing, 34(6): 1427-1443. https://doi.org/10.7780/kjrs.2018.34.6.3.9
  4. Han, Y. K., T. H. Kim, S. H. Han, and J. H. Song, 2017. Change Detection of Urban Development over Large Area using KOMPSAT Optical Imagery, Korean Journal of Remote Sensing, 33(6): 1223-1232 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2017.33.6.3.6
  5. Jung, K. Y. and H. C. Yun, 2012. Utilization of Real-time aerial Monitoring System for Effective Damage Investigation of natural Hazard, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 30(4): 369-377. https://doi.org/10.7848/ksgpc.2012.30.4.369
  6. Jung, M. H., 2012. Early Disaster Damage Assessment using Remotely Sensing Imagery: Damage Detection, Mapping and Estimation), The Institute of Electronics and Information Engineers, 49(2): 90-95.
  7. Kim, J. H. and J. H. Kim, 2018. Accuracy Analysis of Cadastral Point and Parcel Boundary Point by Flight Altitude Using UAV, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 36(4): 223-233. https://doi.org/10.7848/KSGPC.2018.36.4.223
  8. Kim, M. G., G. Y. Jung, J. B. Kim, and H. C. Yun, 2010. Applicability Analysis of UAV for Storm and Flood Monitoring, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 28(6): 655-662.
  9. Kim, S. S., B. G. Song, S. B. Cho, and H. J. Kim, 2019. Applicability of Drone Mapping for Natural Disaster Damage Investigation, Journal of Korean Society for Geospatial Information Science, 27(2): 13-21. https://doi.org/10.7319/kogsis.2019.27.2.013
  10. Kim, T. H., K. H. Kim, G. B. Nam, J. H. Shim, W. J. Choi, and M. H. Cho, 2010. Development of Natural Disaster Damage Investigation System using High Resolution Spatial Images, Journal of Korea Spatial Information Society, 12(1): 57-65.
  11. Liu, S., L. Bruzzone, F. Bovolo, M. Zanetti, and P. Du, 2015. Sequential spectral change vector analysis for iteratively discovering and detecting multiple changes in hyperspecral images, IEEE Transactions on Geoscience and Remote Sensing, 53(8): 4363-4378. https://doi.org/10.1109/TGRS.2015.2396686
  12. Otsu, N., 1979. A threshold selection method from gray-level histograms, IEEE Transactions on Systems, Man, and Cybernetics, 9(1): 62-66. https://doi.org/10.1109/TSMC.1979.4310076
  13. Vala, H. J. and A. Baxi, 2013. A review on Otsu Image Segmentation Algorithm, International Journal of Advanced Research in Computer Engineering & Technology, 2(2): 387-389.
  14. Woebbecke, D. M., G. E. Meyer, K. Von Bargen, and D. A. Mortensen, 1995. Color indices for weed identification under various soil, residue, and lighting conditions, Transactions of the ASAE, 38(1): 259-269. https://doi.org/10.13031/2013.27838
  15. Yeom, J., J. Jung, A. Chang, A. Ashapure, M. Maeda, A. Maeda, and J. Landivar, 2019. Comparison of Vegetation Indices Derived from UAV Data for Differentiation of Tillage Effects in Agriculture, Remote Sensing, 11(13): 1548. https://doi.org/10.3390/rs11131548