DOI QR코드

DOI QR Code

Web-based Disaster Operating Picture to Support Decision-making

의사결정 지원을 위한 웹 기반 재난정보 표출 방안

  • 권영목 (연세대학교 건설환경공학과) ;
  • 최윤조 ((주)카카오모빌리티 디지털트윈개발팀) ;
  • 정혁 ((주)부린 부설연구소) ;
  • 송주일 ((주)부린 부설연구소) ;
  • 손홍규 (연세대학교 건설환경공학과)
  • Received : 2022.10.03
  • Accepted : 2022.10.20
  • Published : 2022.10.31

Abstract

Currently, disasters occurring in Korea are characterized by unpredictability and complexity. Due to these features, property damage and human casualties are increasing. Since the initial response process of these disasters is directly related to the scale and the spread of damage, optimal decision-making is essential, and information of the site must be obtained through timely applicable sensors. However, it is difficult to make appropriate decisions because indiscriminate information is collected rather than necessary information in the currently operated Disaster and Safety Situation Office. In order to improve the current situation, this study proposed a framework that quickly collects various disaster image information, extracts information required to support decision-making, and utilizes it. To this end, a web-based display system and a smartphone application were proposed. Data were collected close to real time, and various analysis results were shared. Moreover, the capability of supporting decision-making was reviewed based on images of actual disaster sites acquired through CCTV, smartphones, and UAVs. In addition to the reviewed capability, it is expected that effective disaster management can be contributed if institutional mitigation of the acquisition and sharing of disaster-related data can be achieved together.

현재 국내에서 발생하는 다수의 재난은 예측 불가능하고 복잡하다는 특징을 가지고 있으며 이로 인한 재산 및 인명피해가 증가하고 있다. 이러한 재난의 초기대응과정은 규모 및 피해확산에 직접적으로 연관 되어있어 최적의 의사결정이 필수적이며 적시에 적용가능한 센서를 통해 현장에 대한 정보 취득이 이루어져야 한다. 하지만 현재 운영되고 있는 재난안전상황실은 필요한 정보보다는 관련 부처와 링크된 정보만 수집되고 있어 적절한 의사결정을 하기에는 어려움이 존재한다. 본 연구에서는 이를 개선하기 위해 다양한 재난영상정보를 신속하게 수집하여 의사결정 지원에 요구되는 정보를 추출하고 이 결과를 활용할 수 있는 일련의 프레임워크를 제안하고자 하였다. 이를 위해 웹 기반 표출시스템과 스마트폰 애플리케이션을 제안하였으며 실시간에 가깝게 데이터를 수집하고 다양한 분석결과를 공유할 수 있도록 설계하였다. 제안한 표출시스템의 의사결정 지원에 대한 활용성을 검정하기 위하여 Closed-circuit Television (CCTV), 스마트폰, 무인기를 통해 취득한 실제 재난현장의 영상을 기반으로 검토하였다. 뿐만 아니라 재난 시 재난과 관련된 데이터의 유통 및 취득에 대한 제도적인 검토와 함께 해결된다면 효과적인 재난관리가 가능할 것으로 판단된다.

Keywords

1. 서론

최근 한반도 내에서 발생하고 있는 집중호우, 화재, 산사태 등은 기존의 위험성에 더하여 예측 불가능한 위험성 때문에 재산 및 인명피해가 증가하고 있다. 이러한 재난은 발생 시 신속한 상황인식이 먼저 이루어져야 하고 초기 대응의 성공 여부에 따라 재난 규모가 크게 달라질 수 있으며, 적절한 초기 대응에 성공하여 정부와 국민에게 사전 경고를 줄 수 있다면 피해를 완화할 수 있다(Choi et al., 2021b; Nanda et al., 2020). 이처럼 초동 대응 과정에서 적절한 조치를 수립하는 것은 재난 규모 및 피해와 직결되는데 이에 필요한 재난현장정보를 수집하는 것은 많은 인력과 비용을 필요로 한다. 특히 광범위한 지역에 대해 상황이 발생중인 경우, 재난 관리자의 시의적절하며 정확한 정보 수신은 더욱 어려워진다(Samuels et al., 2020). 또한 시기, 장소, 원인에 따라 발생하는 재난의 종류는 상이하기에 이러한 비상상황에서 단일 센서만을 활용하여 필요한 모든 정보를 수집하고 조사하는 것은 불가능하다(Sohn et al., 2008). 이처럼 복잡한 재난상황을 올바르게 이해하고 대응에 관한 결정을 하기 위해서는 적용 가능한 센서를 적절하게 활용하여 신속하게 현장의 다양한 데이터를 수집하는 것이 요구된다.

재난피해의 확산을 감소시키기 위해서는 적절한 초동대응이 필수적이고 이를 위해 의사결정자에게 정보 제공이 요구된다. 재난정보는 소셜 미디어를 통해서도 텍스트나 영상의 형태로 공유될 수 있고 그 안에서 필요한 정보를 추출하는 연구는 다수 진행되고 있다. Kotha et al. (2022)는 트위터에 업로드 된 재난관련 텍스트 및 영상정보 데이터 셋인 Multi-modal Twitter Datasets from Natural Disasters (CrisisMMD)의 다종 데이터를 분석하고 이를 정보적 및 비정보적 범주로 분류하는 효과적인 융합 기반 의사결정 기법을 제안하였다. Mondal et al. (2022)은 트위터에 업로드 되는 텍스트와 영상 각각에 대한 분류를 서로 다른 딥러닝 기반 프레임워크를 적용한 뒤 Late Fusion 방법을 통해 두가지 데이터에 대한 통합 모델을 제안하였다.

재난상황 시 근실시간으로 제공될 수 있는 텍스트와 영상정보로부터 필요한 정보를 추출하는 연구는 활발히 진행되고 있는 반면 추출된 정보를 통합하여 의사 결정자가 활용할 수 있는 웹 기반의 표출시스템에 대한 연구는 부족한 상태이다. 미국은 테러나 재난, 또는 기타 비상사태가 발생할 경우 국가관제센터(National Operations Center, NOC)가 국토안보부(Department of Homeland Security, DHS)의 주요 운용 센터로서 정보를 통합하여 연방 정부와 소규모 지역단위까지 공통작전상황도(Common Operating Picture, COP)를 제공하고 있다(Federal Emergency Management Agency, 2019). 이는 테러나 재난과 관련된 중요한 정보가 각 기관의 의사 결정자에게 적시에 전달되는 것을 보장하기 위해서이다. 재난상황에 대한 대응을 지원하는 정보 그 자체와 정보의 분석을 단일 화면에 포함하며 복수의 재난이 동시다발적으로 발생해도 사용이 가능하다(Cho et al., 2021). European Union (EU)는 코페르니쿠스 비상관리 서비스(Copernicus Emergency Management Service, Copernicus EMS)를 통해 코페르니쿠스 위성 데이터로 범지구적 범위에서 산불, 홍수, 가뭄 등을 미리 탐지하고 사전 경고 및 정확한 공간정보를 관리 기관에 제공하여 의사결정을 지원한다(ECHO, 2021).

우리나라의 경우 「재난 및 안전관리 기본법」 제18조에 따르면 재난관리를 위하여 상시 재난안전상황실을 운영하여야 하며 재난안전상황실은 재난정보의 수집과 전파부터 전반적인 상황관리와 초동조치 등의 업무를 담당한다. 현재 국내에서 운영되는 상황실에서는 수집되는 정보는 관련된 기관의 정보를 링크하여 정보를 수집하는데 그치고 있고 분석을 활용하여 최적의 의사결정을 하는 데는 한계가 존재한다. 또한 지속해서 필터링 없이 수집되는 많은 정보로 인한 필요 자원 투입의 비효율성과 피해정보 업데이트에 수일이 걸리는 긴 시간 소요와 같은 문제가 있다(Koo et al., 2022). 따라서 재난상황의 발생 중에도 현장에 대한 정보의 근실시간 공유를 통해 정확한 상황인지가 이루어져 지속적인 피해 추정 및 요구되는 자원의 배치 파악이 가능한 시스템이 요구된다.

본 연구에서는 다양한 종류의 영상정보를 빠르게 수집하고 수집된 영상정보로부터 의사결정자가 필요한 재난정보를 추출하여 활용하는 전체적인 프레임워크를 제시하고자 한다. 이를 위하여 웹 기반 재난영상정보 표출시스템을 제안하며 위성영상, 무인기, CCTV, 스마트폰 등으로 취득한 다양한 영상정보를 실시간에 가깝게 수집하고, 수집된 정보로부터 필요한 정보를 추출하여 표출하고 피해와 대피경로, 동원장비까지 파악하는 일련의 과정을 연구하였다. 이 과정에서 재난현장의 영상을 전송하기 위한 전용 스마트폰 애플리케이션을 개발하여 활용하였으며 본 표출시스템의 효율성을 검정하기 위하여 국내에서 최근 발생한 실제 재난에 대하여 CCTV, 스마트폰, 무인기를 통해 취득된 영상 데이터를 활용하였다. 실제 발생한 재난에 적용한 결과를 바탕으로 본 연구에서 제안하는 웹 기반의 재난상황 표출 시스템의 효율성 및 활용성을 제시하였다.

2. 재난상황 시 활용한 영상플랫폼

본 연구에서는 초기 대응을 위해 실제 재난상황에 무인기, CCTV, 스마트폰 세가지 플랫폼을 사용하여 취득한 데이터를 활용하였다. 재난 대응단계에서는 이러한 다양한 플랫폼을 통하여 취득되는 영상정보가 제안하는 웹 기반 표출시스템에 근실시간으로 전송할 수 것을 전제로 하였다. 따라서 본 연구에서는 위성과 같이 궤도주기의 영향을 받지 않고 사용자가 원하는 시기에 데이터가 취득 가능한지를 고려하여 CCTV, 스마트폰, 무인기 세가지 플랫폼을 선정하였다.

1) CCTV

CCTV는 범죄 및 재난 상황에 대한 실시간 정보를 제공할 수 있는 중요한 플랫폼으로써 고정된 지점에서 주변상황을 모니터링하는데 유용하다. 다양한 목적으로 수많은 CCTV가 전국적으로 설치되어 있으며 실태조사 및 개인정보보호 종합지원시스템 현황자료에 따르면 매년 총 설치대수는 꾸준히 증가하고 있다(Statistics Korea, 2022a). CCTV는 실시간으로 상황을 감시할 수 있고 상황인식에 효과적으로 활용 가능하기에 돌발 상황을 감지하여 대규모 재난으로 진화할 가능성을 최소화하고 가능한 적은 손실로 상황을 제때 제어할 수 있다(Muhammad et al., 2018). 이러한 CCTV의 특성을 고려하여 재난 대응단계에서 활용하는 연구들이 다수 진행되었다. Muhammad et al. (2018)은 GoogleNet 기반 아키텍처를 통해 CCTV 영상을 활용한 화재탐지 방법을 제안하였으며, Moy de Vitry et al. (2018)은 Deep Convolutional Neural Network (DCNN)를 사용하여 CCTV 카메라의 시야 내 영역에서 홍수를 감지하였다. 또한 Kim et al.(2020)은 영역확장 기법을 통해 CCTV 영상을 기반으로 수위를 감지하는 알고리즘을 제안하였다. 본 연구에서는 CCTV 영상의 활용성을 검토하기 위해 영상기반 침수심 분석결과를 표출시스템과 연계하여 의사결정자로 하여금 상황에 대한 지속적인 모니터링이 가능하도록 활용하였다.

2) 스마트폰

2021년에 방송통신위원회에서 실시한 방송매체 이용 행태조사에 따르면 스마트폰 보급률은 인당 0.94대 수준으로 나타났다(Statistics Korea, 2022b). 이처럼 대부분의 사람이 현재 스마트폰을 보유하고 있으며 이를 통해 손쉽게 정보의 공유가 이루어져 재난관리에 활용이 가능하게 되었다. 재난현장의 경우 촬영한 영상에 포함된 위치 정보는 재난상황의 규모와 요구조자를 파악하는 것이 중요하다(Lingad et al., 2013). 하지만 일반인에 의해 공유되는 영상 데이터는 위치정보의 오류나 누락, 허위 정보 등으로 인한 데이터 품질 관련 문제와 제보자들의 전문성이나 동기부여, 당시의 상황 등과 같은 사회적인 문제가 존재한다(Ogie et al., 2019). 관심지역에 대해 별도의 검증이나 정제 과정을 거치지 않은 정보가 등록되면 피해규모를 파악하고 복구계획을 수립하는데 있어 혼선을 야기할 수 있다(Lee et al., 2019). 또한 재난대응단계에서 신속한 의사결정을 지원하기 위해서는 적절한 정보만의 표출이 요구되며 이를 위해서는 수많은 영상들의 필터링 작업이 필요하다(Choi et al., 2021a). Pohl et al. (2013)은 소셜미디어 플랫폼에 업로드 되는 다량의 정보들에 대해 의사결정 지원을 위한 클러스터링 방법을 제안하였다. Park et al. (2015)은 재난대응을 위한 애플리케이션을 개발함으로써 해일로 인한 손실을 줄이는 연구를 진행하였다. 본 연구에서는 재난대응단계에서 스마트폰을 통해 취득된 수많은 영상 데이터 중 주요 영상만을 추출하여 분류하는 연구결과를 표출시스템과 연계하여 가장 중요한 정보를 바탕으로 신속한 의사결정을 지원할 수 있도록 활용하였다.

3) 무인기

무인기는 흔히 드론이라는 명칭으로 불리며, 초기에는 주로 군사적인 목적으로 개발되었다(Jin and Lee, 2016). 현재는 4차 산업혁명의 발전과 더불어 국내외 드론 시장은 2020년 기준 225억 USD에서 2025년 428억 USD로 약 2배의 규모확대가 이루어질 것으로 예상되고 있다(Ministry of Land, Infrastructure and Transport, 2021). 이처럼 드론 시장 규모의 확대와 더불어 다양한 용도로 활용되고 있으며, 재난관리 및 대응에도 그 활용성이 증가하고 있다. 기존의 위성 및 항공기를 통한 데이터 취득에 비해 근거리에서 고해상도 영상을 얻을 수 있다는 점과 궤도주기에 따라 운영되는 위성과 달리 재난상황이 발생했을 때 즉시 현장 정보를 수집할 수 있다는 점이 장점이다. 또한 CCTV와 스마트폰과 같은 지상센서에 비해서는 넓은 지역에 대한 영상 촬영이 가능하며 재난 대응 및 복구단계에서 활용되는 연구 역시 다수 진행되었다. Do-Duy et al. (2021)은 무인기 지원 중계 시스템을 통해 재난상황 발생 중에 자원배치의 최적화 방안을 제안하였으며 Popescu et al. (2015)는 무인기로 취득한 영상을 기반으로 침수된 지역의 탐지에 대한 방법론을 제시하였다. Woo et al. (2021)은 무인기를 통해 취득된 영상을 기반으로 지도학습을 적용하여 화재 심각도 지도를 생성하는 방법론을 제시하였다. 재난관리 측면에서 무인기를 통해 피해구역을 탐지하는 연구를 통해 표출시스템에 결과를 표출하고 피해면적부터 대피경로 등 추후 분석에 연계될 수 있도록 활용하였다.

3. 웹 기반 표출시스템

앞에서 제시한 다종 플랫폼 기반으로 취득된 재난현장 데이터와 각각의 분석결과를 활용하여 신속하고 적절하게 의사결정을 하기 위해서는 연계된 표출시스템이 요구된다. 본 연구에서는 재난상황이 발생하였을 때 수집된 데이터를 조회하고 이에 대한 분석결과를 업로드할 수 있는 웹 기반 표출시스템을 제안하였다. 위성, 무인기, CCTV, 스마트폰 등으로 수집한 데이터와 분석 결과를 손쉽게 표출하고 그 결과를 확인할 수 있도록 구현하였다. 각 플랫폼별로 취득한 재난정보 추출방법은 별도의 논문으로 작성하였고 본 논문의 범위에서 벗어나기 때문에 본 연구에서는 다루지 않았다.

1) 표출시스템

본 연구에서 제안한 재난상황 표출 시스템의 메인 화면은 Fig. 1과 같으며 발생한 재난에 따라 수집 데이터와 분석 결과를 효율적으로 확인할 수 있도록 구현하였다. 재난상황이 발생하면 이를 목록에서 조회하고 보고자 하는 분석 결과의 종류를 선택할 수 있으며 Geospatial Information System (GIS) 기법을 통해 하나의 지도에 다양한 분석 결과를 레이어 형태로 한 번에 볼 수 있도록 하였다. 배경지도는 다음지도를 사용하였고, 자바 스크립트 기반의 웹 인터페이스를 통해 구현하였다. 좌측에는 조회하고자 하는 데이터를 선택하고 주소 검색 등을 할 수 있는 기능이 위치하고, 우측에는 재난종류 검색하고각각의레이어를조정하거나실시간으로들어오는정보에 대한 알림을 수신할 수 있는 기능이 배치되어 있다. 분석 결과의 경우 데이터베이스에 올바른 형태로 업로드 되었을 때 시스템 상에 정상적으로 표출되게끔 하였으며 본 연구에서 적용한 CCTV, 스마트폰, 무인기에 대한 분석 결과의 올바른 파일 확장자는 Table 1과 같다.

OGCSBN_2022_v38n5_2_725_f0001.png 이미지

Fig. 1. Main Menu for disaster operating picture.

Table 1. Types of filesbasedon analysis resultsbyplatform for disaster operating picture

OGCSBN_2022_v38n5_2_725_t0001.png 이미지

Fig. 2는 표출시스템의 작동 개요를 나타낸 것이다. 재난이 발생하지 않은 상황에서도 지속적으로 위성영상을 요청하고 CCTV 데이터베이스에 대한 접근이 가능하다는 가정하에 각 CCTV의 영상에 대한 상시 모니터링이 이루어지도록 하였다. 재난현장에 대한 영상전송을 전용으로 하는 스마트폰 애플리케이션의 경우 표출시스템에 재난이 활성화되기 전에 업로드 되는 데이터도 누락되지 않게 상시 모니터링하는 기능을 탑재하였다. 재난이 발생하면 시스템에서 재난이 활성화되고, 의사결정자는 활성화된 재난상황에 대해 근실시간으로 업로드 되는 영상정보와 이를 활용한 분석결과를 조회할 수 있다. 활성화 재난 목록에서 원하는 재난을 선택하고 플랫폼별로 수행된 분석 결과와 재난상황 정보를 시각화한 결과를 선택할 수 있으며 최종적으로 표출 시스템 상의 배경 지도에 나타낼 수 있도록 하였다. 이처럼 제안하는 표출시스템은 재난상황 발생 전, 발생중, 발생 후에 각 상황에 요구되는 의사결정을 지원할 수 있는 다양한 정보를 제공할 수 있도록 설계되었다.

OGCSBN_2022_v38n5_2_725_f0002.png 이미지

Fig. 2. Diagram of disaster operating picture.

2) 재난현장 영상전송 스마트폰 애플리케이션

재난현장 영상전송 스마트폰 애플리케이션은 재난 발생 시 현장정보를 실시간으로 수집하여 재난상황에서의 의사결정을 지원하기 위해 개발되었다. 재난현장에 대한 영상과 피해현황도 입력하여 통합 데이터베이스에 전송할 수 있도록 개발하였으며 Fig. 3과 같이 누구나 쉽게 사용할 수 있도록 메인 화면을 직관적으로 구성하였다. 스마트폰 내의 Global Positioning System (GPS) 센서를 통해 위치정보가 저장되며, 컴퍼스 센서와 가속도계, 자이로스코프를 통해 대략적인 촬영 방향이 기록된다. 촬영 방향과 같이 휘발성으로 저장되지 않는 정보도 취득하여 현장에 대해 보다 정확한 정보를 의사결정자에게 제공할 수 있도록 하였다.

OGCSBN_2022_v38n5_2_725_f0003.png 이미지

Fig. 3. Smartphone application for disaster site information collection.

취득한 영상 및 속성정보 데이터는 촬영에 사용된 스마트폰 내의 로컬 메모리에도 저장되며 “재난현장 전송” 기능을 활용하면 Fig. 4와 같이 표출시스템과 연동된 데이터베이스에 업로드 되어 표출시스템 상에 실시간 알림과 함께 나타나도록 개발하였다.

OGCSBN_2022_v38n5_2_725_f0004.png 이미지

Fig. 4. Relationship between disaster site information collection smartphone application and the disaster operating picture.

4. 웹 기반 표출시스템의 실제 재난 적용

1) CCTV 기반 침수심 분석

재난대응에 있어 CCTV의 활용성을 살펴보기 위해 2019년 9월 28일부터 10월3일까지 피해를 끼쳤던 태풍 미탁에 대한 CCTV 영상 데이터를 취득하고 이에 통한 침수심 분석을 수행하였다. 표출시스템에는 활용된 CCTV의 위치와 동영상 프레임, 수위 변화 그래프, 그래프에 해당하는 수치를 표출하였다. 해당 CCTV가 지도상 어느 지점에 위치하는 정보를 시스템상에 표출하였으며, 표출된 시스템의 결과는 Fig. 5와 같다. 이와 같은 결과를 통해 수위의 변화가 발생한 지역에 대한 신속한 수위변화 모니터링정보를 의사결정자에서 제공함으로써 지역주민에 대한 대피 등 후속조치를 위한 효율적인 재난 대응이 가능할 것으로 판단된다.

OGCSBN_2022_v38n5_2_725_f0005.png 이미지

Fig. 5. Flooding depth analysis based on CCTV imagery on disaster operating picture.

2) 스마트폰 영상 기반 주요 재난영상분류

스마트폰을 통한 재난대응의 활용성을 확인하기 위해 2020년 8월초에 경기도 이천에서 발생한 집중호우에 대한 데이터를 취득하여 분석하였다. 재난현장 영상 전송 애플리케이션을 통해 총 1473장의 영상을 촬영하였으며, 이 영상을 활용하여 주요 재난영상만을 추출하였다. 여기서 주요 재난영상이라 함은 Getis-Ord Gi*를 통해 핫스팟 분석을 수행하여 일정 신뢰도 점수 이상의 영상을 일컫는다(Ord and Getis, 1995; Choi et al., 2021a). Getis-Ord Gi*는 통계적인 방법으로 공간자기상관성을 나타낼 수 있으며 식(1)과 같다. i, j는 개별 객체의 공간 단위이고, xj는 객체 j의 공간단위 속성값, wij는 공간 가중치 행렬, n은 표본의 개수, X는 공간 단위의 평균값, S는 표준편차를 의미한다.

\(\begin{aligned}G_{i}^{*}=\frac{\sum_{j=1}^{n} w_{i j} x_{j}-\bar{X} \sum_{j=1}^{n} w_{i j}}{S \sqrt{\frac{n \sum_{j=1}^{n} w_{i j}^{2}-\left(\sum_{j=1}^{n} w_{i j}\right)^{2}}{n-1}}}\\\end{aligned}\)       (1)

실제 재난에서 취득한 스마트폰 영상을 기반으로 자동적으로 분류한 주요 재난영상 분류 결과는 Fig. 6과 같으며, 피해유형에 따라 각 재난에 해당하는 아이콘을 개발하였으며 그 종류는 Fig. 7에 나타나 있다. 표출시스템에 분류된 주요영상에 해당하는 재난유형이 배경지 도상에 아이콘으로 표시됨으로써 의사결정자는 무분별한 정보를 필터링 할 필요없이 주요 정보만을 가지고 의사결정을 진행할 수 있다.

OGCSBN_2022_v38n5_2_725_f0006.png 이미지

Fig. 6. Critical image identification based on smartphone imagery.

OGCSBN_2022_v38n5_2_725_f0007.png 이미지

Fig. 7. Icons representing incident types. (a) infrastructural damage, (b) damage to natural landscape, (c) flood damage, (d) fire damage, (e) other damage (Choi et al., 2021a).

3) 무인기 영상 기반 산불피해 분석

무인기 영상의 재난관리 활용성을 검토하기 위해서 2021년 2월 안동·예천 산불에 대해 데이터를 취득하여 피해지역 분석에 활용하였다. 분석 결과는 피해가 없는 지역과 배경을 제거하여 피해가 발생한 영역만 보이게 끔 변환하여 표출하였다(Fig. 8). 이를 통해 재난상황 발생 이후에 피해 구역을 직관적으로 확인할 수 있었으며 분석 결과의 공유를 통해 피해면적과 피해액을 산정하고 대피경로를 설계하는데 정보를 제공하여 재난대응 및 복구단계에서의 의사결정지원이 가능하다는 것을 알 수 있었다.

OGCSBN_2022_v38n5_2_725_f0008.png 이미지

Fig. 8. Forest fire damaged area analysis based on UAV imagery on disaster operating picture.

5. 결론

현재 재난안정상황실에서는 수집되는 정보의 분석과 이를 통한 적절한 의사결정보다는 정보의 단순 전파에 그치고 있다. 또한 정보의 무분별하게 수집과 업데이트에 소요되는 긴 시간으로 인해 대응과정에서 효율성이 떨어지고 있는 실정이다. 초기대응 과정에서의 적절한 조치는 재난으로 인한 피해확산을 감소시키는 중요한 요소이기에 다양한 형태로 수집되는 정보를 근실시간으로 모아 이를 분석하고 필요한 정보의 추출하는 과정이 필수적이다. 이를 통해 재난상황 및 현장에 대해 신속하게 파악하고 재난대응에 있어 최적의 의사결정을 지원하는 시스템이 요구된다. 본 연구에서는 이러한 요구사항을 충족시키기 위해 웹 기반의 재난정보 표출시스템과 재난현장 영상을 전송할 수 있는 스마트폰 애플리케이션을 제안하였으며 CCTV, 스마트폰, 무인기를 통해 실제 재난현장에 대한 영상정보를 취득 및 분석하여 검정하였다. 제안한 웹 기반 표출시스템은 GIS 기법을 기반으로 다양한 재난정보를 근실시간으로 수집하고 표출할 수 있으며 재난이 발생하기 전부터 발생 도중, 그리고 발생 후에까지 의사결정자에게 정보를 제공할 수 있도록 개발하였다.

CCTV 영상 기반 침수심 분석 결과와 스마트폰 영상 기반 주요 재난영상분류 결과를 시스템과 연계하여 현장상황 모니터링 및 대응과정에서 신속한 의사결정 지원에 활용할 수 있는 것을 확인하였다. 또한 무인기를 통해 취득된 영상을 기반으로 한 피해지역 탐지를 통해 피해지역과 피해액을 산정하고 대피경로를 설계하여 재난대응 및 재난복구과정에서 의사결정을 지원할 수 있을 것으로 판단하였다.

본 연구를 통해 다양한 형태의 재난정보를 수집하고 의사결정자가 요구하는 정보를 추출하고 이를 활용하는 일련의 프레임워크를 제안하였다. 하지만 복잡한 재난상황을 이해하기 위해 필요한 센서들을 적시에 이용하는 데는 여전히 데이터 측면에서 어려움이 존재한다. CCTV 영상은 여전히 공개되지 않는 경우가 다수이며 「개인정보 보호법」으로 인해 데이터 유통이 원활하지 않다. 무인기를 통해 데이터 취득을 할 경우 비행과 촬영에 대해 허가를 받아야 하는데 비행금지구역에서는 이러한 절차가 상당히 까다로워 데이터 생산 및 구축부터 난관에 부딪히는 현실이다. 국가의 안녕과 사회질서를 위해 재난대응과 관련한 데이터 공유 및 생산에 제도적인 완화가 이루어진다면 본 연구에서 제안하는 프레임워크의 적용은 가능할 것이라 판단된다.

사사

본 과제는 행정안전부 재난안전 부처협력 기술개발사업의 지원을 받아 수행된 연구임(20009742).

References

  1. Cho, J., J.-I. Song, C. Jang, and M. Jang, 2021. A Study on the Analysis of Information Element of COP-Based Situation Panel for Efficient Disaster Management in the Situation Room, Journal of the Korea Academia-Industrial Cooperation Society, 22(1): 393-401 (in Korean with English abstract). https://doi.org/10.5762/KAIS.2021.22.1.393
  2. Choi, Y., N. Kim, S. Hong, J. Bae, I. Park, and H.-G. Sohn, 2021a. Critical Image Identification via Incident-Type Definition Using Smartphone Data during an Emergency: A Case Study of the 2020 Heavy Rainfall Event in Korea, Sensors, 21(10):3562. https://doi.org/10.3390/s21103562
  3. Choi, Y., Y.-J. Yang, and H.-G. Sohn, 2021b. Resilient cultural heritage through digital cultural heritage cube: Two cases in South Korea, Journal of Cultural Heritage, 48: 36-44. https://doi.org/10.1016/j.culher.2021.01.007
  4. Do-Duy, T., L.D. Nguyen, T.Q. Duong, S.R. Khosravirad, and H. Claussen, 2021. Joint Optimisation of RealTime Deployment and Resource Allocation for UAV-Aided Disaster Emergency Communications, IEEE Journal on Selected Areas in Communications, 39(11): 3411-3424. https://doi.org/10.1109/JSAC.2021.3088662
  5. ECHO (European Commission, Directorate-General for European Civil Protection and Humanitarian Aid Operations), 2021. Overview of natural and manmade disaster risks the European Union may face: 2020 edition, Publications Office of the European Union, Luxembourg, Grand Duchy of Luxembourg.
  6. Federal Emergency Management Agency (FEMA), 2019. National Response Framework Fourth Edition, United States Department of Homeland Security, Washington, D.C., USA.
  7. Jin, J. H. and G. B. Lee, 2016. UAV Understanding and Trends, Information and Communications Magazine, 33(2): 80-85.
  8. Kim, O., J. Lee, J. Park, and M. Cho, 2020, A Study on the Improvement of Image-Based Water Level Detection Algorithm Using the Region growing, Korean Journal of Remote Sensing, 36(5-4): 1245-1254 (in Korean with English abstract), https://doi.org/10.7780/kjrs.2020.36.5.4.9
  9. Koo, J., J.-I. Song, and J. Cho, 2022. A study on the development of a system for collecting and displaying disaster site information for disaster situation management: focusing on earthquakes, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 40(1): 31-40 (in Korean with English abstract). https://doi.org/10.7848/ksgpc.2022.40.1.31
  10. Kotha, S., S. Haridasan, A. Rattani, A. Bowen, G. Rimmington, and A. Dutta, 2022. Multimodal Combination of Text and Image Tweets for Disaster Response Assessment, Proc. of International Workshop on Data-driven Resilience Research, Leipzig, Germany, Jul. 6, pp. 1-10. https://soar.wichita.edu/handle/10057/23775
  11. Lee, J., K. Pyo, and S. Kim, 2019, A Study on System Integration between Community Mapping and Drone Mapping for Disaster Safety Management, Korean Journal of Remote Sensing, 35(5-2): 873-881 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.5.2.11
  12. Lingad, J., S. Karimi, and J. Yin, 2013. Location extraction from disaster-related microblogs, Proc. of the 22nd International Conference on World Wide Web, Rio de Janeiro, Brazil, May 13-17, pp. 1017-1020. https://doi.org/10.1145/2487788.2488108
  13. Ministry of Land, Infrastructure and Transport (MOLIT), 2021. Announcement of measures to strengthen the competitiveness of the drone industry and holding a drone fair, https://itskorea.kr/boardDetail.do?type=8&idx=11176, Accessed on Sep. 26, 2022.
  14. Mondal, A., A. Kesan, A. Rodriques, and J. George, 2022. An Efficient Multi-Modal Classification Approach for Disaster-related Tweets, Proc. of 2022 IEEE International Conference on Distributed Computing and Electrical Circuits and Electronics (ICDCECE), Ballari, India, Apr. 23-24, pp. 1-4. https://doi.org/10.1109/ICDCECE53908.2022.9792951
  15. Moy De Vitry, M., S. Kramer, J.D. Wegner, and J.P. Leitao, 2019. Scalable flood level trend monitoring with surveillance cameras using a deep convolutional neural network, Hydrology and Earth System Sciences, 23(11): 4621-4634. https://doi.org/10.5194/hess-23-4621-2019
  16. Muhammad, K., J. Ahmad, I. Mehmood, S. Rho, and S.W. Baik, 2018. Convolutional neural networks based fire detection in surveillance videos, IEEE Access, 6: 18174-18183. https://doi.org/10.1109/ACCESS.2018.2812835
  17. Nanda, S., C.R. Panigrahi, and B. Pati, 2020. Emergency management systems using mobile cloud computing: A survey, International Journal of Communication Systems, e4619: 1-20.
  18. Ogie, R.I., R.J. Clarke, H. Forehead, and P. Perez, 2019. Crowdsourced social media data for disaster management: Lessons from the PetaJakarta.org project, Computer Environment and Urban System, 73: 108-117. https://doi.org/10.1016/j.compenvurbsys.2018.09.002
  19. Ord, J.K. and A. Getis, 1995. Local spatial autocorrelation statistics: distributional issues and an application, Geographical Analysis, 27(4): 286-306. https://doi.org/10.1111/j.1538-4632.1995.tb00912.x
  20. Park, H., S.-I. Cho, D. Kim, and S. Hong, 2015. Development of a smartphone application for disaster response, Proc. of OCEANS 2015 - MTS/IEEE Washington, Washington, D.C., USA, Oct. 19-22, pp. 1-4. https://doi.org/10.23919/OCEANS.2015.7404627
  21. Pohl, D., A. Bouchachia, and H. Hellwagner, 2013. Social media for crisis management: clustering approaches for sub-event detection, Multimedia Tools Applications, 74: 3901-3932. https://doi.org/10.1007/s11042-013-1804-2
  22. Popescu, D., L. Ichim, and T. Caramihale, 2015. Flood areas detection based on UAV surveillance system, Proc. of 2015 19th International Conference on System Theory, Control and Computing (ICSTCC), Cheile Gradistei, Romania, Oct. 14-16, pp. 753-758. https://doi.org/10.1109/ICSTCC.2015.7321384
  23. Samuels, R., J.E. Taylor, and N. Mohammadi, 2020. Silence of the Tweets: incorporating social media activity drop-offs into crisis detection, Natural Hazards, 103: 1-23. https://doi.org/10.1007/s11069-020-04044-2
  24. Sohn, H.-G., J. Heo, H. Yoo, S. Kim, and H. Cho, 2008. Hierarchical Multi-Sensor Approach for the Assessment of Flood Related Damages, Proc. of the XXI Congress of the International Society for Photogrammetry and Remote Sensing, Beijing, China, Jul. 3-11, vol. 37, pp. 207-210.
  25. Statistics Korea, 2022a. Installation and operation of CCTV in public institutions, https://www.index.go.kr/potal/main/EachDtlPageDetail.do?idx_cd=2855, Accessed on Sep. 26, 2022.
  26. Statistics Korea, 2022b. Devices owned by individuals, https://kosis.kr/search/search.do?query=%EC%8A%A4%EB%A7%88%ED%8A%B8%ED%8F%B0, Accessed on Sep. 25, 2022.
  27. Woo, H., M. Acuna, B. Madurapperuma, G. Jung, C. Woo, and J. Park, 2021. Application of maximum likelihood and spectral angle mapping classification techniques to evaluate forest fire severity from UAV multi-spectral images in South Korea, Sensors and Materials, 33(11): 3745-3760. https://doi.org/10.18494/SAM.2021.3365