요약
본 연구에서는 재해/재난 현장에서 취득한 대용량 무인기 영상으로부터 고정밀 3차원 실감 자료를 신속하게 생성하기 위하여 상용 소프트웨어인 Agisoft Metashape와 클라우드 컴퓨팅 서비스인 Amazon web service를 이용하여 처리하는 방식을 제안하고 성능을 평가하였다. 로컬 컴퓨터를 이용하는 온프레미스 방식, Agisoft社와 Pix4D社에서 제공하는 클라우드 서비스와 비교하여, 항공삼각측량, 3차원 포인트 클라우드 및 DSM 생성, 메쉬 및 텍스처 생성, 정사 모자이크 영상 제작 등의 과정은 비슷한 시간을 소요하였다. 클라우드 방식은 대용량 자료의 업로드와 다운로드 시간을 필요로 하지만 실질적인 현장 처리가 가능하다는 분명한 장점을 보였다. 온프레미스 방식과 클라우드 방식 모두 CPU와 GPU 성능에 따라 처리 시간의 차이가 발생하지만 벤치마크를 통해 확인되는 성능 차이만큼 큰 차이는 발생하지 않았다. 그러나 저성능의 GPU가 탑재된 랩탑 컴퓨터는 지나치게 많은 시간을 소요하여 현장 처리에 적용하기 어려운 것으로 나타났다.
1. 서론
기후변화와 인간의 행위가 미치는 영향이 확대됨에 따라 재해와 재난이 더욱 빈번히 발생하고 그 강도도 점차 강력해지고 있다. 재해/재난에 의한 피해를 최소화하기 위해서는 징후를 살피고 전개 양상을 정확하게 파악하며 피해 및 복구 상황을 면밀하게 분석할 필요가 있다. 이를 위해 국가적 규모의 위성, 항공, 지상 센서 자료 등 원격탐사 자료의 수집 및 분석을 통한 모니터링이 지속되어야 한다(Kim et al., 2019). 그러나 국가적 규모로 취득되는 원격탐사 자료는 용량이 방대하다는 이유만으로도 처리와 관리가 어렵고 지속적으로 취득되는 자료를 인력으로 분석하는 것은 실질적으로 불가능하다. 따라서 첨단 컴퓨팅 기술의 도입과 개발은 원격탐사 자료를 기반으로 재해/재난에 효과적으로 대비하기 위한 필수 불가결한 요소가 되었다. 클라우드 컴퓨팅과 딥러닝과 같은 기술은 여러 분야에서 각광받고 있는 첨단 기술로서 원격탐사 분야에도 적극 활용되기 시작하였다. 일례로 Wang et al. (2018)은 환경 모니터링을 위하여 대용량 원격탐사 자료를 클라우드 컴퓨팅과 고성능 컴퓨팅 기술을 통해 관리, 처리할 수 있는 체계를 제안하였다.
한편, 2010년을 전후로 무인기의 보급과 기술 발전으로 인해 다양한 분야에서 무인기를 활용하고 있으며 원격탐사 분야에서도 재해/재난 모니터링을 위해 무인기를 활용하는 사례가 늘고 있다. Shin and Lee (2017)은 무인기에서 촬영한 가시광 영상에서 딥러닝을 기반으로 산불을 감지하기 위한 알고리즘을 제시하고 성능을 평가하였다. Kim et al. (2019)은 상업용 무인기와 매핑 기술을 이용하여 3차원 포인트 클라우드, 지형자료, 정사 영상을 제작하여 산사태, 제방 붕괴, 하천 피해 지역에 대한 피해규모를 정량적으로 분석하였다. 무인기는 기체의 한계로 인해 비행 고도 및 운용 시간의 제약이 있으나 해상도를 크게 높을 수 있어 인공위성과 상호 보완적인 관계를 갖는다. Shin et al. (2019)은 산불에 의한 피해강도를 분석하기 위하여 KOMPSAT-3A 위성과 무인기에서 취득한 다중분광 영상을 최대우도분류 방식에 적용한 결과 양측 모두 높은 분류 정확도를 나타내어 활용 가능성이 충분함을 확인하였다. 또한 무인기의 뛰어난 운용 편의성과 현장 접근성을 적극 활용한 사례들도 있다. Joo (2018)는 재난 재해 모니터링 시스템 구축을 위해 준 실시간으로 무인기 영상을 매핑할 수 있는 전처리 시스템을 개발하였다. 이를 위해 컴퓨터 비전 기술 중 SURF 알고리즘을 기반으로 레퍼런스 영상과 촬영 영상 간 특징점 매칭을 통해 무인기 영상을 좌표등록하는 시스템을 구축하였다. Wu et al. (2019)은 딥러닝을 기반으로 재난 상황에서 무인기의 이동 경로 설정과 인명 탐지를 자동화하기 위한 방법론을 탐구하였다. 더 나아가 무인기 기술에 클라우드 컴퓨팅 기술을 응용하는 사례도 있다. Luo et al. (2015)은 재난 현장에서 무인기에서 취득되는 영상을 온보드 방식으로 전처리하고 무선 네트워크로 전송하면, 클라우드에서는 객체 인식과 데이터 마이닝, 자료 송출 등의 역할을 맡는 무인기–클라우드 프레임워크를 제안하였다. Wamser et al. (2017)은 무인기에서 취득되는 동영상을 전송하고 무인기를 원격으로 조종하기 위하여 클라우드를 이용하는 방법을 제시하였다.
이상에서 살펴보았듯이 대용량의 원격탐사 자료를 효율적으로 처리하기 위한 클라우드 컴퓨팅 기술과 고가용성의 무인기 기술 활용은 재해/재난 모니터링 분야에서 지속적으로 확대될 것으로 보인다. 본 연구에서는 대응 또는 복구 단계의 재해/재난 현장에서 취득한 무인기 영상으로부터 정밀 3차원 실감 자료를 신속하게 생성하기 위하여 클라우드 상에서 처리하는 방식을 제안하고 성능을 평가하였다. 구체적으로는 무인기로 촬영한 고해상도 영상을 클라우드로 전송하고 클라우드 상에서 상용 소프트웨어인 Agisoft Metashape를 실행하여 3차원 포인트 클라우드와 digital surface model (DSM), 3차원 메쉬와 텍스처, 정사 모자이크 영상 등을 생성하였다. 제안한 방식의 효율성을 확인하기 위해 온 프레미스(on-premises)1) 방식,Agisoft社에서 제공하는 클라우드 서비스, Pix4D社의 클라우드 서비스와 비교 분석하였다. 다만 본 연구에서는 각 방식의 구현을 위한 하드웨어 구축비용 및 서비스 수수료 분석은 논외로 하였다. 긴급 상황을 가정하여 지상 기준점 설치 및 좌표 취득은 하지 않고 영상의 exchangeable image file format (EXIF)에서 취득할 수 있는 위성항법측량 경위도 좌표를 이용하여 항공삼각측량을 수행하였다.
2. 본론
1) Agisoft Metashape 소프트웨어
최근 structure from motion (SfM) 기술을 이용하여 카메라의 내부표정과 외부표정, 3차원 포인트 클라우드 생성 등의 과정을 자동화한 소프트웨어가 보급되어, 무인기로 취득한 영상으로부터 3차원 포인트 클라우드와 digital surface model (DSM), 메쉬와 텍스처, 정사 모자이크 영상 등 3차원 실감 자료를 비교적 쉽게 제작할 수 있게 되었다. SfM은 크게 세 가지 과정으로 구분할 수 있는데, 첫 번째 과정은 특징점을 추출하는 것이며, 두 번째 과정은 항공삼각측량과 3차원 포인트 클라우드 생성, 세 번째 과정은 절대좌표 변환 및 과오점 제거 등으로 구성된다(Westoby et al., 2012). Metashape는 SfM을 기반으로 작동하는 대표적인 영상 처리 소프트웨어로서, SfM의 세 가지 과정이 명확하게 분리되어 있지는 않지만 workflow 메뉴의 align photo와 build dense cloud에 걸쳐 상기 기능들이 구현되어 있다. Align photo는 전통적인 사진측량의 상호표정에 해당하는 과정으로서 각 영상에서 특징점 추출, 공액점 쌍 선정, 외부표정요소와 접합점 좌표 및 내부표정요소 산출 등의 기능을 수행한다. Build dense cloud는 자동매칭 및 공간후방교회에 해당하는 과정으로서 조밀한 3차원 포인트 클라우드를 생성하는 기능을 수행한다. 이 후에 DSM 생성과 정사 모자이크 영상 생성 기능을 수행할 수 있으며 추가적으로 3차원 메쉬 생성, 텍스처 생성, 타일 모델 생성(build tiled model) 등의 기능도 수행할 수 있다. 그 중 많은 시간을 소요하는 과정은 build dense cloud, 메쉬 생성, 타일 모델 생성이고 align photo, 텍스처 생성, 정사 모자이크 영상 생성도 비교적 많은 시간을 소요한다. Metashape는 central processing unit (CPU)와 graphics processing unit (GPU)의 병렬처리 기능을 활용하여 처리 시간을 단축 시키고 있다. 이전 버전에서는 CPU와 GPU를 사용하는 workflow가 명백히 구별되어 있었던 반면(Han and Hong, 2019), 최근에는 대부분의 과정에서 CPU와 GPU를 병행 활용하여 처리 속도를 더욱 향상시킨 것으로 판단된다. 각 과정에서 accuracy를 선택할 수 있는데 highest – high – medium – low – lowest의 다섯 단계를 선택함에 따라 처리 시간이 크게 달라지므로 긴급성에 따라 적절히 선택할 필요가 있다. 본 연구에서 실행한 과정은 Table 1과 같다.
Table 1. Overall workflow to process UAV images using Metashape
2) 온프레미스 방식
온프레미스 방식은 로컬 컴퓨터에서 소프트웨어를 실행시키는 전통적인 방식을 말한다. 본 연구에서는 재해/재난 현장에서 취득한 무인기 영상을 저장매체에 담아 로컬 컴퓨터로 옮겨서 Metashape로 처리하는 방식으로 정의한다. 온프레미스 방식을 원격으로 구동하는 것도 불가능하지는 않다. 현장에서 file transfer protocol을 이용하여 영상을 전송하고, 윈도 기반의 원격 데스크탑 또는 리눅스 기반의 secure shell protocol을 이용하여 원격으로 컴퓨터를 조작함으로써 영상을 처리할 수 있다. 그러나 도메인, 라우터, 방화벽, 사용자 인증 등 네트워크 인프라 및 보안 기능 구현을 위한 서버 구축이 필요하며, 이 기능들은 클라우드를 사용하여 구현하는 것이 훨씬 효율적이다. 따라서 온프레미스 방식은 현장에서 랩탑 컴퓨터를 이용하여 처리하는 방식과 사무실 또는 관제센터에서 처리하는 방식으로 한정하였다. 온프레미스 방식은 로컬 컴퓨터를 독점적으로 사용하는 방식이므로 전산 자원을 영상 처리에 집중시킴으로써 처리 속도를 극대화할 수 있다. 그러나 대체로 재해/재난 현장과 사무실 또는 관제센터가 멀리 떨어져 있음을 감안하면 이동 시간으로 인해 처리를 늦게 시작할 가능성이 높다. 또한 지속적인 촬영과 처리가 필요한 상황이라면 더욱 적용하기가 어려워진다.
고성능 컴퓨팅 환경을 구축하기 위한 하드웨어의 성능 대비 투자비용이 기하급수적으로 증가하고 CPU와 GPU 세대의 갱신 주기도 그리 길지 않다는 문제도 있다. 따라서 적절한 가격과 성능의 하드웨어로 온프레미스 환경을 구축할 필요가 있다. 최근 대부분의 CPU가 다중 코어를 탑재하여 간단한 명령 체계로 병렬처리를 수행할 수 있고, GPU는 그래픽 뿐만 아니라 일반 연산도 처리할 수 있는 산술 논리 장치(arithmetic logic unit)를 수천개 탑재하여 병렬처리 성능을 크게 향상시킬 수 있다. 그러므로 컴퓨터 한 대에 하나 이상의 GPU를 탑재하여 고성능 컴퓨팅을 구현할 수 있다. 참고할 만한 자료로서, 다양한 CPU와 GPU의 성능 및 가격을 벤치마크 사이트2)를 참조하여 비교 분석하였다(Fig. 1, Fig. 2). 성능값(value)은 Intel i3-8100의 성능을 기준으로 배수로나타낸 것으로서, 특정 소프트웨어를 사용으로 평가한 것이므로 절대적인 평가 지표가 될 수 없으며 CPU와 GPU 상호간 비교도 정확하지 않을 수 있음을 밝힌다. 성능값을 기준으로 상위 100위 이내인 CPU와 GPU의 가격 대비 성능을 그래프로 나타냈으며, 가격 확인이 가능한 제품 중 4000(US $) 이내에서 고성능을 지닌 것으로 판단되는 CPU와 GPU는 붉은색으로 표시하였다. 한편, 무인기 영상의 크기는 작게는 장당 수 mega bytes (MB)에서 크게는 백수십 MB로서 메인 메모리와 GPU 메모리의 크기에 비하여 훨씬 작으므로 메모리의 크기는 처리 성능에 거의 영향을 미치지 않는 것으로 파악된다.
Fig. 1. CPU comparison.
Fig. 2. GPU comparison.
3) 클라우드 방식
클라우드 방식은 웹 서비스를 통해 컴퓨팅과 네트워킹 인프라를 이용하고 사용량에 따라 수수료를 지불하는 방식을 말한다. 로컬 인프라를 구축하고 관리, 갱신하기 위한 노력을 들일 필요가 없고 최신의 하드웨어를 이용할 수 있으며 어느 곳에서나 접속하여 사용할 수 있다는 장점이 있다. 그러나 서비스 사용량이 많아지면 온프레미스 방식보다 많은 비용을 지불할 수 있고 전산 자원을 공유해야 하므로 최대 성능을 발휘하기 어렵다는 단점도 있다. 대표적으로 2006년 시작한 Amazon web services (AWS)는 다양한 국가와 지역에 클라우드 서버를 구축하고 인프라의 성능을 높은 수준으로 유지함으로써 다양한 분야에서 활용하고 있는 클라우드 서비스이다. 본 연구에서는 재난 현장에서 취득한 무인기 영상을 무선 통신망을 통해 AWS의 웹 스토리지 서비스인 simple storage service (S3)에 업로드하고, 컴퓨팅 서비스인 elastic compute cloud (EC2)에서 Metashape로 처리하는 방식을 구현하였다. EC2는 다중 코어를 가진 서버급 CPU와 단일 또는 다중 GPU로 구성하였으며, Microsoft windows server 2019를 기반으로 GPU 구동을 위한 드라이버와 Metashape를 설치하였다. 가상의 네트워크 환경인 virtual point cloud (VPC) 내에 EC2 인스턴스를 실행하고 인터넷을 통해 원격 접속할 수 있도록 게이트웨이, 라우터, 서브넷 등을 구성하였다. AWS 기반 클라우드 방식의 전반적인 구성은 Fig. 3과 같다.
Fig. 3. Cloud based method (modified using images from AWS, Lenovo, and DJI webpages).
한편, Agisoft社는 온프레미스 환경에서도 로컬 컴퓨터의 CPU와 GPU 대신 클라우드 컴퓨팅 자원을 사용할 수 있는 서비스를 제공한다. 즉 Metashape를 실행시킨 상태에서 클라우드 처리 옵션(preferences – network – enable cloud processing)을 활성화하고 workflow의 메뉴들을 실행하면, 영상을 자동으로 클라우드에 업로드하고 각 과정을 클라우드 상에서 처리한 후 결과물을 다운로드하거나 웹에 게시할 수 있도록 해준다. 웹 게시는 Agisoft 클라우드 웹페이지3)에서 3차원 포인트 클라우드, 메쉬, DSM, 정사 모자이크 영상을 중첩하여 표출하는 방식이며 링크를 통한 공개(public access)가 가능 하다. 결국 클라우드 컴퓨팅과 결과물의 웹 게시라는 두가지 효과를 거둘 수 있는 서비스라 할 수 있다. 마찬가지로 Pix4D도 유사한 클라우드 컴퓨팅 및 웹 게시 서비스를 제공하는데, 차이점은 Pix4D 소프트웨어를 로컬 컴퓨터에서 실행할 필요 없이 클라우드 웹페이지4)에접속하여 영상을 업로드하면 상기 과정들을 자동으로 수행하는 것이다.
일반적으로 지형 매핑에 사용할 수 있는 무인기에서 취득하는 영상의 용량은 jpeg 형식으로는 장당 7~8 MB대이며 더욱 높은 품질의 영상을 처리하기 위하여 raw형식으로 촬영하면 장당 30~50 MB대이다.5) 초고해상도의 영상을 취득하기 위해 전문 digital single lens reflex 또는 미러리스(mirrorless) 카메라를 사용할 경우 tiff 형식으로는 50 MB 내외, raw 형식으로는 100 MB를 상회한다.6) 한 번의 비행으로 500장의 영상을 취득한다고 가정하면 총 용량은 수 giga bytes (GB)에서 수 십 GB의 크기가 된다. 이러한 대용량의 영상을 긴급 상황 및 실외에서 클라우드에 업로드하는 것은 분명 부담이 될 수밖에 없다. 또한 클라우드에서 처리하여 생성된 자료를 현장에서 확인하기 위하여 다운로드한다고 가정하면, 포인트 클라우드와 메쉬, 정사 모자이크 영상을 모두 포함할 경우 총 용량은 원영상의 두 배 가까이 되어 더욱 큰 부담이 된다. 따라서 클라우드 방식에서는 컴퓨팅 성능 뿐만 아니라 대용량 자료의 업로드 및 다운로드, 생성된 자료의 공유 방법 등을 면밀히 설계할 필요가 있다.
3. 적용 및 결과
본 연구에서는 홍수로 인해 저수지의 둑이 붕괴되어 피해를 입은 지역의 복구 현장에 방문하여 무인기로 영상을 취득하였다. 연구 대상 지역과 영상 취득에 사용한 무인기의 제원, 비행 설정은 각각 Table 3, Table 4, and Table 5와 같다.
Table 3. Specifications of study area
Table 4. Specifications of UAV
Table 5. Specifications flight mission
세 가지 설정의 온프레미스 방식과 네 가지 설정의 클라우드 방식으로 3차원 포인트 클라우드와 DSM, 3차원 메쉬와 텍스처, 정사 모자이크 영상을 생성하였다. 온프레미스 방식은 현장에서 즉시 처리하는 것을 가정 하여 랩탑 컴퓨터를 이용한 방식(OP1), 사무실 또는 관제센터에서 처리하는 것을 가정하여 두 개의 GPU를 장착한 데스크탑을 이용한 방식(OP2), 고성능 GPU를 장착한 워크스테이션을 이용한 방식(OP3)으로 구성하였다. 클라우드 방식은 현장에서 즉시 처리하는 것을 가정하여 무선 통신망을 이용하여 서버에 전체 영상을 업로드하고 생성물을 다운로드하였으며, AWS에서 한 개의 GPU와 서버급 CPU가 장착된 EC2를 이용한 방식 (AWS 1), 네 개의 고성능 GPU와 서버급 CPU가 장착된 EC2를 이용한 방식(AWS 2), Agisoft社의 클라우드 서비스를 이용한 방식(Agisoft), Pix4D社의 클라우드 서비스를 이용한 방식(Pix4D)으로 구성하였다. Pix4D를 제외한 나머지 방식은 Agisoft Metashape 64bit 1.6.4 버전을 Microsoft windows 환경에서 실행하였다(Table 6).Agisoft 방식과 Pix4D 방식은 웹페이지에 명시되지는 않았으나 공지된 사양 및 로그 파일을 분석하면 AWS를 사용하는 것으로 판단되어 추정 가능한 사양은 기울임체로 표시하였다. CPU에는 다중 코어의 수와 Fig. 1에서의 성능값을, GPU에는 GPU의 수와 Fig. 2에서의 성능값을 괄호 안에 기록하였다.
Table 6. Specifications of the methods
Table 1의 과정을 각 방식에 적용하여 소요된 시간을 측정한 결과는 Table 7과 같다. OP1은 랩탑을 이용한 현장 처리 방식으로서, 랩탑에 장착된 기본 GPU를 사용하였지만 아홉 시간 이상의 처리 시간을 소요하여 실질적으로 적용하기 어려운 것으로 판단된다. OP2는 데스크탑에 두 개의 GPU를 장착한 방식으로 나머지 방식들에 비하면 긴 시간을 소요하였지만 가장 빠른 방식 (AWS 2)과 30분 차이로서 충분히 적용 가능한 것으로 판단된다. 제원상으로 OP2와 OP3은 GPU 성능은 거의 두 배 차이지만 OP2가 두 개의 GPU를 사용하므로 거의 차이가 없고 CPU는 OP3가 거의 세 배의 성능을 가진다. 그러나 처리 시간은 1:0.75로서 CPU가 처리 시간에 절대적인 영향을 미쳤다고 볼 수 없다. 마찬가지로, AWS 2와 Agisoft는 같은 CPU를 사용하지만 AWS 2는 여덟 배 성능의 GPU를 두 배 더 사용하므로 16배의 성능을 가진다고 볼 수 있으나, 처리 시간은 1:0.84로서 GPU도 처리 시간에 절대적인 영향을 미친다고 볼 수 없다. 결국 CPU와 GPU의 제원상 성능 차이가 전체적인 처리 시간에 절대적인 영향을 주지는 않는 것으로 판단된다.
Table 7. Time comparison for each process
클라우드 방식에서 업로드한 영상의 크기는 약 4.5 GB이고 다운로드한 생성물의 크기는 약 10 GB이다. 당초 무선 통신망인 LTE를 이용하여 전송 시간을 측정하려 했으나 전송 이 빈번히 중단되어 유사한 속도를 내는 WiFi를 이용하여 전송 시간을 측정하였다. 전송 시간은 AWS 1에 대해서만 측정하였고 다른 방식에 대해서는 같은 값을 적용하였다. Transfer 시간은 영상을 AWS의 S3에서 EC2로 내부 전송하는데 걸린 시간으로서 1분 미만이며 AWS 1과 AWS 2에만 적용된다. 참고로, AWS의 S3로 영상을 전송할 때, 웹페이지 기반의 AWS console을 이용하는 것보다 AWS command line interface (CLI)을 이용하는 것이 다소 빠른 속도를 나타내었으나, Table 7에는 AWS console 기반 전송 시간을 기록하였다. 결국 클라우드 방식은 영상 업로드 시간과 생성물 다운로드 시간이 약 1시간 30분으로서 영상 처리 시간과 비슷하였다.
다만 Agisoft와 Pix4D는 웹페이지를 통해 결과를 확인할 수 있으므로 긴급한 상황에서는 다운로드 시간을 배제할 수 있다는 장점이 있다(Fig. 5, Fig. 6). AWS 1과 AWS 2도 생성물을 현장에서 무선통신으로 다운로드하지 않고 유선통신이 가능한 사무실 또는 관제센터에서 AWS CLI로 다운로드한다면 다운로드 시간을 수 배 단축시킬 수 있다.
Fig. 4. Web publication by Agisoft Metashape.
Fig. 5. Web publication by Pix4D.
4. 결론
본 연구에서는 재해/재난 현장에서 취득한 대용량 무인기 영상으로부터 고정밀 3차원 실감 자료를 신속하게 생성하기 위하여 상용 소프트웨어와 클라우드 컴퓨팅을 이용하여 처리하는 방식을 제안하고 성능을 평가하였다. 항공삼각측량, 3차원 포인트 클라우드 및 DSM 생성, 메쉬 및 텍스처 생성, 정사 모자이크 영상 제작 등의 과정은 로컬 컴퓨터를 사용하는 온프레미스 방식과 본 연구에서 제안한 클라우드 컴퓨팅 방식, Agisoft社와 Pix4D社에서 제공하는 클라우드 서비스가 비슷한 시간을 소요하였다. 클라우드 방식은 대용량 자료의 업로드와 다운로드 시간을 필요로 하지만 실질적인 현장 처리가 가능하다는 분명한 장점을 보였다. Agisoft社와 Pix4D社에서 제공하는 클라우드 서비스를 사용하면 영상 처리 뿐만 아니라 웹페이지를 통한 결과물의 공유가 가능하여 활용성이 높은 것으로 판단된다. 온프레미스와 클라우드 방식 모두 CPU와 GPU 성능에 따라 처리 시간의 차이가 발생하지만 벤치마크를 통해 확인되는 성능 차이만큼 큰 차이는 발생하지 않으므로 적절한 가격과 성능을 가진 하드웨어를 선택할 필요가 있다. 그러나 저성능의 GPU가 탑재된 랩탑 컴퓨터는 지나치게 많은 시간을 소요하여 현장 처리에 적용하기 어려운 것으로 나타났다.
본 연구에서는 비용분석을 수행하지 않았지만 클라우드 방식을 본격적으로 적용하기 위해서는 영상의 용량과 처리 빈도를 고려한 비용 설계가 필요하다. 상용 소프트웨어의 클라우드 서비스를 구독하는 방법도 고려해볼 필요가 있다. 재해/재난 현장에서 무선 통신망을 이용해서 대용량 영상과 결과물을 원활하게 전송할 수 없는 상황에도 대비해야 할 것이다. 물론 대체로 국내에서는 해당 지역을 조금만 벗어나도 해결될 수 있는 문제로 판단된다. 향후 클라우드 방식을 자동화하여 상용 수준의 편의성을 갖춘 클라우드 서비스를 구현하고자 한다.
사사
본 연구는 행정안전부 재난안전 산업육성지원 사업의 지원을 받아 수행된 연구임(no. 20009742).
References
- Chun, J., S. Yoon, and D. Kim, 2016. Virtual force (VF)-based disaster monitoring network using multiple UAVs, The Journal of the Institute of Internet, Broadcasting and Communication (IIBC), 16(4): 97-108 (in Korean with English abstract). https://doi.org/10.7236/JIIBC.2016.16.4.97
- Luo, C., J. Nightingale, E. Asemota, and C. Grecos, 2015. A UAV-cloud system for disaster sensing applications, Proc. of 2015 IEEE 81st Vehicular Technology Conference (VTC Spring), Glasgow, UK, May 11-14, pp. 1-5.
- Han, S. and C.K. Hong, 2019. Assessment of parallel computing performance of Agisoft Metashape for orthomosaic generation, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(6): 427-434 (in Korean with English abstract). https://doi.org/10.7848/KSGPC.2019.37.6.427
- Joo, Y.D., 2018. A Study on the construction of nearreal time drone image preprocessing system to use drone data in disaster monitoring, The Journal of the Institute of Internet, Broadcasting and Communication, 18(3): 143-149 (in Korean with English abstract).
- Kim, S.S., J. Kim, and J. Kim, 2019. National disaster scientific investigation and disaster monitoring using remote sensing and geo-information, Korean Journal of Remote Sensing, 35(5): 763-772 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.5.2.1
- Kim, S.S., B.G. Song, S.B. Cho, and G.J. We, 2019. Applicability of drone mapping for natural disaster damage investigation, Journal of the Korean Society for Geospatial Information Science, 27(2): 13-21 (in Korean with English abstract). https://doi.org/10.7319/kogsis.2019.27.2.013
- Shin, J.I., W. Seo, T. Kim, C. Woo, and J. Park, 2019. Analysis of availability of high-resolution satellite and UAV multispectral images for forest burn severity classification, Korean Journal of Remote Sensing, 35(6-2): 1095-1106 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2019.35.6.2.6
- Shin, W.J. and Y.T. Lee, 2017. Design and implementation of local forest fire monitoring and situational response platform using UAV with multi-sensor, The Journal of Korea Institute of Information, Electronics, and Communication Technology, 10(6): 626-632 (in Korean with English abstract). https://doi.org/10.17661/JKIIECT.2017.10.6.626
- Wamser, F., F. Loh, M. Seufert, P. Tran-Gia, R. Bruschi, and P. Lago, 2017. Dynamic cloud service placement for live video streaming with a remotecontrolled drone, Proc. of 2017 IFIP/IEEE Symposium on Integrated Network and Service Management (IM), Lisbon, Portugal, May 8-12, pp. 893-894.
- Wang, L., Y. Ma, J. Yan, V. Chang, and A.Y. Zomaya, 2018. pipsCloud: High performance cloud computing for remote sensing big data management and processing, Future Generation Computer Systems, 78(1): 353-368. https://doi.org/10.1016/j.future.2016.06.009
- Westoby, M.J., J. Brasington, N.F. Glasser, M.J. Hambrey, and J.M. Reynolds, 2012. 'Structure-from-Motion' photogrammetry: A low-cost, effective tool for geoscience applications, Geomorphology, 179: 300-314. https://doi.org/10.1016/j.geomorph.2012.08.021