DOI QR코드

DOI QR Code

Fast Geocoding of UAV Images for Disaster Site Monitoring

재난현장 모니터링을 위한 UAV 영상 신속 지오코딩

  • Nho, Hyunju (Researcher, National Disaster Management Research Institute, MOIS) ;
  • Shin, Dong Yoon (Researcher, National Disaster Management Research Institute, MOIS) ;
  • Sohn, Hong-Gyoo (Professor, Civil and Environmental Engineering, Yonsei University) ;
  • Kim, Seongsam (Researcher Officer, National Disaster Management Research Institute, MOIS)
  • 노현주 (행정안전부 국립재난안전연구원 연구원) ;
  • 신동윤 (행정안전부 국립재난안전연구원 연구원) ;
  • 손홍규 (연세대학교 건설환경공학과 교수) ;
  • 김성삼 (행정안전부 국립재난안전연구원 시설연구사)
  • Received : 2020.10.02
  • Accepted : 2020.10.27
  • Published : 2020.10.31

Abstract

In urgent situations such as disasters and accidents, rapid data acquisition and processing is required. Therefore, in this study, a rapid geocoding method according to EOP (Exterior Orientation Parameter) correction was proposed through pattern analysis of the initial UAV image information. As a result, in the research area with a total flight length of 1.3 km and a width of 0.102 ㎢, the generation time of geocoding images took about 5 to 10 seconds per image, showing a position error of about 8.51 m. It is believed that the use of the rapid geocoding method proposed in this study will help provide basic data for on-site monitoring and decision-making in emergency situations such as disasters and accidents.

재난·사고와 같은 긴급한 상황에서는 신속한 데이터 획득 및 처리가 필요하다. 이에, 본 연구에서는 UAV 영상 초기정보의 패턴분석을 통해 외부표정요소 보정에 따른 신속 지오코딩 방법을 제안하였다. 그 결과, 총 비행길이 1.3 km, 넓이 0.102 ㎢의 연구지역에서 1개의 GCP를 활용하였을 때, 지오코딩 영상의 생성시간은 1장당 약 5~10초가 소요되었고, 약 6.91 m의 위치오차를 나타내었다. 본 연구에서 제안하는 신속 지오코딩 방법을 활용하면, 재난·사고 현장과 같은 긴급 상황에서 현장 모니터링 및 의사결정을 위한 기초자료 제공에 도움이 될 것으로 판단된다.

Keywords

요약

재난·사고와 같은 긴급한 상황에서는 신속한 데이터 획득 및 처리가 필요하다. 이에, 본 연구에서는 UAV 영상 초기정보의 패턴분석을 통해 외부표정요소 보정에 따른 신속 지오코딩 방법을 제안하였다. 그 결과, 총 비행길이 1.3 km, 넓이 0.102 km2의 연구지역에서 1개의 GCP를 활용하였을 때, 지오코딩 영상의 생성시간은 1장당 약 5~10초가 소요되었고, 약 6.91 m의 위치오차를 나타내었다. 본 연구에서 제안하는 신속 지오코딩 방법을 활용하면, 재난·사고 현장과 같은 긴급 상황에서 현장 모니터링 및 의사결정을 위한 기초자료 제공에 도움이 될 것으로 판단된다.

1. 서론

공간정보 유형이 다양해짐에 따라 활용성이 증가하여 데이터 구축에 대한 중요도가 부각되고 있다. 최근에는 토지이용 및 관리, 지도서비스 제공 등 공공부문뿐만 아니라 민간부문에서도 공간정보 활용이 증가하고 있다. 특히 일상생활이나 특정 상황에서 행동을 판단할 때 공간정보를 활용하면 중요한 기본 정보 및 기준 제시가 가능하다.

현재 공간정보 데이터 수집은 LiDAR, 위성, UAV 등 다양한 플랫폼을 통해 이루어지고 있다. 이러한 플랫폼 중 특히 UAV는, 실시간 데이터 획득이 가능하고 비용 및 투입인력이 비교적 효율적일 뿐만 아니라 위험지역 및 난접근 지역에 투입 가능하여 고해상도 영상 취득이 가능하다는 점 등을 통해 많은 관심을 받고 있다. UAV에 카메라를 탑재하여 취득한 데이터를 GPS/INS 센서로부터 획득한 위치/자세 정보를 통해 지오레퍼런싱 과정을 거치면 다양한 공간정보도출이 가능하며(Choi and Lee, 2009), 이는 농업, 산림, 토목, 환경, 재난관리 등 많은 분야에서 활용 가능하다.

UAV 영상을 활용하여 공간정보를 생성하는 연구로는 SIFT와 SfM 기법을 이용해 UAV 항공사진 측량 방법으로 소규모 지형에 대한 정사영상과 수치지도를 제작한 연구(Lim, 2016), 임업 및 농업에 저가 UAV 시스템 사용의 잠재력을 확인하기 위하여 GCP와 저가 GPS/IMU로 획득된 위치/자세 정보를 사용해 지오레퍼런싱한 연구(Grensdorffer et al., 2008), UAV 영상과 기준 데이터를 이용하여 정밀 정사 영상을 생 성하고 생성한 정사 영상으로부터 정보를 얻어내진 평가에 활용한 연구(Gao et al., 2017) UAV 영상을 이용하여 효율적으로 시설물을 점검하기 위해 기준 영상 기반 개별정사 영상 생성방법을 제안하고 정확도를 검증한 연구(Kim, 2018) 등이 진행되었다. 또한, 재난 분야에서는 실시간 모니터링을 위한 소형 드론 기반 공중감시체계 제안(Zaheer et al.,2016.), 실시간 비디오 중계장비를 탑재하여 모니터링 시스템 구축 및 감시, 구조활동에 적용하는 연구(Sharma et al., 2016) 등 실시간 현장 정보를 획득하기 위하여 UAV 기반의 연구들이 진행되고 있다.

선행연구들은 높은 정확도 확보를 통해 농업, 해양, 건축, 재난관리 등 다양한 분야에서 정밀한 분석에 활용하는 것을 목적을 가지고 진행되었다. 본 연구에서는 UAV 활용성이 높게 평가되는 다양한 분야 중, 현장 모니터링 및 신속한 초동조치가 필요한 재난관리 분야에 초점을 두고 외부 표정요소 보정에 따른 신속 UAV 영상지오코딩 방법을 제안하고자 한다.

2.연구 방법

1) 연구 방법 및 연구지역

본 연구에서 제안하는 UAV 영상 신속 지오코딩은 다음과 같은 단계로 나누어 수행하였다. 첫 번째 단계로, 취득된 영상의 초기 정보인 GPS/INS 센서로부터 획득한 위치/자세 정보의 패턴 분석을 수행하여 정오 차 성분과 부정 오차 성분으로 나누었고, 두 번째 단계로 보정하는 성분을 다르게 하여 영상의 위치정확도를 분석하였다. 마지막으로는 보정하는 성분에 따라 최소한의 지상기준점을 활용하여 수행결과를 분석하였다 (Fig. 1).

OGCSBN_2020_v36n5_4_1221_f0001.png 이미지

Fig. 1. Flowchart of fast geocoding processing.

해당 연구는 Fig. 2와 같이 울산에 위치한 국립재난안전연구원 주변을 대상으로 데이터를 취득하여 수행하였으며, UAV의 총 비행길이는 약 1.3 km이고 해당 지역의 넓이는 약 0.102 km2이다.

OGCSBN_2020_v36n5_4_1221_f0002.png 이미지

Fig. 2. Research site.

2) 활용 장비

본 연구에서 활용한 UAV은 DJI社의 Inspire 1 pro(Fig. 3)로, 사양은 Table 1에 나타내었다. DJIInspire 1 pro는 소형급 회전익 UAV로 실내에서도 안정적인 비행이 가능하며, 스마트폰 앱을 활용한 경로지정 자동비행이 가능하다. 항공촬영을 위하여 사용한 카메라는 해당 UAV에 장착 가능한 Zenmuse X5(Fig. 4)로, 4,608×3,456 pixel의 영상 촬영이 가능하며 자세한 사양은 Table 2와 같다.

Fig. 3. Inspire 1.

OGCSBN_2020_v36n5_4_1221_f0004.png 이미지

Fig. 4. Zenmuse X5.

Table 1. Specification of Inspire 1 Pro

OGCSBN_2020_v36n5_4_1221_t0001.png 이미지

Table 2. Specification of Zenmuse X5

OGCSBN_2020_v36n5_4_1221_t0002.png 이미지

3) UAV Dataset

UAV 영상은 120m의 고도에서 53장의 영상을 획득하였으며 이때의 GSD는 1.09 cm/pixel이다. 그중, GCP 측량을 위해 설치한 타겟이 촬영된 영상인 26장의 영상만 활용하였다. 각 영상은 EXIF(Exchangeable Image File) JPEG 전자 파일 포맷으로 저장되며, 영상의 메타데이터에는 기본정보인 사진의 크기, 사진 촬영날짜, 조리개, ISO, 카메라 모델명뿐만 아니라 영상 촬영 시 초점거리, UAV에 탑재된 GPS 위·경도 좌표, 비행 고도, 자세각에 대한 정보가 포함되어 있다.

4) 지상기준점 측량

지상기준점은 실험 수행 및 결과의 정확성을 평가하기 위해 취득하였다. 실험 전 연구 대상지에 UAV로 획득한 영상에서 식별할 수 있는 타겟을 미리 설치하였으며 (Fig. 5), 실험에 사용된 타겟은 Fig. 6과 같다. 타겟 설치 후, RTK(Real-Time Kinematic) 방식에 의한 고정밀 GNSS 측량을 통해 총 26점을 획득하였다. Table 3은 GCP의 좌표를 나타내었다.

OGCSBN_2020_v36n5_4_1221_f0005.png 이미지

Fig. 5. Location of GCPs survey.

OGCSBN_2020_v36n5_4_1221_f0006.png 이미지

Fig. 6. Used groud targets.

Table 3. Coordinates of GCPs and CPs

OGCSBN_2020_v36n5_4_1221_t0003.png 이미지

3. UAV 영상 신속 지오코딩

1) GPS/INS 센서 데이터 분석

신속 지오코딩의 첫 번째 단계로, UAV 자체에서 제공하는 GPS/INS 센서 데이터 분석을 수행하였다. 아래 Fig. 7은 UAV 비행 경로에 따른 영상 촬영 위치(X, Y)를 나타낸다. Fig. 8은 x 및 y 방향으로의 회전량(roll, pitch)을 나타내며, Fig. 9는 UAV의 높이와 z 방향으로의 회전량(Z, yaw)으로, 카메라가 어느 방향을 향하고 있는지 즉, 북쪽 방향으로부터 얼마나 틀어져 있는지를 나타낸다.

OGCSBN_2020_v36n5_4_1221_f0007.png 이미지

Fig. 7. UAV flight trajectory (X, Y).

OGCSBN_2020_v36n5_4_1221_f0008.png 이미지

Fig. 8. Roll and pitch.

OGCSBN_2020_v36n5_4_1221_f0009.png 이미지

Fig. 9. Height and yaw.

취득한 GCP를(GCP1~GCP15) 활용하여 번들조정을 수행하여 위의 초기 EOP 보정을 실시하였다. 그 결과 Fig. 10, Fig. 11, Fig. 12와 같이 x, y축 회전량은 부정 오차 random error) 형태를 보인 반면 z, k는 정오차(systemetic error) 형태를 보였다. 이처럼 표정 요소별 오차 패턴을 분석하여, 보정하는 표정요소를 다르게 하여 실험조건을 Table 4와 같이 설정하였다.

OGCSBN_2020_v36n5_4_1221_f0010.png 이미지

Fig. 10. X, Y calibration.

OGCSBN_2020_v36n5_4_1221_f0011.png 이미지

Fig. 11. Roll, Pitch calibration.

OGCSBN_2020_v36n5_4_1221_f0012.png 이미지

Fig. 12. Height, Yaw calibration.

Table 4. CorrectedParametersbyeachcaseandtheoretically required number of GCPs

OGCSBN_2020_v36n5_4_1221_t0004.png 이미지

2) 보정요소별 정확도 분석

신속 지오코딩의 두 번째 단계로, 보정하는 내·외부 표정요소별 정확도 분석을 수행을 위해 Table 4와 같이 총 10개의 실험조건으로 나누었다. 각 실험조건별 이론상 필요한 GCP 개수는 최대 6개이며, 실험조건마다 8개의 GCP가 있다고 가정하여 실험하였다. 우선 한 영상을 대상으로 결과를 도출하였고, 실험에 사용된 영상은 GCP가 8개 이상 찍힌 영상을 활용하였다.

각 실험조건별로 Single Photo Resection을 수행하기 위해 Taylor 급수를 사용하여 공선조건 방정식을 선형화하고 최소 제곱법을 사용하였다. 아래 방정식은 Case 4에 해당하는 계산과정을 예시하고 있다.

\(\left[\begin{array}{c} x_{1}-f_{\text {init }} \\ y_{1}-f_{\text {init }} \\ x_{2}-f_{\text {init }} \\ y_{2}-f_{\text {init }} \\ x_{3}-f_{\text {init }} \\ y_{3}-f_{\text {init }} \end{array}\right]=\left[\begin{array}{ccccc} \frac{\partial f(x)}{\partial X_{0}} & \frac{\partial f(x)}{\partial Y_{0}} & \frac{\partial f(x)}{\partial Z_{0}} & \frac{\partial f(x)}{\partial \omega_{0}} & \frac{\partial f(x)}{\partial \varnothing_{0}} & \frac{\partial f(x)}{\partial \kappa_{0}} \\ \frac{\partial f(y)}{\partial X_{0}} & \frac{\partial f(y)}{\partial Y_{0}} & \frac{\partial f(y)}{\partial Z_{0}} & \frac{\partial f(y)}{\partial \omega_{0}} & \frac{\partial f(y)}{\partial \varnothing_{0}} & \frac{\partial f(y)}{\partial \kappa_{0}} \end{array}\right]\left[\begin{array}{c} X-X_{0} \\ Y-X_{0} \\ Z-X_{0} \\ \omega-X_{0} \\ \varnothing-X_{0} \\ \kappa-X_{0} \end{array}\right]\)       (1)

\(y=A x\)       (2)

\(x=\left(A^{T} P A\right)^{-1} A^{T} P y\)       (3)

실험조건별 각 요소들을 보정한 후, 검사점을 통해 확인한 최종 위치 오차는 Table 5과 같다. 아래 결과를 살펴보면 GCP를 3개 사용하여 EOP만 보정한 Case 4 경우 cm 단위의 오차를 가지는 것을 확인할 수 있었으며, 2개를 사용하여 값만 보정하여도 cm 단위의 오차를 가지는 것을 확인하였다. 또한, GCP를 1개만 가지고도 값을 보정하여 약 3.7 m 정도의 오차를 보였다.

Table 5. RMSE by each case

OGCSBN_2020_v36n5_4_1221_t0005.png 이미지

3) GCP 개수에 따른 정확도 분석

마지막 단계로, 재난현장에서 GCP 측량 작업량을 최소화하기 위해 GCP 개수에 따른 정확도를 분석하고자 하였다. Table 4의 이론상으로 필요한 GCP 개수가 3개, 2개, 1개에 해당하는 실험조건 중, Table 5에 서 비교적 좋은 결과를 나타낸 4, 6, 10 실험 조건에 대해 전체 영상에 대한 위치오차 결과를 살펴보고자 하였다. 재난·사고 현장에서의 데이터 분석 시간 단축을 위하여 모든 영상을 보정하는 대신, 처음 기준 영상(7번 영상)만 보정을 수행하고 계산된 보정량을 나머지 모든 영상에 일률적으로 적용하였다. 적용 결과를 바탕으로 이중 선형보간법으로 최종적인 지오코딩 영상 생성을 생성하였다. 생성된 영상의 포맷은 Geotiff, 크기는 7 mb, 한 장당 생성 시간은 5~10초가 소요되었다.

GCP가 3개라고 가정한 Case 4의 경우,GCP15,GCP13, CHK10을 사용하였고, 2개로 가정한 경우에는 GCP15, GCP13, 1개로가 정한 경우에는 GCP13이 사용되었으며 각각의 GCP의 위치는 Fig. 13과 같다.

OGCSBN_2020_v36n5_4_1221_f0013.png 이미지

Fig. 13. Location of GCPs by each case.

(1) Case 4의 정확도 분석

Case 4는 GCP 3개를 사용하여 영상의 외부표정 요소를 보정하였다. 외부 표정 요소의 보정량은 Table 6과 같으며 이를 다른 영상에 일률적으로 적용하였다. 생성된 지오코딩 영상상의 검사점을 활용하여 정확도를 평가한 결과, Table 7과 같이 약 2.154 m의 위치 오차를 보였다.

Table 6. Correction by each parameter (Case 4)

OGCSBN_2020_v36n5_4_1221_t0006.png 이미지

Table 7. RMSE of geocoded images (Case 4)

OGCSBN_2020_v36n5_4_1221_t0007.png 이미지

(2) Case 6의 정확도 분석

Case 6은 GCP 2개를 사용하여 영상의를 위와 같은 방법으로 보정하여 나머지 영상에 적용하였다. 각 파라미터의 보정량은 Table 8과 같으며 이를 다른 영상에 일률적으로 적용하였다. 생성된 지오코딩 영상들을 검사점으로 확인한 결과, Table 9와 같이 약 1.965 m의 위치 오차를 보였다.

Table 8. Correction by each parameter (Case 6)

OGCSBN_2020_v36n5_4_1221_t0008.png 이미지

Table 9. RMSE of geocoded images (Case 6)

OGCSBN_2020_v36n5_4_1221_t0009.png 이미지

(3) Case 10의 정확도 분석

Case 10은 GCP 1개를 사용하여 영상의를 보정하여 나머지 영상에 일률적으로 적용하였다. 각 파라미터의 보정량은 Table 10과 같으며 생성된 지오코딩 영상들을 검사점으로 확인한 결과, Table 11과 같이 약 6.911 m의 위치 오차를 보였다.

Case 10의 과정을 통해 최종적으로 생성된 지오코딩 영상을 QGIS Daum API 지도 위에 중첩하였으며 그 결과는 Fig. 14와 같다. Fig. 14에서도 볼 수 있듯이, GCP 한 점을 가지고 Z, κ값만을 보정하더라도 신속하게 재난현장을 모니터링하거나 현장에서 의사결정을 위한 자료로 활용하기에 적절한 정확도를 확보하고 있음을 알 수 있었다.

Table 10. Correction by each parameter (Case 10)

OGCSBN_2020_v36n5_4_1221_t0010.png 이미지

Table 11. RMSE of geocoded images (Case 10)

OGCSBN_2020_v36n5_4_1221_t0011.png 이미지

OGCSBN_2020_v36n5_4_1221_f0014.png 이미지

Fig. 14. Overlay of geocoded images on daum map.

4. 결론

최근 UAV는 국내외 다양한 연구로 인해 공간정보 획득이 필요한 여러 분야에서 활용성이 높게 평가되고 있다. 특히 사람이 접근하기 어려운 지역에 투입 가능하고, 광범위한 지역 데이터 획득이 가능하므로 재난관리 분야에서도 그 활용성이 확대되고 있다.

본 연구에서는 이러한 재난관리 분야에서의 현장 모니터링 및 의사결정 등 초동보고를 위한 기본 자료 생성에 목적을 두고, UAV 영상 신속 지오코딩에 대한 연구를 수행하였다. 신속 영상 지오코딩을 위해 첫째, GPS/INS 센서에서 얻은 UAV의 초기 위치/자세 정보를 분석하였고, 둘째, 분석 결과를 토대로 보정요소별 위치정확도를 검토하였으며, 마지막으로 최소한의 GCP 개수를 사용한 결과에 대해 정확도를 분석하였다. 그 결과, 총 비행길이 1.3 km, 넓이 0.102 km2의 연구지역에 대해 지오코딩 영상의 생성 시간은 1장당 약 5~10초가 소요되었고, 1개의 GCP를 사용하여 와 값만 보정하더라도 약 6.91 m의 정확도를 확보할 수 있음을 확인하였다. 이러한 결과는 재난·사고 등 긴급한 상황에서의사결정 및 현장 모니터링을 위한 기초자료로 활용 가능할 것으로 판단된다. 향후 신속한 데이터 생성과 더불어 정확도를 향상시키는 연구 및 PPK, RTK 드론을 도입하여 최소한의 GCP를 활용하거나 GCP 없이 UAV 영상을 지오코딩하는 연구가 필요하다고 판단된다.

References

  1. Choi, K. A., and Lee, I. P., 2009. Image Georeferencing using AT without GCPs for a UAV-based Low-Cost Multisensor System, Journal of the Korean Society of Surveying, 27(2): 249-260 (in Korean with English abstract).
  2. Gao, M., Xu, X., Klinger, Y. Woerd, J. V. D., and Tapponnier, P., 2017. High-resolution mapping based on an Unmanned Aerial Vehicle(UAV) to capture paleoseismic offsets along the Altyn-Tagh fault, China, Scientific Reports, 7(1): 1-11. https://doi.org/10.1038/s41598-016-0028-x
  3. Grensdorffer, G. J., Engel, A. and Teichert, B., 2008. The Photogrammetric Potential of Low-cost UAVs in Forestry and Agriculture, International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, ISPRS, Beijing, China, 37: 1207-1213.
  4. Kim, H. Y., Choi, K. A., and Lee, I. P., 2018. Drone Image-Based Facility Inspection - Focusing on Automatic Process Using Reference Images, The Korean Society for Geospatial Information Science, 26(2): 21-32 (in Korean with English abstract). https://doi.org/10.7319/kogsis.2018.26.2.021
  5. Lim, S. B., 2016. Geospatial Information Data Generation Using Unmanned Aerial Photogrammetry and Accuracy Assessment, Department of Civil Engineering, Graduate School Chungnam National University, Daejeon, Korea.
  6. Seong, J. H., Lee, K. R., Han, Y. K., and Lee, W. H., 2019. Geometric Correction of None-GCP UAV Orthophoto Using Feature Points of Reference Image, Korean Society for Geospatial Information Science, 27(6): 27-34 (in Korean with English abstract). https://doi.org/10.7319/kogsis.2019.27.6.027
  7. Sharma, S., A. Muley, R. Singh, and A. Gehlot, 2016. UAV for Surveillanve and Environmental Monitoring, Indian Journal of Science and Rechnology, 9(4): 1-4.
  8. Zaheer, Z., a. Usmani, E. Khan, and M.A. Qadeer, 2016. Aerial surveillance system using UAV, 2016 Thirteenth International Conference on Wireless and Optical Communications Networks, pp. 1-7.