• 제목/요약/키워드: Interior Orientation Parameters

검색결과 34건 처리시간 0.025초

재난조사 특수차량과 드론의 다중센서 자료융합을 통한 재난 긴급 맵핑의 활용성 평가 (Applicability Assessment of Disaster Rapid Mapping: Focused on Fusion of Multi-sensing Data Derived from UAVs and Disaster Investigation Vehicle)

  • 김성삼;박제성;신동윤;유수홍;손홍규
    • 대한원격탐사학회지
    • /
    • 제35권5_2호
    • /
    • pp.841-850
    • /
    • 2019
  • 본 논문은 상업용 소형 드론의 드론 맵핑 기하 정확도 평가와 지상 LiDAR와 드론 점군 자료의 융합을 통하여 재난 긴급 맵핑 적용성에 관한 연구이다. 기존의 드론 맵핑 절차와 카메라 검정과 광속조정법으로 카메라 모델을 최적화한 드론 맵핑 간의 위치 오차를 비교 분석한 결과, 평면 위치오차는 2~3 m에서 약 0.11~0.28 m 수준으로, 수직 위치오차는 2.85 m에서 0.45 m 수준으로 위치결정 정확도가 향상되었다. 아울러, 드론 맵핑과정에서 누락되기 쉬운 점군 자료의 측면정보를 지상 LiDAR 점군자료와 융합을 통해 보완할 수 있도록 두 점군 자료간 정합을 위한 개선된 좌표계 변환 모델을 제시하여 연구 대상지내 이종 점군 자료를 최대 오차 0.07 m 이내로 정합하였다. 본 논문에서의 재난현장에서의 드론 기반의 긴급 맵핑과 재난 현장정보를 보다 정밀하게 구축하기 위한 점군 자료융합에 관한 연구 성과는 향후 국가 재난안전 관리 현업에 일조할 수 있을 것으로 기대된다.

사진측량과 컴퓨터비전 간의 카메라 렌즈왜곡 변환 (Conversion of Camera Lens Distortions between Photogrammetry and Computer Vision)

  • 홍송표;최한승;김의명
    • 한국측량학회지
    • /
    • 제37권4호
    • /
    • pp.267-277
    • /
    • 2019
  • 사진측량과 컴퓨터비전 분야는 카메라에서 촬영된 영상에서 3차원 좌표를 결정하는 것은 동일하지만 두 분야는 카메라 렌즈왜곡 모델링 방법과 카메라 좌표계의 차이점으로 인하여 서로 간에 직접적인 호환이 어렵다. 일반적으로 드론 영상의 자료처리는 컴퓨터비전 기반의 소프트웨어를 이용하여 번들블록조정을 수행한 후 지도제작을 위해서 사진측량 기반의 소프트웨어로 도화를 수행하게 된다. 이때 카메라 렌즈왜곡의 모델을 사진측량에서 사용하는 수식으로 변환해야 하는 문제에 직면하게 된다. 이에 본 연구에서는 사진측량과 컴퓨터비전에서 사용되는 좌표계와 렌즈왜곡 모델식의 차이점에 대하여 기술하고 이를 변환하는 방법론을 제안하였다. 카메라 렌즈왜곡 모델의 변환식의 검증을 위해서 먼저 렌즈왜곡이 없는 가상의 좌표에 컴퓨터비전 기반의 렌즈왜곡 모델을 이용하여 렌즈왜곡을 부여하였다. 그리고 나서 렌즈왜곡이 부여된 사진좌표를 이용하여 사진측량 기반의 렌즈왜곡 모델을 이용하여 왜곡계수를 결정한 후 사진좌표에서 렌즈왜곡을 제거하여 원래의 왜곡이 없는 가상좌표와 비교하였다. 그 결과 평균제곱근거리가 0.5픽셀 이내로 양호한 것으로 나타났다. 또한 사진측량용 렌즈왜곡 계수를 적용하여 정밀도화 가능여부를 판단하기 위해서 에피폴라 영상을 생성하였다. 생성된 에피폴라 영상에서 y-시차의 평균제곱근오차가 계산한 결과 0.3픽셀 이내로 양호하게 나타났음을 알 수 있었다.

네트워크 RTK 무인기의 항공삼각측량 정확도 평가 (Accuracy Assessment of Aerial Triangulation of Network RTK UAV)

  • 한수희;홍창기
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.663-670
    • /
    • 2020
  • 본 연구에서는 건물이 혼재한 준 도심 지역에서 발생할 수 있는 재난/재해를 가정하여 네트워크 RTK (Real Time Kinematic) 측위가 가능한 무인기를 이용한 항공삼각측량의 정확도를 평가하였다. 검사점 측위의 신뢰성을 확보하기 위해 검사점을 건물의 옥상에 설치하여 네 시간 이상의 GNSS (Global Navigation Satellite System) 정적 측위를 수행하였다. 객관적인 정확도 평가를 위해 소프트웨어에서 자동으로 인식 가능한 코드화된 대공 타겟을 사용하였다. 무인기에서는 네트워크 RTK 측위의 일종인 VRS (Virtual Reference Station) 방식을 이용하여 영상 취득 당시 카메라의 3차원 좌표를 측정하였고, IMU (Inertial Measurement Unit)와 짐벌 회전각 측정을 통해 카메라의 3축 회전각을 측정하였다. Agisoft Metashape를 이용하여 내·외부 표정요소를 추정·갱신한 결과, 항공삼각측량의 3차원 RMSE (Root Mean Square Error)는 영상의 중복도와 촬영 각도의 조합에 따라 크게는 0.153 m에서 작게는 0.102 m로 나타났다. 더욱 높은 수준의 항공삼각측량 정확도를 확보하기 위해서는 연직 영상의 중복도를 높이는 것이 일반적이나 경사 영상을 추가하는 것이 효과적인 것으로 나타났다. 따라서 대응 단계의 재난/재해 현장에서 긴급하게 무인기 매핑을 수행할 경우 중복도를 높이기 보다는 경사 영상도 함께 취득할 필요가 있다.

건설현장 모니터링을 위한 단안 카메라 기반의 소실점을 이용한 높이 결정 (Height Determination Using Vanishing Points of a Single Camera for Monitoring of Construction Site)

  • 최인하;소형윤;김의명
    • 지적과 국토정보
    • /
    • 제51권2호
    • /
    • pp.73-82
    • /
    • 2021
  • 정부의 중·소형 민간공사장 안전관리 강화대책 발표에 따라 CCTV 설치 의무화 대상이 대형 공사장에서 중·소형 공사장으로 확대되었다. 하지만 기존의 건설현장의 CCTV는 안전관리를 위한 단순 관제용으로 활용되고 있어 건설현장의 모니터링을 위한 연구가 필요하다. 이에 본 연구에서는 단안 카메라를 이용하여 촬영한 단 영상을 기반으로 3개의 소실점(vanishing point)을 계산한 후 내부표정요소 정보를 포함하고 있는 카메라 행렬을 결정하고 기준 객체의 높이를 통해 대상 객체의 높이를 계산하여 정확도를 검증하는 연구를 수행하였다. 단안 카메라 기반의 소실점을 이용한 높이 결정 실험을 통해 별도의 지상기준점 측량 없이 단 영상만으로 대상 객체의 높이를 결정할 수 있었으며, 정확도를 평가한 결과 평균제곱근오차는 ±0.161m로 나타났다. 따라서, 단안 카메라를 이용하여 촬영한 단영상을 통해 건설현장의 공사 진척도를 모니터링할 수 있을 것으로 판단된다.