• 제목/요약/키워드: UAV images

검색결과 291건 처리시간 0.021초

Automated Analysis of Scaffold Joint Installation Status of UAV-Acquired Images

  • Paik, Sunwoong;Kim, Yohan;Kim, Juhyeon;Kim, Hyoungkwan
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.871-876
    • /
    • 2022
  • In the construction industry, fatal accidents related to scaffolds frequently occur. To prevent such accidents, scaffolds should be carefully monitored for their safety status. However, manual observation of scaffolds is time-consuming and labor-intensive. This paper proposes a method that automatically analyzes the installation status of scaffold joints based on images acquired from a Unmanned Aerial Vehicle (UAV). Using a deep learning-based object detection algorithm (YOLOv5), scaffold joints and joint components are detected. Based on the detection result, a two-stage rule-based classifier is used to analyze the joint installation status. Experimental results show that joints can be classified as safe or unsafe with 98.2 % and 85.7 % F1-scores, respectively. These results indicate that the proposed method can effectively analyze the joint installation status in UAV-acquired scaffold images.

  • PDF

UAV 영상을 활용한 수변구조물 피해분석 및 정확도 평가 (Damage Analysis and Accuracy Assessment for River-side Facilities using UAV images)

  • 김민철;윤혁진;장휘정;유종수
    • 대한공간정보학회지
    • /
    • 제24권1호
    • /
    • pp.81-87
    • /
    • 2016
  • 자연재해로 인해 댐, 교량, 제방 등 수변구조물에 피해가 발생할 경우, 빠른 복구를 위해 정확한 피해정보를 분석하는 일은 매우 중요하다. 본 연구에서는 최근 활용이 확산되고 있는 UAV(Unmanned aerial vehicle)영상을 활용하여 효과적으로 피해를 분석하는 방안을 제시하고 정확도 평가를 수행하였다. UAV영상은 수변구조물 일대를 촬영한 영상들을 이용하였고, 피해를 분석하는 핵심 방법론으로 영상정합과 변화탐지 기법을 활용하였다. 영상정합을 통해 생성된 점군 데이터(point cloud)는 2차원 영상으로 3차원 형상을 재현하며, 사전에 구축된 레퍼런스 데이터와의 높이 값 비교를 통해 피해영역을 추출할 수 있다. 피해영역으로 추출된 결과는 정확도를 평가하기 위해 항공라이다로 구축된 정확한 데이터와 비교하여 절대위치 오차를 비교하였다. 실험 결과 EOP(외부표정요소)가 매우 정확한 UAV 영상을 사용하면 제안된 방법론으로 평균 10~20cm 오차 범위 내의 정확도를 확보할 수 있음을 알 수 있었고, 이는 제안한 방법이 비교적 큰 규모인 수변구조물에서 발생하는 피해 분석에 매우 유용하게 활용될 수 있음을 보여주었다. 하지만 복잡도가 높은 구조물들은 매칭 기술을 적용하기 어려우며, 이러한 구조물들의 피해를 추출하기 위해서는 별도의 방법론이 필요하다.

Comparison of Orthophotos and 3D Models Generated by UAV-Based Oblique Images Taken in Various Angles

  • Lee, Ki Rim;Han, You Kyung;Lee, Won Hee
    • 한국측량학회지
    • /
    • 제36권3호
    • /
    • pp.117-126
    • /
    • 2018
  • Due to intelligent transport systems, location-based applications, and augmented reality, demand for image maps and 3D (Three-Dimensional) maps is increasing. As a result, data acquisition using UAV (Unmanned Aerial Vehicles) has flourished in recent years. However, even though orthophoto map production and research using UAVs are flourishing, few studies on 3D modeling have been conducted. In this study, orthophoto and 3D modeling research was performed using various angle images acquired by a UAV. For orthophotos, accuracy was evaluated using a GPS (Global Positioning System) survey that employed VRS (Virtual Reference Station) acquired checkpoints. 3D modeling was evaluated by calculating the RMSE (Root Mean Square Error) of the difference between the outline height values of buildings obtained from the GPS survey to the corresponding 3D modeling height values. The orthophotos satisfied the acceptable accuracy of NGII (National Geographic Information Institute) for a 1/500 scale map from all angles. In the case of 3D modeling, models based on images taken at 45 degrees revealed better accuracy of building outlines than models based on images taken at 30, 60, or 75 degrees. To summarize, it was shown that for orthophotos, the accuracy for 1/500 maps was satisfied at all angles; for 3D modeling, images taken at 45 degrees produced the most accurate models.

Automatic Counting of Rice Plant Numbers After Transplanting Using Low Altitude UAV Images

  • Reza, Md Nasim;Na, In Seop;Lee, Kyeong-Hwan
    • International Journal of Contents
    • /
    • 제13권3호
    • /
    • pp.1-8
    • /
    • 2017
  • Rice plant numbers and density are key factors for yield and quality of rice grains. Precise and properly estimated rice plant numbers and density can assure high yield from rice fields. The main objective of this study was to automatically detect and count rice plants using images of usual field condition from an unmanned aerial vehicle (UAV). We proposed an automatic image processing method based on morphological operation and boundaries of the connected component to count rice plant numbers after transplanting. We converted RGB images to binary images and applied adaptive median filter to remove distortion and noises. Then we applied a morphological operation to the binary image and draw boundaries to the connected component to count rice plants using those images. The result reveals the algorithm can conduct a performance of 89% by the F-measure, corresponding to a Precision of 87% and a Recall of 91%. The best fit image gives a performance of 93% by the F-measure, corresponding to a Precision of 91% and a Recall of 96%. Comparison between the numbers of rice plants detected and counted by the naked eye and the numbers of rice plants found by the proposed method provided viable and acceptable results. The $R^2$ value was approximately 0.893.

무인 항공 시스템에서 촬영 영상의 GCP 기하보정을 통한 정밀한 지상 표적 좌표 획득 방법 (Acquiring Precise Coordinates of Ground Targets through GCP Geometric Correction of Captured Images in UAS)

  • 안남원;임경미;정소영
    • 한국군사과학기술학회지
    • /
    • 제26권2호
    • /
    • pp.129-138
    • /
    • 2023
  • Acquiring precise coordinates of ground targets can be regarded as the key mission of the tactical-level military UAS(Unmanned Aerial System) operations. The coordinates deviations for the ground targets estimated from UAV (Unmanned Aerial Vehicle) images may depend on the sensor specifications and slant ranges between UAV and ground targets. It has an order of several tens to hundreds of meters for typical tactical UAV mission scenarios. In this paper, we propose a scheme that precisely acquires target coordinates from UAS by mapping image pixels to geographical coordinates based on GCP(Ground Control Points). This scheme was implemented and tested from ground control station for UAS. We took images of targets of which exact location is known and acquired the target coordinates using our proposed scheme. The experimental results showed that errors of the acquired coordinates remained within an order of several meters and the coordinates accuracy was significantly improved.

시계열 UAV 영상을 활용한 연안지역 침식·퇴적 변화 모니터링 (Erosion and Sedimentation Monitoring of Coastal Region using Time Series UAV Image)

  • 조기성;현재혁;이근상
    • 한국지리정보학회지
    • /
    • 제23권2호
    • /
    • pp.95-105
    • /
    • 2020
  • 효율적인 연안관리 업무를 추진하기 위해서는 다양한 요인에 의해 변화하는 지형의 특성을 지속적으로 모니터링하는 것이 중요하다. 본 연구에서는 격포해수욕장을 대상으로 시계열 UAV 영상을 촬영하였으며, UAV 위치정확도 평가를 위해 VRS 측량성과와 비교한 결과 ±11cm(X), ±10cm(Y), ±15cm(Z)의 표준편차를 얻었으며 따라서 수치지도 작업규정상의 허용오차를 만족하는 것으로 확인되었다. 또한 UAV 영상을 통해 구축한 수치표면모델을 이용하여 침식 및 퇴적 변화 모니터링을 실시한 결과 2018년 6월과 2018년 12월 사이에는 평균 0.01m의 퇴적이 발생하였으며, 2018년 12월과 2019년 6월 사이에는 0.03m의 침식이 발생된 것으로 분석되었다. 따라서 2018년 6월과 2019년 6월 사이에는 전체적으로 0.02m의 침식이 발생된 것을 알 수 있었다. 그리고 시계열로 분석한 지형변화 모니터링 결과로부터 침식 및 퇴적 높이 구간별 면적을 분석한 결과 ±0.5m 구간에서 침식과 퇴적면적이 가장 넓게 분포함을 알 수 있었다. 본 연구에서 제시한 시계열적 UAV 영상을 이용한 3차원 지형 모델링 성과를 활용하여 해안지역의 지형변화를 지속적으로 모니터링 한다면 양빈이나 준설 등과 같은 연안관리 업무를 보다 효과적으로 지원할 수 있을 것이다.

무인항공기 매핑을 통한 차선 추출 및 정확도 평가 (Lane Extraction through UAV Mapping and Its Accuracy Assessment)

  • 박찬혁;최경아;이임평
    • 한국측량학회지
    • /
    • 제34권1호
    • /
    • pp.11-19
    • /
    • 2016
  • 최근 세계적인 기업들은 자율주행 자동차 상용화를 위해 최첨단 IT 기술을 융합한 자동차 기술을 발전시키고 있다. 이러한 자율주행 자동차는 차량을 안전하게 제어하여 신뢰도를 제고할 수 있도록 정확한 도로 경계 및 차선 정보를 요구하고 있다. 이에 본 연구는 저고도에서 취득된 고해상도 영상을 이용하는 UAV 사진측량의 적용 가능성을 검토하고자 한다. 취득된 GSD 7cm급의 디지털 영상으로부터 고해상도의 DSM과 정사영상을 생성하고, 생성된 자료를 기반으로 차선이 포함된 도로의 위치 정보를 추출하였다. 추출 자료의 정확도 검증 결과, RMSE는 약 15cm 이내임을 확인할 수 있었다. 본 연구 결과로 도로 영역에 대한 정밀 지도 제작과 갱신을 위해 UAV 사진측량이 효과적으로 적용될 것으로 판단된다.

딥러닝 기반의 식생 모니터링 가능성 평가 (Evaluation of the Feasibility of Deep Learning for Vegetation Monitoring)

  • 김동우;손승우
    • 한국환경복원기술학회지
    • /
    • 제26권6호
    • /
    • pp.85-96
    • /
    • 2023
  • This study proposes a method for forest vegetation monitoring using high-resolution aerial imagery captured by unmanned aerial vehicles(UAV) and deep learning technology. The research site was selected in the forested area of Mountain Dogo, Asan City, Chungcheongnam-do, and the target species for monitoring included Pinus densiflora, Quercus mongolica, and Quercus acutissima. To classify vegetation species at the pixel level in UAV imagery based on characteristics such as leaf shape, size, and color, the study employed the semantic segmentation method using the prominent U-net deep learning model. The research results indicated that it was possible to visually distinguish Pinus densiflora Siebold & Zucc, Quercus mongolica Fisch. ex Ledeb, and Quercus acutissima Carruth in 135 aerial images captured by UAV. Out of these, 104 images were used as training data for the deep learning model, while 31 images were used for inference. The optimization of the deep learning model resulted in an overall average pixel accuracy of 92.60, with mIoU at 0.80 and FIoU at 0.82, demonstrating the successful construction of a reliable deep learning model. This study is significant as a pilot case for the application of UAV and deep learning to monitor and manage representative species among climate-vulnerable vegetation, including Pinus densiflora, Quercus mongolica, and Quercus acutissima. It is expected that in the future, UAV and deep learning models can be applied to a variety of vegetation species to better address forest management.

UAV 영상정합을 통한 구조물 형상변화 측정 정확도 연구 (Measurement Accuracy for 3D Structure Shape Change using UAV Images Matching)

  • 김민철;윤혁진;장휘정;유종수
    • 대한공간정보학회지
    • /
    • 제25권1호
    • /
    • pp.47-54
    • /
    • 2017
  • 최근 unmanned aerial vehicle(UAV)를 이용하여 영상을 취득하고 지도제작 및 3차원 형상을 구축하는 연구들이 활발히 이루어지고 있다. 본 연구에서는 영상정합(image matching) 기술을 이용하여 3차원 형상을 재현하고, 형상 변화가 있을 경우 이를 탐지하여 면적 및 부피를 계산하는 방법론을 제시하는 실험으로 측정 정확도를 평가하였다. 이를 위해 모의 구조물을 구축하여 형상변화 전 후의 UAV 영상을 취득하고, 영상정합 결과물인 포인트 데이터의 비교를 위해 변화 전 데이터는 격자 형태로 변환하여 높이 값을 비교하였다. 실험 결과, 제안된 방법은 가로 세로 30cm 이상의 형상변화는 매우 높은 정확도로 면적 및 부피를 계산하였으나, 그 이하의 형상변화는 아직 영상정합기술의 한계에 기인하여 적용이 어려운 것으로 검증되었다. 하지만 제안한 방법론은 불법건축물 판별, 구조물의 일정규모 이상 피해의 정량적 분석 및 관리 등에 충분히 활용 가능할 것으로 생각된다.

안드로이드 기반 무인항공 사진측량 시스템 개발 (Development of Android-Based Photogrammetric Unmanned Aerial Vehicle System)

  • 박진우;신동윤;최철웅;정호현
    • 대한원격탐사학회지
    • /
    • 제31권3호
    • /
    • pp.215-226
    • /
    • 2015
  • 일반적으로 UAV를 이용한 항공촬영은 약 430 MHz 대역폭의 radio frequency (RF) 모뎀을 이용하여 UAV와 지상관제시스템간의 연결을 통해 UAV의 통제 및 원격 조종을 한다. 기존의 방법을 이용한 경우 1~2 km 정도의 통신 범위를 가지고 있으며 잦은 혼선이 일어나고, 무선통신은 전파를 매개로 정보를 전달하기 때문에 신호세기를 10 mW로 제한을 두고 있어 장거리 통신을 하는데 제약이 있었다. 본 연구에서는 스마트 카메라의 long-term evolution (LTE), 블루투스, WiFi와 같은 무선 데이터 통신 기술을 이용하여 데이터 송수신이 가능한 통신 모듈 시스템과 카메라를 이용하여 영상 획득이 필요한 지역에서 UAV에 영상을 획득하는 자동촬영 시스템을 설계하고 개발하는데 그 목적은 둔다. 본 연구에서 제안한 안드로이드 기반의 UAV 촬영 및 통신모듈시스템은 스마트 카메라 하나로 영상 획득뿐만 아니라 UAV 시스템과 지상관제 시스템을 연결해주며, UAV 시스템의 GPS와 자이로스코프, 가속도계, 자기 계측 센서 등의 센서로 부터 획득된 3차원 위치정보와 3차원 자세정보를 실시간으로 제공받을 수 있어서 항공삼각측량을 통한 UAV의 위치 및 보정 작업에 실시간으로 이용될 수 있을 것으로 판단된다.