• Title/Summary/Keyword: UAV image

검색결과 319건 처리시간 0.031초

무인항공영상 기반 3D 모델의 세밀도와 위치정확도 평가 (Assessment of LODs and Positional Accuracy for 3D Model based on UAV Images)

  • 이재원;김두표;성상민
    • 한국산학기술학회논문지
    • /
    • 제21권10호
    • /
    • pp.197-205
    • /
    • 2020
  • 무인항공사진측량은 기존의 유인항공사진측량에 비하여 고해상도의 영상을 신속하게 취득하여 활용할 수 있다는 장점이 있다. 특히, 무인항공사진측량을 이용한 3차원 공간정보의 활용성이 커지는 시점에서 무인항공사진측량을 이용한 3차원 모델 제작은 상당히 중요한 문제이다. 이에 본 연구에서는 무인항공사진측량을 이용하여 3차원 모델을 제작하고 정성적 및 정량적 분석을 통하여 활용 가능성을 판단하고자 하였다. 정성적 분석은 3차원 국토공간정보 구축 작업규정에 명시된 세밀도를 이용하여 분석하였다. 그 결과 평면상에 존재하는 지형·지물의 경우 높은 세밀도 Level을 보였지만, 고저차가 있는 지형·지물의 경우 폐색지역 및 시차로 인하여 낮은 세밀도 Level을 나타냈다. 정량적 분석은 검사점과 주변 구조물에서 취득한 3차원 좌표를 이용하여 분석하였다. 그 결과 검사점의 경우 평균오차가 평면에서 0.042~0.059 m, 표고에서 0.050~0.161 m로 나타났으며 구조물의 모서리를 이용한 정확도 분석 결과는 평균오차가 평면에서 0.068 m, 표고에서 0.071 m로 나타났다. 따라서, 무인항공사진측량에 의한 3차원 모델은 디지털 트윈, 사면 경사도 분석 및 BIM분야에도 활용 가능성이 있다고 판단된다.

원격탐사 기반 맥류 작황 추정을 위한 최적 식생지수 선정 - UAV와 현장 측정자료를 활용하여 - (Selection of Optimal Vegetation Indices for Estimation of Barley & Wheat Growth based on Remote Sensing - An Application of Unmanned Aerial Vehicle and Field Investigation Data -)

  • 나상일;박찬원;정영근;강천식;최인배;이경도
    • 대한원격탐사학회지
    • /
    • 제32권5호
    • /
    • pp.483-497
    • /
    • 2016
  • 무인항공기 영상은 작물의 생육단계에 따라 고해상도로 신속한 수집이 가능하기 때문에 정밀농업 관리를 위한 공간 변이 분석에 활용되고 있다. 본 연구의 목적은 무인항공기를 이용한 최적 식생지수를 선정하여 맥류 작황 추정식을 유도하는 것이다. 무인항공기 영상은 맥류 생육 기간인 2월 하순부터 6월 하순까지 6회에 걸쳐 촬영하였으며, 같은 기간 동안 5개 품종(큰알보리, 흰찰쌀보리, 새찰쌀보리, 금강밀, 조품밀)을 대상으로 휴대용 분광복사계를 이용하여 현장분광반사율을 측정하고 초장, 지상부건물중, 단위면적당 경수 등 생육인자를 조사하였다. 그 결과, 6개의 식생지수 중 RVI, NDVI, NGRDI 및 GLI가 생육인자와 높은 상관관계를 나타내었다. 또한 현장 생육조사 자료를 사용하여 식생지수와 생육인자의 비교를 시도하였다.

Use of Unmanned Aerial Vehicle for Multi-temporal Monitoring of Soybean Vegetation Fraction

  • Yun, Hee Sup;Park, Soo Hyun;Kim, Hak-Jin;Lee, Wonsuk Daniel;Lee, Kyung Do;Hong, Suk Young;Jung, Gun Ho
    • Journal of Biosystems Engineering
    • /
    • 제41권2호
    • /
    • pp.126-137
    • /
    • 2016
  • Purpose: The overall objective of this study was to evaluate the vegetation fraction of soybeans, grown under different cropping conditions using an unmanned aerial vehicle (UAV) equipped with a red, green, and blue (RGB) camera. Methods: Test plots were prepared based on different cropping treatments, i.e., soybean single-cropping, with and without herbicide application and soybean and barley-cover cropping, with and without herbicide application. The UAV flights were manually controlled using a remote flight controller on the ground, with 2.4 GHz radio frequency communication. For image pre-processing, the acquired images were pre-treated and georeferenced using a fisheye distortion removal function, and ground control points were collected using Google Maps. Tarpaulin panels of different colors were used to calibrate the multi-temporal images by converting the RGB digital number values into the RGB reflectance spectrum, utilizing a linear regression method. Excess Green (ExG) vegetation indices for each of the test plots were compared with the M-statistic method in order to quantitatively evaluate the greenness of soybean fields under different cropping systems. Results: The reflectance calibration methods used in the study showed high coefficients of determination, ranging from 0.8 to 0.9, indicating the feasibility of a linear regression fitting method for monitoring multi-temporal RGB images of soybean fields. As expected, the ExG vegetation indices changed according to different soybean growth stages, showing clear differences among the test plots with different cropping treatments in the early season of < 60 days after sowing (DAS). With the M-statistic method, the test plots under different treatments could be discriminated in the early seasons of <41 DAS, showing a value of M > 1. Conclusion: Therefore, multi-temporal images obtained with an UAV and a RGB camera could be applied for quantifying overall vegetation fractions and crop growth status, and this information could contribute to determine proper treatments for the vegetation fraction.

확산 스펙트럼 생성기를 이용한 적외선 카메라의 방사노이즈 저감에 관한 연구 (Reduction of Radiated Emission of an Infrared Camera Using a Spread Spectrum Clock Generator)

  • 최봉준;이용춘;윤주현;김은준
    • 한국전자파학회논문지
    • /
    • 제27권12호
    • /
    • pp.1097-1104
    • /
    • 2016
  • 적외선 카메라는 Mil-Std-461 항목 중 복사성 방사 잡음 시험, RE-102의 규격 만족에 어려움을 겪는다. 특히 무인항공기용 전자장비의 경우 차폐 케이블을 사용하지 않아 전자기적합성 규격 만족이 어려워 적절한 대응 설계가 필요하다. 무인정찰기용 적외선 카메라의 RE-102 시험 중 50~200 MHz 대역에서 30 dBuV/m 이상 규격을 초과하는 방사 잡음을 확인하였다. Pcb em scan 결과, 디지털 제어 신호 클록의 체배 주파수에 의한 첨두 잡음 발생을 확인하였고, 카메라의 제어 클록에 3 % 다운 스프레딩 방식의 확산 스펙트럼 클록 생성기를 적용하여 방사 잡음이 최대 22.9 dBuV/m 감소함을 확인하였다.

무인기 탑재 다중 센서 기반 국지 산불 감시 및 상황 대응 플랫폼 설계 및 구현 (Design and Implementation of Local Forest Fire Monitoring and Situational Response Platform Using UAV with Multi-Sensor)

  • 신원재;이용태
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권6호
    • /
    • pp.626-632
    • /
    • 2017
  • 최근의 해마다 발생하는 자연재해를 살펴보면 사망, 실종과 같은 심각한 인명 피해와 더불어 수억 원에 달하는 재산피해가 동반된다. 이를 극복하기 위해 사회적, 경제적 손실을 최소화할 수 있는 ICT 기반의 자연재난 감시 및 대응 기술 개발에 대한 관심도가 높아지고 있다. 제안하는 플랫폼은 무인기에 탑재된 다중 센서 데이터의 실시간 처리 분석을 통해 국지적 산불 재난의 감지 및 상황대응을 지원하고, 통합경보 시스템과 연동하여 대국민 재난 정보 전달 서비스를 제공하는 서비스이다. 본 논문에서는 재난 영상의 획득, 분석, 대응을 수행하는 재난 감시 및 대응 플랫폼의 세부 기능들에 대해서 소개하고, 재난 인지에 핵심요소 기술인 Deep Learning 기반의 산불 영상 분석 기술을 제안한다. 제안하는 Deep Learning 기반 재난 영상 분석은 과거로부터 반복적으로 발생하는 재난이 촬영된 영상 정보를 사전에 미리 학습함으로써, 새롭게 획득한 재난 영상에 대한 재난 발생 여부를 판단한다. 제안하는 산불 영상 분석 알고리즘에 대한 실험 결과를 확인하여 제안하는 기법의 성능을 검증한다.

무인항공기를 이용한 딥러닝 기반의 소나무재선충병 감염목 탐지 (Pine Wilt Disease Detection Based on Deep Learning Using an Unmanned Aerial Vehicle)

  • 임언택;도명식
    • 대한토목학회논문집
    • /
    • 제41권3호
    • /
    • pp.317-325
    • /
    • 2021
  • 1988년 부산에서 처음 발병된 소나무재선충병(Pine Wilt Disease, PWD)은 우리나라 소나무에 막대한 피해를 주고 있는 심각한 질병이다. 정부에서는 2005년 소나무재선충병 방제특별법을 제정하고 피해지역의 소나무 이동 금지와 방제를 시행하고 있다. 하지만, 기존의 예찰 및 방제방법은 산악지형에서 동시다발적이고 급진적으로 발생하는 소나무재선충병을 줄이기에는 물리적, 경제적 어려움이 있다. 따라서 본 연구에서는 소나무재선충병 감염의심목을 효율적으로 탐지하기 위해 무인항공기를 이용한 영상자료를 바탕으로 딥러닝 객체인식 예찰 방법의 활용가능성을 제시하고자 한다. 소나무재선충병 피해목을 관측하기 위해서 항공촬영을 통해 영상 데이터를 획득하고 정사영상을 제작하였다. 그 결과 198개의 피해목이 확인되었으며, 이를 검증하기 위해서 접근이 불가한 급경사지나 절벽과 같은 곳을 제외하고 현장 조사를 진행하여 84개의 피해목을 확인할 수 있었다. 검증된 데이터를 가지고 분할방법인 SegNet과 검출방법인 YOLOv2를 이용하여 분석한 결과 성능은 각각 0.57, 0.77로 나타났다.

특징 융합을 이용한 농작물 다중 분광 이미지의 의미론적 분할 (Semantic Segmentation of Agricultural Crop Multispectral Image Using Feature Fusion)

  • 문준렬;박성준;백중환
    • 한국항행학회논문지
    • /
    • 제28권2호
    • /
    • pp.238-245
    • /
    • 2024
  • 본 논문에서는 농작물 다중 분광 이미지에 대해 특징 융합 기법을 이용하여 의미론적 분할 성능을 향상시키기 위한 프레임워크를 제안한다. 스마트팜 분야에서 연구 중인 딥러닝 기술 중 의미론적 분할 모델 대부분은 RGB(red-green-blue)로 학습을 진행하고 있고 성능을 높이기 위해 모델의 깊이와 복잡성을 증가시키는 데에 집중하고 있다. 본 연구는 기존 방식과 달리 다중 분광과 어텐션 메커니즘을 통해 모델을 최적화하여 설계한다. 제안하는 방식은 RGB 단일 이미지와 함께 UAV (unmanned aerial vehicle)에서 수집된 여러 채널의 특징을 융합하여 특징 추출 성능을 높이고 상호보완적인 특징을 인식하여 학습 효과를 증대시킨다. 특징 융합에 집중할 수 있도록 모델 구조를 개선하고, 작물 이미지에 유리한 채널 및 조합을 실험하여 다른 모델과의 성능을 비교한다. 실험 결과 RGB와 NDVI (normalized difference vegetation index)가 융합된 모델이 다른 채널과의 조합보다 성능이 우수함을 보였다.

유적탐색을 위한 드론과 항공사진의 활용방안 연구 (A study on the utilization of drones and aerial photographs for searching ruins with a focus on topographic analysis)

  • 허의행;이왈영
    • 헤리티지:역사와 과학
    • /
    • 제51권2호
    • /
    • pp.22-37
    • /
    • 2018
  • 현재 국내 및 국외를 아울러 무인항공기(Unmanned Aerial Vehicle, UAV)의 관심이 상당히 높아졌다. UAV에는 영상을 촬영하는 카메라가 탑재되어 있어 고고학 조사가 불가능한 지역의 접근에 유리하다. 더구나 항공사진 촬영을 통해 지형을 모델링하여 3차원 공간영상정보를 취득할 수 있어, 조사 대상지역의 지형에 대한 해석을 구체화할 수 있다. 이와 함께 과거 항공사진과의 비교 검토를 통해 지형의 변화모습을 파악한다면 유적의 존재 여부의 파악에도 많은 도움이 될 것이다. 이러한 유적 탐색을 위한 지형모델링은 크게 두 부분으로 나누어 접근할 수 있다. 우선 드론을 이용한 현재 지형의 항공사진을 취득한 후 이를 영상정합하고 후처리 과정을 진행하여 완성하는 방법과 과거 항공사진을 이용한 영상접합과 지형모델링을 완성하는 방법 등이다. 이 과정을 거쳐 완성한 모델링 지형은 여러 분석결과를 도출할 수 있는데, 현재의 지형모델링에서는 DSM과 DTM, 고도분석 등의 지형분석을 실시하여 형질변경 및 미지형의 모습을 대략적으로 파악할 수 있고, 과거 항공사진의 지형모델링에서는 원지형과 저습지 내 매몰미지형의 모습 등을 파악할 수 있다. 이를 실제 조사된 내용과 비교하고 각각의 지형모델링 자료를 중첩하여 살펴보게 되면 구릉지형에서는 형질변경의 모습을, 저습지형에서는 매몰된 미지형의 모습을 볼 수 있어 유적의 존부를 파악하는데 매우 유용하게 사용될 수 있다. 이처럼 항공사진을 이용한 모델링 자료는 고고학현장에서 조사가 불가한 사유지나 광범위한 지역의 지형에 유적의 존재여부를 파악하는데 유용하며, 추후 유적의 보존처리와 관련한 논의에도 적극 이용될 수 있다. 나아가 과거와 현재의 지형자료의 비교를 통해 지적도나 토지활용도 등의 주제도로 제공이 가능하는 등, 다양한 방식으로의 활용 가능성을 생각할 수 있다. 그러나 무엇보다도 고고학 자료의 존재유무 파악을 위한 유적 탐색의 새로운 조사방법론으로 기능할 수 있다.

딥러닝 기반 옥수수 포장의 잡초 면적 평가 (Deep Learning Approaches for Accurate Weed Area Assessment in Maize Fields)

  • 박혁진;권동원;상완규;반호영;장성율;백재경;이윤호;임우진;서명철;조정일
    • 한국농림기상학회지
    • /
    • 제25권1호
    • /
    • pp.17-27
    • /
    • 2023
  • 포장에서 잡초의 발생은 농작물의 생산량을 크게 떨어트리는 원인 중 하나이고 SSWM을 기반으로 잡초를 변량 방제하기 위해서 잡초의 발생 위치, 밀도 그리고 이를 정량화하는 것은 필수적이다. 본 연구에서는 2020년의 국립식량과학원에서 잡초 피해를 입은 옥수수 포장의 영상데이터를 무인항공기를 활용해서 수집하였고 이를 배경과 옥수수로 분리하여 딥러닝 기반 영상 분할 모델 제작을 위한 학습데이터를 획득하였다. DeepLabV3+, U-Net, Linknet, FPN의 4가지의 영상 분할 네트워크들의 옥수수의 검출 정확도를 평가하기 위해 픽셀정확도, mIOU, 정밀도, 재현성의 지표를 활용해서 정확도를 검증하였다. 검증 결과 DeepLabV3+ 모델이 0.76으로 가장 높은 mIOU를 나타냈고, 해당 모델과 식물체의 녹색 영역과 배경을 분리하는 지수인 ExGR을 활용해서 잡초의 면적을 정량화, 시각화하였다. 이러한 연구의 결과는 무인항공기로 촬영된 영상을 활용해서 넓은 면적의 옥수수 포장에서 빠르게 잡초의 위치와 밀도를 특정하고 정량화하는 것으로 잡초의 밀도에 따른 제초제의 변량 방제를 위한 의사결정에 도움이 될 것으로 기대한다.

실시간 고정밀 영상 지오레퍼런싱을 위한 고속 연속 번들 조정 알고리즘 (Fast Sequential Bundle Adjustment Algorithm for Real-time High-Precision Image Georeferencing)

  • 최경아;이임평
    • 대한원격탐사학회지
    • /
    • 제29권2호
    • /
    • pp.183-195
    • /
    • 2013
  • 영상 기반의 정밀한 내비게이션이나 증강현실을 구현하기 위해서 고정밀 영상 지오레퍼런싱의 실시간 수행이 필수적이다. 일반적으로 고정밀 영상 지오레퍼런싱은 일괄 번들 조정 알고리즘을 적용하여 성취될 수 있으나 처리시간으로 인해 후처리로만 가능하였다. 최근에 제안된 연속 번들 조정 알고리즘은 이와 유사한 정확도의 결과를 고속으로 산출하여 실시간 처리의 가능성을 열었다. 그러나 처리시간이 영상의 개수에 따라 점진적으로 증가하기 때문에 영상이 아주 많은 경우에 실시간 수행이 보장되지 못하는 한계가 있었다. 이러한 연속 번들 조정 알고리즘을 보완하여 본 연구는 실시간 처리를 위해 영상의 개수와 무관하게 처리시간을 항상 일정 범위로 한정시킬 수 있는 알고리즘을 제안한다. 제안된 알고리즘은 기존의 영상들 중에서 새롭게 취득된 영상과 통계적으로 관련성이 높은 영상들만 고려하기 때문에 처리시간을 일정 범위로 한정시키면서도 비교적 정확한 결과를 산출할 수 있다. 제안된 알고리즘을 1Hz로 취득된 영상에 적용한 결과, 평균적으로 영상을 취득할 때마다 0.02 초 이내의 처리시간을 소요하면서 기존의 일괄 번들 조정 알고리즘의 결과와 비교하여 지상점 좌표를 기준으로 ${\pm}5$ cm 이내의 정확도로 지오레퍼런싱을 수행할 수 있었다. 신뢰성 높은 고속의 영상 매칭 알고리즘과 결합된다면 스마트폰 또는 UAV 등으로 동영상을 취득하면서 함께 탑재된 위치/자세 센서의 성능을 보완하여 고정밀의 실시간 지오레퍼런싱이 가능할 것으로 판단된다.