• Title/Summary/Keyword: Cloud point extraction

검색결과 72건 처리시간 0.024초

MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구 (Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV)

  • 최윤조;;홍승환;손홍규
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.453-464
    • /
    • 2019
  • 최근 3차원 공간정보에 대한 수요가 증가함에 따라 신속하고 정확한 데이터 구축의 중요성이 증대되어 왔다. 정밀한 3차원 데이터 구축이 가능한 LiDAR (Light Detection and Ranging) 데이터를 기준으로 UAV (Unmanned Aerial Vehicle) 영상을 정합하기 위한 연구가 다수 수행되어 왔으나, MMS (Mobile Mapping System)로부터 취득된 LiDAR 점군데이터의 반사강도 영상을 활용한 연구는 미흡한 실정이다. 따라서 본 연구에서는 MMS로부터 취득된 LiDAR 점군데이터를 반사영상으로 변환한 데이터와 UAV 영상 데이터의 정합을 위해 9가지의 특징점 기반매칭 기법을 비교·분석하였다. 분석 결과 SIFT (Scale Invariant Feature Transform) 기법을 적용하였을 때 안정적으로 높은 매칭 정확도를 확보할 수 있었으며, 다양한 도로 환경에서도 충분한 정합점을 추출할 수 있었다. 정합 정확도 분석 결과 SIFT 알고리즘을 적용한 경우 중복도가 낮으며 동일한 패턴이 반복되는 경우를 제외하고는 약 10픽셀 수준으로 정확도를 확보할 수 있었으며, UAV 영상 촬영 당시 UAV 자세에 따른 왜곡이 포함되어 있음을 감안할 때 합리적인 결과라고 할 수 있다. 따라서 본 연구의 분석 결과는 향후 LiDAR 점군데이터와 UAV 영상의 3차원 정합을 위한 기초연구로 활용될 수 있을 것으로 기대된다.

영상 기반 3차원 점군과 FUSION S/W 기반의 임분고 분석 모듈 개발 (Development of Mean Stand Height Module Using Image-Based Point Cloud and FUSION S/W)

  • 김경민
    • 한국지리정보학회지
    • /
    • 제19권4호
    • /
    • pp.169-185
    • /
    • 2016
  • 최근 임상도의 신규 속성으로 임분의 평균 수고인 임분고를 추가하기 시작하였으나 전국 940만개의 포인트를 스테레오 항공사진에서 수동 측정해야 하는 어려움이 예상된다. 아울러, 항공사진에서 수고 측정 시 임연부나 묘지 주변의 수고를 측정하기 쉬워 임분 대표성이 떨어지는 한계를 가지고 있다. 본 연구에서는 고해상도 스테레오 항공사진에서 추출한 영상 기반 3차원 점군과 FUSION S/W를 활용한 임분고 추정 방법을 제안하고 임분고를 자동 분석할 수 있는 모듈을 개발하였다. 스테레오 항공사진에서 수치표면모델 3차원 점군을 추출한 후 지면점 필터링을 거쳐 수치지면모델을 추출하고 이 두 모델을 차분하여 정규수치표면모델을 제작하였다. 정규수치표면모델에서 표본점별 개체목 수관을 육안판독한 후 수관별 최고점을 추출하여 정규수치표면모델 수고를 산출하였다. 표본점에서의 실측 수고와 정규수치표면모델 수고의 RMSE를 분석한 결과 전체 표본점 평균 수고의 RMSE는 0.96m로 나타났다. 대상지 전체의 개체목 수고를 추출하기 위해 FUSION S/W를 이용하여 항공사진의 정규수치표면모델에서 개체목 수고를 자동 추출하고 이를 임상도의 임분 폴리곤 단위로 평균하여 최종 임분고를 산출하였다. 마지막으로 임분고를 보다 손쉽게 분석할 수 있는 환경을 구현하기 위해 임분고 분석 프로세스를 ArcGIS add-in 모듈 형태로 자동화하였다.

W-band Synthetic Aperture Radar 영상 복원을 위한 엔트로피 기반의 6 Degrees of Freedom 추출 (Entropy-Based 6 Degrees of Freedom Extraction for the W-band Synthetic Aperture Radar Image Reconstruction)

  • 이혁빈;김덕진;김준우;송주영
    • 대한원격탐사학회지
    • /
    • 제39권6_1호
    • /
    • pp.1245-1254
    • /
    • 2023
  • 77 GHz frequency modulation continuous wave radar를 이용한 W-band synthetic aperture radar (SAR) system에 대한 연구가 활발히 진행되고 있다. 고해상도의 W-band SAR 영상을 복원하기 위해서는 스테레오 카메라 또는 라이다(LiDAR)에서 획득한 point cloud를 6 degrees of freedom (DOF)의 방향에서 변환하여 SAR 영상 신호처리에 적용하는 것이 필요하다. 하지만 서로 다른 센서로부터 획득한 영상의 기하구조가 달라 정합하는데 어려움을 가진다. 본 연구에서 SAR 영상의 엔트로피(entropy)에 따른 경사 하강법을 이용하여 point cloud의 6 DOF를 구하고 최적의 depth map을 추출하는 기법을 제시한다. 구축한 W-band SAR system으로 주요 도로 환경 객체인 나무를 복원하는 실험을 수행하였다. 엔트로피에 따른 경사 하강법을 이용하여 복원한 SAR 영상이 기존의 레이더 좌표에서 복원한 SAR 영상보다 mean square error는 53.2828 감소했고, structural similarity index는 0.5529 증가한 것을 보였다.

LiDAR를 이용한 암반 불연속면 추출 기술의 개발 현황 (Technical Development for Extraction of Discontinuities in Rock Mass Using LiDAR)

  • 이현우;김병렬;최성웅
    • 터널과지하공간
    • /
    • 제31권1호
    • /
    • pp.10-24
    • /
    • 2021
  • 지하 구조물 구축 시 구조물의 안정성을 확보하기 위해서는 주변 암반에 대한 암반 분류가 필수적으로 수행해야 한다. 특히 암반 내에 존재하는 불연속면은 암반의 물리적, 역학적 특성에 지배적인 영향을 미치므로 암반 불연속면에 대한 정확한 정보의 획득을 통해 신뢰도 높은 암반분류값을 제시하는 것은 매우 중요한 요소이다. 이러한 암반 분류는 지금까지 대부분 수작업을 통해 수행되었다. 그러나 대규모 지질조사와 같은 대형 조사면적에 대한 정확도의 부재, 비숙련자에 의한 암반 등급 결정값의 신뢰도 결여 등에 대한 문제점들이 항시 제기되어 왔다. 따라서 최근에 와서는 넓은 범위에 대해서도 신속하고 정확한 암반 분류를 위해 LiDAR를 이용한 암반 분류의 자동화에 대한 연구가 국내·외적으로 널리 이루어지고 있는 추세이다. 그러나 LiDAR 촬영으로 획득되는 point cloud로부터 불연속면의 정보를 분석하는 알고리즘의 특성에 따라 상이한 결과가 도출될 수 있으며, 숙련자에 의한 수작업의 결과를 완벽하게 대체하기에는 미흡한 경우가 종종 발생하고 있다. 따라서 본 연구에서는 LiDAR 촬영으로 획득한 point cloud로부터 불연속면을 추출하는 다양한 알고리즘을 설명하였으며, 이들 알고리즘을 이용하여 실제 암반 사면을 대상으로 불연속면을 추출하는 과정을 분석하였다. 본 연구에서 제시하는 다양한 알고리즘의 적용 과정은 향후 LiDAR 등을 통하여 획득한 디지털 데이터로부터 암반 불연속면을 추출하는 연구에서 참고자료로 활용될 것을 기대한다.

OBPCA 기반의 수직단면 이용 차량 추출 기법 (Vehicle Detection Method Based on Object-Based Point Cloud Analysis Using Vertical Elevation Data)

  • 전준범;이희진;오상윤;이민수
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권8호
    • /
    • pp.369-376
    • /
    • 2016
  • 점 클라우드로부터 차량을 추출하는 다양한 방식 중 OBPCA 방식은 세그먼트 단위의 평가-분류로 정확도가 높고, 단순한 직사각형 평면도에서 특성 값들을 추출하므로 분류가 빠르다. 그러나 이 OBPCA 방식은 차량과 크기가 비슷한 직육면체 모양의 물체를 차량과 구별하지 못하는 문제를 가지므로 이를 극복하고 차량 추출의 정확도를 높이는 방안에 대한 연구가 필요하다. 본 논문에서는 이 문제를 해결하기 위해 수평 단면과 함께 수직 단면을 이용하는 확장 OBPCA 방식을 제안한다. 제안 방법은 수평 단면을 통해 차량 후보를 1차로 선별하고, 각 차량 후보에서 가장 특징적인 수직 단면을 찾아서 그 단면의 특성 값들을 임계값들과 비교하여 차량 여부를 판단한다. 비교실험에서는 본 제안방식이 기존 OBPCA 방식에 비해 정밀도가 6.61% 향상되고 위양성률이 13.96% 감소됨을 확인했으며, 이를 통해 제안 방식이 기존 OBPCA 분류오류 문제에 대해 효과적인 해결방안임을 보였다.

자율주행을 위한 Self-Attention 기반 비지도 단안 카메라 영상 깊이 추정 (Unsupervised Monocular Depth Estimation Using Self-Attention for Autonomous Driving)

  • 황승준;박성준;백중환
    • 한국항행학회논문지
    • /
    • 제27권2호
    • /
    • pp.182-189
    • /
    • 2023
  • 깊이 추정은 차량, 로봇, 드론의 자율주행을 위한 3차원 지도 생성의 핵심 기술이다. 기존의 센서 기반 깊이 추정 방식은 정확도는 높지만 가격이 비싸고 해상도가 낮다. 반면 카메라 기반 깊이 추정 방식은 해상도가 높고 가격이 저렴하지만 정확도가 낮다. 본 연구에서는 무인항공기 카메라의 깊이 추정 성능 향상을 위해 Self-Attention 기반의 비지도 단안 카메라 영상 깊이 추정을 제안한다. 네트워크에 Self-Attention 연산을 적용하여 전역 특징 추출 성능을 향상시킨다. 또한 카메라 파라미터를 학습하는 네트워크를 추가하여 카메라 칼리브레이션이 안되어있는 이미지 데이터에서도 사용 가능하게 한다. 공간 데이터 생성을 위해 추정된 깊이와 카메라 포즈는 카메라 파라미터를 이용하여 포인트 클라우드로 변환되고, 포인트 클라우드는 Octree 구조의 점유 그리드를 사용하여 3D 맵으로 매핑된다. 제안된 네트워크는 합성 이미지와 Mid-Air 데이터 세트의 깊이 시퀀스를 사용하여 평가된다. 제안하는 네트워크는 이전 연구에 비해 7.69% 더 낮은 오류 값을 보여주었다.

GPU 가속화를 통한 이미지 특징점 기반 RGB-D 3차원 SLAM (Image Feature-Based Real-Time RGB-D 3D SLAM with GPU Acceleration)

  • 이동화;김형진;명현
    • 제어로봇시스템학회논문지
    • /
    • 제19권5호
    • /
    • pp.457-461
    • /
    • 2013
  • This paper proposes an image feature-based real-time RGB-D (Red-Green-Blue Depth) 3D SLAM (Simultaneous Localization and Mapping) system. RGB-D data from Kinect style sensors contain a 2D image and per-pixel depth information. 6-DOF (Degree-of-Freedom) visual odometry is obtained through the 3D-RANSAC (RANdom SAmple Consensus) algorithm with 2D image features and depth data. For speed up extraction of features, parallel computation is performed with GPU acceleration. After a feature manager detects a loop closure, a graph-based SLAM algorithm optimizes trajectory of the sensor and builds a 3D point cloud based map.

3 차원 복원을 위한 비디오에서 고품질 프레임 추출 (The extraction of high-quality frame from video for 3D reconstruction)

  • 최종호;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2017년도 하계학술대회
    • /
    • pp.9-11
    • /
    • 2017
  • 비디오 시퀀스에서 3D 모델을 복원하기 위해서는 기하 모델 추정이 용이한 프레임을 선택해야 한다. 본 논문에서는 안정 장치 도움을 받는 전문 비디오가 아닌 일반 비디오에서 고품질의 프레임을 손쉽게 자동 추출하는 방법을 제안한다. 제안하는 기법은 optical flow 기반 매칭 분석, 프레임 간 적당한 기준선 거리 판단, 비디오 내에서 빠른 탐색을 위한 고속 도약, 두 프레임 간의 호모그래피와 기본 행렬에 대한 GRIC 점수, 모션 블러 프레임 제거 방법 모두를 결합한다. 실내 공간에 촬영된 비디오를 이용한 실험을 통해, 우리의 방법이 모션 블러와 저하 움직임이 있는 상황에서 더 강건하게 3D point cloud 를 생성하는 것을 보여준다.

  • PDF

3차원 재구성을 위한 키 프레임 추출 (Extraction of Key Frames for 3D Reconstruction)

  • 최종호;유지상
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.5-8
    • /
    • 2016
  • 키 프레임 추출 기법은 2차원 비오 영상을 3차원으로 재구성하기 위해 꼭 필요한 프레임을 선택하는 방법이다. 본 논문에서는 비디오에서 빠르게 프레임을 검사하며 최적의 키 프레임을 선택하는 기법을 제안한다. 제안하는 기법은 3차원 재구성을 위한 전처리 과정에 초점을 둔 것으로 프레임 간 대응점 비율 검사를 통해 프레임의 도약 강도를 결정하고 기하 모델 추정이 원활한 프레임을 선택한다. 이로부터 3차원 복원 후처리 과정을 통해 최종적인 3차원 점군(point cloud) 데이터를 획득한다. 실험을 통해 다른 기법과 성능을 비교했을 때, 제안하는 기법이 복원 소요 시간도 적게 들고 보다 밀집된 3차원 데이터를 얻을 수 있었다.

  • PDF

Fast key-frame extraction for 3D reconstruction from a handheld video

  • Choi, Jongho;Kwon, Soonchul;Son, Kwangchul;Yoo, Jisang
    • International journal of advanced smart convergence
    • /
    • 제5권4호
    • /
    • pp.1-9
    • /
    • 2016
  • In order to reconstruct a 3D model in video sequences, to select key frames that are easy to estimate a geometric model is essential. This paper proposes a method to easily extract informative frames from a handheld video. The method combines selection criteria based on appropriate-baseline determination between frames, frame jumping for fast searching in the video, geometric robust information criterion (GRIC) scores for the frame-to-frame homography and fundamental matrix, and blurry-frame removal. Through experiments with videos taken in indoor space, the proposed method shows creating a more robust 3D point cloud than existing methods, even in the presence of motion blur and degenerate motions.