• 제목/요약/키워드: monocular camera

검색결과 111건 처리시간 0.023초

One Idea on a Three Dimensional Measuring System Using Light Intensity Modulation

  • Fujimoto Ikumatsu;Cho In-Ho;Pak Jeong-Hyeon;Pyoun Young-Sik
    • International Journal of Control, Automation, and Systems
    • /
    • 제3권1호
    • /
    • pp.130-136
    • /
    • 2005
  • A new optical digitizing system for determining the position of a cursor in three dimensions(3D) and an experimental device for its measurement are presented. A semi-passive system using light intensity modulation, a technology that is well known in radar ranging, is employed in order to overcome precision limitations imposed by background light. This system consists of a charge-coupled device camera placed before a rotating mirror and a light-emitting diode whose intensity is modulated. Using a Fresnel pattern for light modulation, it is verified that a substantial improvement of the signal to noise ratio is realized for the background noise and that a resolution of less than a single pixel can be achieved. This opens the doorway to the realization of high precision 3D digitized measurement. We further propose that a 3D position measurement with a monocular optical system can be realized by a numerical experiment if a linear-period modulated waveform is adopted as the light-modulating one.

목표물의 거리 및 특징점 불확실성 추정을 통한 매니퓰레이터의 영상기반 비주얼 서보잉 (Image-based Visual Servoing Through Range and Feature Point Uncertainty Estimation of a Target for a Manipulator)

  • 이상협;정성찬;홍영대;좌동경
    • 제어로봇시스템학회논문지
    • /
    • 제22권6호
    • /
    • pp.403-410
    • /
    • 2016
  • This paper proposes a robust image-based visual servoing scheme using a nonlinear observer for a monocular eye-in-hand manipulator. The proposed control method is divided into a range estimation phase and a target-tracking phase. In the range estimation phase, the range from the camera to the target is estimated under the non-moving target condition to solve the uncertainty of an interaction matrix. Then, in the target-tracking phase, the feature point uncertainty caused by the unknown motion of the target is estimated and feature point errors converge sufficiently near to zero through compensation for the feature point uncertainty.

센서 융합 시스템을 이용한 심층 컨벌루션 신경망 기반 6자유도 위치 재인식 (A Deep Convolutional Neural Network Based 6-DOF Relocalization with Sensor Fusion System)

  • 조형기;조해민;이성원;김은태
    • 로봇학회논문지
    • /
    • 제14권2호
    • /
    • pp.87-93
    • /
    • 2019
  • This paper presents a 6-DOF relocalization using a 3D laser scanner and a monocular camera. A relocalization problem in robotics is to estimate pose of sensor when a robot revisits the area. A deep convolutional neural network (CNN) is designed to regress 6-DOF sensor pose and trained using both RGB image and 3D point cloud information in end-to-end manner. We generate the new input that consists of RGB and range information. After training step, the relocalization system results in the pose of the sensor corresponding to each input when a new input is received. However, most of cases, mobile robot navigation system has successive sensor measurements. In order to improve the localization performance, the output of CNN is used for measurements of the particle filter that smooth the trajectory. We evaluate our relocalization method on real world datasets using a mobile robot platform.

Sidewalk Gaseous Pollutants Estimation Through UAV Video-based Model

  • Omar, Wael;Lee, Impyeong
    • 대한원격탐사학회지
    • /
    • 제38권1호
    • /
    • pp.1-20
    • /
    • 2022
  • As unmanned aerial vehicle (UAV) technology grew in popularity over the years, it was introduced for air quality monitoring. This can easily be used to estimate the sidewalk emission concentration by calculating road traffic emission factors of different vehicle types. These calculations require a simulation of the spread of pollutants from one or more sources given for estimation. For this purpose, a Gaussian plume dispersion model was developed based on the US EPA Motor Vehicle Emissions Simulator (MOVES), which provides an accurate estimate of fuel consumption and pollutant emissions from vehicles under a wide range of user-defined conditions. This paper describes a methodology for estimating emission concentration on the sidewalk emitted by different types of vehicles. This line source considers vehicle parameters, wind speed and direction, and pollutant concentration using a UAV equipped with a monocular camera. All were sampled over an hourly interval. In this article, the YOLOv5 deep learning model is developed, vehicle tracking is used through Deep SORT (Simple Online and Realtime Tracking), vehicle localization using a homography transformation matrix to locate each vehicle and calculate the parameters of speed and acceleration, and ultimately a Gaussian plume dispersion model was developed to estimate the CO, NOx concentrations at a sidewalk point. The results demonstrate that these estimated pollutants values are good to give a fast and reasonable indication for any near road receptor point using a cheap UAV without installing air monitoring stations along the road.

동일 평면상의 자연 특징점 검출 및 추적을 이용한 증강현실 시스템 (Augmented Reality System using Planar Natural Feature Detection and Its Tracking)

  • 이아현;이재영;이석한;최종수
    • 대한전자공학회논문지SP
    • /
    • 제48권4호
    • /
    • pp.49-58
    • /
    • 2011
  • 일반적으로 사용되는 마커 기반의 증강현실 시스템은 카메라 입력영상 내에 마커가 항상 존재해야 한다는 제한 때문에 사용자의 접근에 불편을 준다. 때문에 최근 배경 영상에서 취득할 수 있는 객체를 자연 마커로 생성한 시스템이나 배경 영상의 특징을 이용해 기하학적 지도를 작성하여 가상의 객체 정합에 이용한 증강현실 시스템들이 관심을 끌고 있다. 본 논문에서는 카메라 입력 영상에서 동일 평면상에 존재하는 특징들을 검출하고, 이를 추적함으로써 카메라 위치 정보를 추정하는 증강현실 시스템을 제안한다. 또한 특징점 추적에 사용된 추적 방법은 카메라에서 취득한 영상 밖으로 특징점이 벗어날 경우 더 이상 추적할 수 없는 문제점을 가지고 있어, 이를 보완하기 위해 새로운 특징점을 재검출하여 객체의 정합을 유지하는 방법도 제시한다. 제안된 방법은 미리 지정된 마커를 사용하지 않기 때문에 사용자의 접근이 편리하고, 특정한 형태의 마커를 사용하지 않는 다른 시스템보다 비교적 간단하게 구현할 수 있어 다양한 모바일 환경에서 유용하게 이용될 수 있다.

ARVisualizer : A Markerless Augmented Reality Approach for Indoor Building Information Visualization System

  • Kim, Albert Hee-Kwan;Cho, Hyeon-Dal
    • Spatial Information Research
    • /
    • 제16권4호
    • /
    • pp.455-465
    • /
    • 2008
  • 증강현실은 지리정보의 가시화 특히 현장에서의 직접적인 가시화에 있어 매우 높은 잠재력이 있다. 하지만 현재까지의 대부분의 이동형 증강현실 시스템은 사용자의 정확한 위치를 파악하기 위해 GPS 또는 범용적으로 쓰이는 마커를 현장에 붙이는 등의 방식을 사용되었다. 물론 최근의 연구에서 마커없는 환경을 지향하고 있으나 대부분 연구실 또는 제어 환경으로 사용이 제한되어 있다. 특히 실내의 경우 GPS를 사용할 수 없기 때문에 새로운 위치파악기술이 더욱 절실하다. 최근 활발히 활용되고 있는 무선(RF)기반의 실내 위치확인 및 내비게이션 기술 역시 대량의 센서와 인식기를 설치한다는 점에서 그 실용성이 의문이다. 본 연구에서는 단일카메라기반의 SLAM 알고리듬을 이용하여 특수한 하드웨어 없이 카메라만으로 실내 위치 확인 및 내비게이션이 가능한 알고리듬을 제시하였으며, 동시에 확인된 위치에서 증강현실을 통한 정보의 가시화가 가능하도록 구현 하였다. 향후 본 연구가 목표하고 있는 실내외 seamless 연동형 u-GIS 시스템의 기본 기능으로 활용 될 것이다.

  • PDF

모션 기반의 검색을 사용한 동적인 사람 자세 추적 (Dynamic Human Pose Tracking using Motion-based Search)

  • 정도준;윤정오
    • 한국산학기술학회논문지
    • /
    • 제11권7호
    • /
    • pp.2579-2585
    • /
    • 2010
  • 본 논문은 단안 카메라로부터 입력된 영상에서 모션 기반의 검색을 사용한 동적인 사람 자세 추적 방법을 제안한다. 제안된 방법은 3차원 공간에서 하나의 사람 자세 후보를 생성하고, 생성된 자세 후보를 2차원 이미지 공간으로 투영하여, 투영된 사람 자세 후보와 입력 이미지와의 특징 값 유사성을 비교한다. 이 과정을 정해진 조건을 만족 할 때까지 반복하여 이미지와의 유사성과, 신체 부분간 연결성이 가장 좋은 3차원 자세를 추정한다. 제안된 방법에서는 입력 이미지에 적합한 3차원 자세를 검색할 때, 2차원 영상에서 추정된 신체 각 부분들의 모션 정보를 사용해 검색 공간을 정하고 정해진 검색 공간에서 탐색하여 사람의 자세를 추정한다. 2차원 이미지 모션은 비교적 높은 제약이 있어서 검색 공간을 의미있게 줄일 수 있다. 이 방법은 모션 추정이 검색 공간을 효율적으로 할당 해주고, 자세 추적이 여러 가지 다양한 모션에 적응할 수 있다는 장점을 가진다

Deep Learning-based Depth Map Estimation: A Review

  • Abdullah, Jan;Safran, Khan;Suyoung, Seo
    • 대한원격탐사학회지
    • /
    • 제39권1호
    • /
    • pp.1-21
    • /
    • 2023
  • In this technically advanced era, we are surrounded by smartphones, computers, and cameras, which help us to store visual information in 2D image planes. However, such images lack 3D spatial information about the scene, which is very useful for scientists, surveyors, engineers, and even robots. To tackle such problems, depth maps are generated for respective image planes. Depth maps or depth images are single image metric which carries the information in three-dimensional axes, i.e., xyz coordinates, where z is the object's distance from camera axes. For many applications, including augmented reality, object tracking, segmentation, scene reconstruction, distance measurement, autonomous navigation, and autonomous driving, depth estimation is a fundamental task. Much of the work has been done to calculate depth maps. We reviewed the status of depth map estimation using different techniques from several papers, study areas, and models applied over the last 20 years. We surveyed different depth-mapping techniques based on traditional ways and newly developed deep-learning methods. The primary purpose of this study is to present a detailed review of the state-of-the-art traditional depth mapping techniques and recent deep learning methodologies. This study encompasses the critical points of each method from different perspectives, like datasets, procedures performed, types of algorithms, loss functions, and well-known evaluation metrics. Similarly, this paper also discusses the subdomains in each method, like supervised, unsupervised, and semi-supervised methods. We also elaborate on the challenges of different methods. At the conclusion of this study, we discussed new ideas for future research and studies in depth map research.

원격지의 초소형 드론 CCTV의 효율적인 운영을 위한 이착륙 보조 시스템 (Take-off and landing assistance system for efficient operation of compact drone CCTV in remote locations)

  • 김병국
    • 한국항행학회논문지
    • /
    • 제27권3호
    • /
    • pp.287-292
    • /
    • 2023
  • 고정형 CCTV의 경우 팬-틸트(pan-tilt)와 줌(zoom) 기능을 활용하여 가시범위를 최대화하더라도 음영지역이 발생하는 문제가 있다. 이에 대한 대표적인 해결방안으로 다수의 고정형 CCTV를 운영하는 것이다. 이는 CCTV의 개수와 비례한 다량의 부가장비(예: 전선, 설비, 모니터 등)가 필요하다. 다른 해결방안으로 드론을 활용하는 것이다. 문제는 운영시간에 대하여 고정형 CCTV 대비 훨씬 짧다. 운영시간을 연장하기 위해 다수의 드론을 활용하여 한 대씩 임무를 교대하면서 수행하는 방식이 있다. 이 경우 배터리 충전이 필요한 드론은 드론 포트(drone port)에서 준비상태(재충전 완료)로 재진입하여 연속된 임무가 가능하게 하는 것이다. 본 논문은 고정된 전방을 향한 단안 카메라가 탑재된 초소형 드론을 활용하여 방범용 CCTV의 기능으로 활용될 때, 원격지에서 효율적인 운영과 후속 임무의 원활한 연속 수행을 위한 드론포트에 안정적인 착지를 위한 시스템을 제안하고 구현한다. 그리고 이에 대한 운영을 통해 활용 가능성을 입증한다.

소형 UAV의 장애물 충돌 회피를 위한 YOLO 및 IR 센서 기반 장애물 크기 예측 방법 (The Obstacle Size Prediction Method Based on YOLO and IR Sensor for Avoiding Obstacle Collision of Small UAVs)

  • 이의천;이종원;최의진;이선아
    • 항공우주시스템공학회지
    • /
    • 제17권6호
    • /
    • pp.16-26
    • /
    • 2023
  • UAV의 수요가 증가함에 따라 많은 충돌 회피 방법들이 제안됐다. 이러한 방법들은 LiDAR 및 스테레오 카메라를 주축으로 연구되었으나 무겁거나 공간이 부족하여 소형 UAV에 접목이 어려웠기에, 최근에는 객체 인지 모델 및 거리 측정 센서를 복합적으로 사용한 방법들이 제안되고 있다. 하지만 이러한 객체 인지 복합 방법들은 인지한 장애물의 크기 정보를 도출하지 않아 인지 초기에 적정 회피 거리 도출 및 장애물의 좌표화가 어렵다는 단점이 존재한다. 본 논문에서는 단안 카메라-YOLO와 적외선 센서 기반의 장애물 크기 예측 방법을 제안하고, 실험을 통해 40cm의 거리 내에서 86.39%의 정확도를 보임을 확인했다. 또한, 제안한 방법을 적용하여 소형 UAV에 적용하여 장애물 충돌 회피가 가능한지를 확인하였다.