• 제목/요약/키워드: 3D motion estimation

검색결과 220건 처리시간 0.029초

3차원 직선을 이용한 카메라 모션 추정 (Motion Estimation Using 3-D Straight Lines)

  • 이진한;장국현;서일홍
    • 로봇학회논문지
    • /
    • 제11권4호
    • /
    • pp.300-309
    • /
    • 2016
  • This paper proposes a method for motion estimation of consecutive cameras using 3-D straight lines. The motion estimation algorithm uses two non-parallel 3-D line correspondences to quickly establish an initial guess for the relative pose of adjacent frames, which requires less correspondences than that of current approaches requiring three correspondences when using 3-D points or 3-D planes. The estimated motion is further refined by a nonlinear optimization technique with inlier correspondences for higher accuracy. Since there is no dominant line representation in 3-D space, we simulate two line representations, which can be thought as mainly adopted methods in the field, and verify one as the best choice from the simulation results. We also propose a simple but effective 3-D line fitting algorithm considering the fact that the variance arises in the projective directions thus can be reduced to 2-D fitting problem. We provide experimental results of the proposed motion estimation system comparing with state-of-the-art algorithms using an open benchmark dataset.

MLESAC 움직임 추정 기반의 파티클 필터를 이용한 3D 얼굴 추적 (3D Face Tracking using Particle Filter based on MLESAC Motion Estimation)

  • 성하천;변혜란
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권8호
    • /
    • pp.883-887
    • /
    • 2010
  • 3D 얼굴 추적(Face tracking)은 보안감시, HCI(Human-Computer Interface), 엔터테인먼트(Entertainment)등 컴퓨터 비전과 관련된 여러 분야의 핵심 기술로서 많은 연구가 진행되고 있다. 하지만, 광범위한 응용분야에도 불구하고 3D 얼굴 추적의 기본적인 높은 연산 비용으로 인하여 그 응용 분야가 모바일 단말기 등의 저 사양 플랫폼에는 많은 한계가 있어왔다. 본 논문에서는 이러한 3D얼굴 추적의 연산 비용을 효과적으로 해결하고 폭 넓게 응용 분야를 확대하기 위하여 MLESAC(Maximum Likelihood Estimation by Sampling Consensus)을 이용한 움직임 추정(Motion Estimation) 기법과 기존의 파티클 필터(Particle Filter)를 결합하여 실행 속도 면에서 빠르면서도 성능 면에서도 우수한 3D 얼굴 추적 알고리즘을 제안한다.

CALOS : 주행계 추정을 위한 카메라와 레이저 융합 (CALOS : Camera And Laser for Odometry Sensing)

  • 복윤수;황영배;권인소
    • 로봇학회논문지
    • /
    • 제1권2호
    • /
    • pp.180-187
    • /
    • 2006
  • This paper presents a new sensor system, CALOS, for motion estimation and 3D reconstruction. The 2D laser sensor provides accurate depth information of a plane, not the whole 3D structure. On the contrary, the CCD cameras provide the projected image of whole 3D scene, not the depth of the scene. To overcome the limitations, we combine these two types of sensors, the laser sensor and the CCD cameras. We develop a motion estimation scheme appropriate for this sensor system. In the proposed scheme, the motion between two frames is estimated by using three points among the scan data and their corresponding image points, and refined by non-linear optimization. We validate the accuracy of the proposed method by 3D reconstruction using real images. The results show that the proposed system can be a practical solution for motion estimation as well as for 3D reconstruction.

  • PDF

3D-2D 모션 추정을 위한 LiDAR 정보 보간 알고리즘 (LiDAR Data Interpolation Algorithm for 3D-2D Motion Estimation)

  • 전현호;고윤호
    • 한국멀티미디어학회논문지
    • /
    • 제20권12호
    • /
    • pp.1865-1873
    • /
    • 2017
  • The feature-based visual SLAM requires 3D positions for the extracted feature points to perform 3D-2D motion estimation. LiDAR can provide reliable and accurate 3D position information with low computational burden, while stereo camera has the problem of the impossibility of stereo matching in simple texture image region, the inaccuracy in depth value due to error contained in intrinsic and extrinsic camera parameter, and the limited number of depth value restricted by permissible stereo disparity. However, the sparsity of LiDAR data may increase the inaccuracy of motion estimation and can even lead to the result of motion estimation failure. Therefore, in this paper, we propose three interpolation methods which can be applied to interpolate sparse LiDAR data. Simulation results obtained by applying these three methods to a visual odometry algorithm demonstrates that the selective bilinear interpolation shows better performance in the view point of computation speed and accuracy.

적응적 탐색 영역 예측을 이용한 고속 움직임 추정 (Fast Motion Estimation using Adaptive Search Region Prediction)

  • 류권열
    • 한국정보통신학회논문지
    • /
    • 제12권7호
    • /
    • pp.1187-1192
    • /
    • 2008
  • 본 논문은 적응적 탐색 영역과 새로운 3단계 탐색을 이용하는 고속 움직임 추정을 제안한다. 제안한 방법은 이웃 블록의 모션벡터로부터 현재 블록의 움직임를 예측하고, 예측된 움직임 정보를 이용하여 탐색 영역을 적응적으로 설정함으로써 움직임 보상 영상의 화질이 $0.43dB{\sim}2.19dB$ 향상되었다. 또한 새로운 3단계 탐색 패턴을 적용하여 블록 당 계산량을 기존의 방법에 비해 $1.3%{\sim}1.9%$ 감소시킴으로써 고속 움직임 추정이 가능함을 알 수 있었다.

3D 동영상 변환을 위한 MHI 기반 모션 깊이맵 생성 (Motion Depth Generation Using MHI for 3D Video Conversion)

  • 김원회;길종인;최창열;김만배
    • 방송공학회논문지
    • /
    • 제22권4호
    • /
    • pp.429-437
    • /
    • 2017
  • 2D영상의 3D변환 기술은 3D 디스플레이 및 3DTV에 기본적으로 장착된 기술로 꾸준히 연구 및 상업화가 진행된 기술이다. 3D변환은 정지영상으로부터 다양한 깊이단서를 이용하여 깊이맵을 추출한 후에, DIBR(Depth Image Based Rendering)로 입체영상을 생성한다. 또한 비디오에서 추출할 수 있는 모션정보를 활용하여 모션 깊이맵을 얻기도 한다. 본 논문에서는 기존의 블록기반 모션예측, 광유 등의 모션 추출 방식이 아닌 운동 히스토리 영상(Motion History Image)를 활용하여 모션 깊이맵을 얻는 새로운 방법을 제안하고 실제 활용 가능성을 조사한다. 실험에서는 제안한 방법을 다양한 운동 유형을 가지는 8개의 2D 비디오 콘텐츠에 적용하였고, 생성된 모션 깊이맵의 정성적 평가 및 수행 속도의 비교를 통하여 MHI 기반 깊이맵의 실제 적용이 적합함을 증명하였다.

센서융합을 이용한 3차원 물체의 동작 예측 (3D motion estimation using multisensor data fusion)

  • 양우석;장종환
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1993년도 한국자동제어학술회의논문집(국내학술편); Seoul National University, Seoul; 20-22 Oct. 1993
    • /
    • pp.679-684
    • /
    • 1993
  • This article presents an approach to estimate the general 3D motion of a polyhedral object using multiple, sensory data some of which may not provide sufficient information for the estimation of object motion. Motion can be estimated continuously from each sensor through the analysis of the instantaneous state of an object. We have introduced a method based on Moore-Penrose pseudo-inverse theory to estimate the instantaneous state of an object. A linear feedback estimation algorithm is discussed to estimate the object 3D motion. Then, the motion estimated from each sensor is fused to provide more accurate and reliable information about the motion of an unknown object. The techniques of multisensor data fusion can be categorized into three methods: averaging, decision, and guiding. We present a fusion algorithm which combines averaging and decision.

  • PDF

단안영상에서 움직임 벡터를 이용한 영역의 깊이추정 (A Region Depth Estimation Algorithm using Motion Vector from Monocular Video Sequence)

  • 손정만;박영민;윤영우
    • 융합신호처리학회논문지
    • /
    • 제5권2호
    • /
    • pp.96-105
    • /
    • 2004
  • 2차원 이미지로부터 3차원 이미지 복원은 각 픽셀까지의 깊이 정보가 필요하고, 3차원 모델의 복원에 관한 일반적인 수작업은 많은 시간과 비용이 소모된다. 본 논문의 목표는 카메라가 이동하는 중에, 획득된 단안 영상에서 영역의 상대적인 깊이 정보를 추출하는 것이다. 카메라 이동에 의한 영상의 모든 점들의 움직임은 깊이 정보에 종속적이라는 사실에 기반을 두고 있다. 전역 탐색 기법을 사용하여 획득한 움직임 벡터에서 카메라 회전과 배율에 관해서 보상을 한다. 움직임 벡터를 분석하여 평균 깊이를 측정하고, 평균 깊이에 대한 각 영역의 상대적 깊이를 구하였다. 실험결과 영역의 상대적인 깊이는 인간이 인식하는 상대적인 깊이와 일치한다는 것을 보였다.

  • PDF

확장 칼만 필터를 이용한 얼굴의 3차원 움직임량 추정 (3-D Facial Motion Estimation using Extended Kalman Filter)

  • 한승철;박강령김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 추계종합학술대회 논문집
    • /
    • pp.883-886
    • /
    • 1998
  • In order to detect the user's gaze position on a monitor by computer vision, the accurate estimations of 3D positions and 3D motion of facial features are required. In this paper, we apply a EKF(Extended Kalman Filter) to estimate 3D motion estimates and assumes that its motion is "smooth" in the sense of being represented as constant velocity translational and rotational model. Rotational motion is defined about the orgin of an face-centered coordinate system, while translational motion is defined about that of a camera centered coordinate system. For the experiments, we use the 3D facial motion data generated by computer simulation. Experiment results show that the simulation data andthe estimation results of EKF are similar.e similar.

  • PDF

센서 융합을 이용한 움직이는 물체의 동작예측에 관한 연구 (Motion Estimation of 3D Planar Objects using Multi-Sensor Data Fusion)

  • 양우석
    • 센서학회지
    • /
    • 제5권4호
    • /
    • pp.57-70
    • /
    • 1996
  • Motion can be estimated continuously from each sensor through the analysis of the instantaneous states of an object. This paper is aimed to introduce a method to estimate the general 3D motion of a planar object from the instantaneous states of an object using multi-sensor data fusion. The instantaneous states of an object is estimated using the linear feedback estimation algorithm. The motion estimated from each sensor is fused to provide more accurate and reliable information about the motion of an unknown planar object. We present a fusion algorithm which combines averaging and deciding. With the assumption that the motion is smooth, the approach can handle the data sequences from multiple sensors with different sampling times. Simulation results show proposed algorithm is advantageous in terms of accuracy, speed, and versatility.

  • PDF