• 제목/요약/키워드: camera pose

검색결과 270건 처리시간 0.023초

선폭들의 투영변화율을 이용한 카메라 교정 파라메터 추정 (The Camera Calibration Parameters Estimation using The Projection Variations of Line Widths)

  • 정준익;문성룡;노도환
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2003년도 하계학술대회 논문집 D
    • /
    • pp.2372-2374
    • /
    • 2003
  • With 3-D vision measuring, camera calibration is necessary to calculate parameters accurately. Camera calibration was developed widely in two categories. The first establishes reference points in space, and the second uses a grid type frame and statistical method. But, the former has difficulty to setup reference points and the latter has low accuracy. In this paper we present an algorithm for camera calibration using perspective ratio of the grid type frame with different line widths. It can easily estimate camera calibration parameters such as focal length, scale factor, pose, orientations, and distance. But, radial lens distortion is not modeled. The advantage of this algorithm is that it can estimate the distance of the object. Also, the proposed camera calibration method is possible estimate distance in dynamic environment such as autonomous navigation. To validate proposed method, we set up the experiments with a frame on rotator at a distance of 1,2,3,4[m] from camera and rotate the frame from -60 to 60 degrees. Both computer simulation and real data have been used to test the proposed method and very good results have been obtained. We have investigated the distance error affected by scale factor or different line widths and experimentally found an average scale factor that includes the least distance error with each image. It advances camera calibration one more step from static environments to real world such as autonomous land vehicle use.

  • PDF

3차원 손 모델링 기반의 실시간 손 포즈 추적 및 손가락 동작 인식 (Real-Time Hand Pose Tracking and Finger Action Recognition Based on 3D Hand Modeling)

  • 석흥일;이지홍;이성환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권12호
    • /
    • pp.780-788
    • /
    • 2008
  • 손 포즈 모델링 및 추적은 컴퓨터 시각 분야에서 어려운 문제로 알려져 있다. 손 포즈 3차원 복원을 위한 방법에는 사용되는 카메라의 수에 따라 다중 카메라 또는 스테레오 카메라 기반 방식과 단일카메라 기반 방식이 있다. 다중 카메라의 경우 여러 대의 카메라를 설치하거나 동기화를 시키는 등에 대한 제약사항이 따른다. 본 논문에서는 확률 그래프 모델에서 신뢰 전파 (Belief Propagation) 알고리즘을 이용하여 단안 카메라에서 획득된 2차원 입력 영상으로부터 3차원 손 포즈를 추정하는 방법을 제안한다. 또한, 은닉 마르코프 모델(Hidden Markov Model)을 인식기로 하여 손가락 클릭 동작을 인식한다. 은닉 노드로 손가락의 관절 정보를 표현하고, 2차원 입력 영상에서 추출된 특징을 관측 노드로 표현한 확률 그래프 모델을 정의한다. 3차원 손 포즈 추적을 위해 그래프 모델에서의 신뢰 전파 알고리즘을 이용한다. 신뢰 전파 알고리즘을 통해 3차원 손 포즈를 추정 및 복원하고, 복원된 포즈로부터 손가락의 움직임에 대한 특징을 추출한다. 추출된 정보는 은닉 마르코프 모델의 입력값이 된다. 손가락의 자연스러운 동작을 위해 본 논문에서는 한 손가락의 클릭 동작 인식에 여러 손가락의 움직임을 함께 고려한다. 제안한 방법을 가상 키패드 시스템에 적응한 결과 300개의 동영상 테스트 데이타에 대해 94.66%의 높은 인식률을 보였다.

실외 주행 로봇의 위치 추정을 위한 3 차원 물체 인식 (3D Object Recognition for Localization of Outdoor Robotic Vehicles)

  • 백승민;김재웅;이장원;;이석한
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.200-204
    • /
    • 2008
  • 본 논문에서는 지능형 무인 운송 시스템의 위치 인식 문제를 풀기 위한 방법으로, 실외 환경에서 보이는 건물 혹은 건물 입구의 상대적 위치와 자세 추정이 가능한 파티클 필터 기반 3 차원 물체 인식 방법을 제안한다. 제안하는 파티클 필터에 기반한 인식 시스템은 다양한 인식 증거들을 연속 영상에서 융합 및 모델 매칭을 함으로써 강인한 3 차원 물체 인식 및 자세 추정이 가능하다. 제안하는 방법은, 적합한 인식 증거들을 수집/선택하고, 다양한 인식 증거들로 부터 나타나는 인식 대상의 자세를 3 차원 공간상의 확률적인 파티클로 표현하며, 파티클 필터링을 통하여 연속 영상 상의 다양한 인식 증거들을 융합하는 것을 특징으로 한다. 스테레오 카메라를 이용한 실험을 통하여, 제안하는 방법이 실외 건물의 기하학적 특정을 인식 증거로 활용한 효율적인 3 차원 인식 및 자세 추정을 수행하는 것은 보여준다.

  • PDF

단일 카메라와 평면거울을 이용한 하지 운동 자세 추정 (Human Legs Motion Estimation by using a Single Camera and a Planar Mirror)

  • 이석준;이성수;강선호;정순기
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권11호
    • /
    • pp.1131-1135
    • /
    • 2010
  • 본 논문에서는 고정시킨 평면거울을 바라보는 단일 카메라에서 얻어진 영상을 이용하여 훈련자 양 하지의 자세를 3차원으로 추정하는 방법을 제안한다. 이를 위해, 카메라 입력영상으로부터 평면거울에 부착된 네 개의 적외선 마커를 탐색하여 단일 카메라의 자세를 추정한다. 추정된 카메라 자세를 통해 거울평면을 기준으로 하는 훈련공간을 정의하고, 압력 센서를 사용하여 공간 내의 훈련자의 양 하지 위치를 측정한다. 양 하지의 마커는 직접적으로, 또는 거울을 통해 카메라 영상으로 투영되고, 정의된 훈련 공간에서 3차원 위치로 변환된다. 변환된 마커들의 3차원 위치관계에 의해 최종적으로 양 하지의 자세를 얻고 연속적인 움직임에 대해 운동 상태를 추정한다.

천장 영상지도 기반의 전역 위치추정 (Global Localization Based on Ceiling Image Map)

  • 허환;송재복
    • 로봇학회논문지
    • /
    • 제9권3호
    • /
    • pp.170-177
    • /
    • 2014
  • This paper proposes a novel upward-looking camera-based global localization using a ceiling image map. The ceiling images obtained through the SLAM process are integrated into the ceiling image map using a particle filter. Global localization is performed by matching the ceiling image map with the current ceiling image using SURF keypoint correspondences. The robot pose is then estimated by the coordinate transformation from the ceiling image map to the global coordinate system. A series of experiments show that the proposed method is robust in real environments.

Implementation of Nose and Face Detections in Depth Image

  • Kim, Heung-jun;Lee, Dong-seok;Kwon, Soon-kak
    • Journal of Multimedia Information System
    • /
    • 제4권1호
    • /
    • pp.43-50
    • /
    • 2017
  • In this paper, we propose a method which detects the nose and face of certain human by using the depth image. The proposed method has advantages of the low computational complexity and the high accuracy even in dark environment. Also, the detection accuracy of nose and face does not change in various postures. The proposed method first locates the locally protruding part from the depth image of the human body captured through the depth camera, and then confirms the nose through the depth characteristic of the nose and surrounding pixels. After finding the correct pixel of the nose, we determine the region of interest centered on the nose. In this case, the size of the region of interest is variable depending on the depth value of the nose. Then, face region can be found by performing binarization using the depth histogram in the region of interest. The proposed method can detect the nose and the face accurately regardless of the pose or the illumination of the captured area.

센서 융합을 통한 환경지도 기반의 강인한 전역 위치추정 (Robust Global Localization based on Environment map through Sensor Fusion)

  • 정민국;송재복
    • 로봇학회논문지
    • /
    • 제9권2호
    • /
    • pp.96-103
    • /
    • 2014
  • Global localization is one of the essential issues for mobile robot navigation. In this study, an indoor global localization method is proposed which uses a Kinect sensor and a monocular upward-looking camera. The proposed method generates an environment map which consists of a grid map, a ceiling feature map from the upward-looking camera, and a spatial feature map obtained from the Kinect sensor. The method selects robot pose candidates using the spatial feature map and updates sample poses by particle filter based on the grid map. Localization success is determined by calculating the matching error from the ceiling feature map. In various experiments, the proposed method achieved a position accuracy of 0.12m and a position update speed of 10.4s, which is robust enough for real-world applications.

Structured Light 기법을 이용한 이동 로봇의 상대 위치 추정 알고리즘 연구 (A Study on the Relative Localization Algorithm for Mobile Robots using a Structured Light Technique)

  • 노동기;김곤우;이범희
    • 제어로봇시스템학회논문지
    • /
    • 제11권8호
    • /
    • pp.678-687
    • /
    • 2005
  • This paper describes a relative localization algorithm using odometry data and consecutive local maps. The purpose of this paper is the odometry error correction using the area matching of two consecutive local maps. The local map is built up using a sensor module with dual laser beams and USB camera. The range data form the sensor module is measured using the structured lighting technique (active stereo method). The advantage in using the sensor module is to be able to get a local map at once within the camera view angle. With this advantage, we propose the AVS (Aligned View Sector) matching algorithm for. correction of the pose error (translational and rotational error). In order to evaluate the proposed algorithm, experiments are performed in real environment.

Combining an Edge-Based Method and a Direct Method for Robust 3D Object Tracking

  • Lomaliza, Jean-Pierre;Park, Hanhoon
    • 한국멀티미디어학회논문지
    • /
    • 제24권2호
    • /
    • pp.167-177
    • /
    • 2021
  • In the field of augmented reality, edge-based methods have been popularly used in tracking textureless 3D objects. However, edge-based methods are inherently vulnerable to cluttered backgrounds. Another way to track textureless or poorly-textured 3D objects is to directly align image intensity of 3D object between consecutive frames. Although the direct methods enable more reliable and stable tracking compared to using local features such as edges, they are more sensitive to occlusion and less accurate than the edge-based methods. Therefore, we propose a method that combines an edge-based method and a direct method to leverage the advantages from each approach. Experimental results show that the proposed method is much robust to both fast camera (or object) movements and occlusion while still working in real time at a frame rate of 18 Hz. The tracking success rate and tracking accuracy were improved by up to 84% and 1.4 pixels, respectively, compared to using the edge-based method or the direct method solely.

딥러닝 기술을 이용한 3차원 객체 추적 기술 리뷰 (A Review of 3D Object Tracking Methods Using Deep Learning)

  • 박한훈
    • 융합신호처리학회논문지
    • /
    • 제22권1호
    • /
    • pp.30-37
    • /
    • 2021
  • 카메라 영상을 이용한 3차원 객체 추적 기술은 증강현실 응용 분야를 위한 핵심 기술이다. 영상 분류, 객체 검출, 영상 분할과 같은 컴퓨터 비전 작업에서 CNN(Convolutional Neural Network)의 인상적인 성공에 자극 받아, 3D 객체 추적을 위한 최근의 연구는 딥러닝(deep learning)을 활용하는 데 초점을 맞추고 있다. 본 논문은 이러한 딥러닝을 활용한 3차원 객체 추적 방법들을 살펴본다. 딥러닝을 활용한 3차원 객체 추적을 위한 주요 방법들을 설명하고, 향후 연구 방향에 대해 논의한다.