• Title/Summary/Keyword: 3차원위치추적

Search Result 221, Processing Time 0.036 seconds

A Gaze Detection Technique Using a Monocular Camera System (단안 카메라 환경에서의 시선 위치 추적)

  • 박강령;김재희
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.10B
    • /
    • pp.1390-1398
    • /
    • 2001
  • 시선 위치 추적이란 사용자가 모니터 상의 어느 지점을 쳐다보고 있는 지를 파악해 내는 기술이다. 시선 위치를 파악하기 위해 본 논문에서는 2차원 카메라 영상으로부터 얼굴 영역 및 얼굴 특징점을 추출한다. 초기에 모니터상의 3 지점을 쳐다볼 때 얼굴 특징점들은 움직임의 변화를 나타내며, 이로부터 카메라 보정 및 매개변수 추정 방법을 이용하여 얼굴특징점의 3차원 위치를 추정한다. 이후 사용자가 모니터 상의 또 다른 지점을 쳐다볼 때 얼굴 특징점의 변화된 3차원 위치는 3차원 움직임 추정방법 및 아핀변환을 이용하여 구해낸다. 이로부터 변화된 얼굴 특징점 및 이러한 얼굴 특징점으로 구성된 얼굴평면이 구해지며, 이러한 평면의 법선으로부터 모니터 상의 시선위치를 구할 수 있다. 실험 결과 19인치 모니터를 사용하여 모니터와 사용자까지의 거리를 50∼70cm정도 유지하였을 때 약 2.08인치의 시선위치에러 성능을 얻었다. 이 결과는 Rikert의 논문에서 나타낸 시선위치추적 성능(5.08cm 에러)과 비슷한 결과를 나타낸다. 그러나 Rikert의 방법은 모니터와 사용자 얼굴까지의 거리는 항상 고정시켜야 한다는 단점이 있으며, 얼굴의 자연스러운 움직임(회전 및 이동)이 발생하는 경우 시선위치추적 에러가 증가되는 문제점이 있다. 동시에 그들의 방법은 사용자 얼굴의 뒤 배경에 복잡한 물체가 없는 것으로 제한조건을 두고 있으며 처리 시간이 상당히 오래 걸리는 문제점이 있다. 그러나 본 논문에서 제안하는 시선 위치 추적 방법은 배경이 복잡한 사무실 환경에서도 사용가능하며, 약 3초 이내의 처리 시간(200MHz Pentium PC)이 소요됨을 알 수 있었다.

  • PDF

DSP Implementation of The Position Location System in Underwater Channel Environments (수중환경에서 위치추적 시스템의 DSP 구현)

  • Ko, Hak-Lim;Lim, Yong-Kon;Lee, Deok-Hwan
    • The Journal of the Acoustical Society of Korea
    • /
    • v.26 no.1
    • /
    • pp.48-54
    • /
    • 2007
  • In this paper we have implemented a 3-D PL (Position Location) system to estimate the 3-dimensional position of a moving object in underwater environments. In this research, we let four sensors fixed in different Positions and moving sensorsto communicate with each other to find the 3-dementianal positions for both the fixed and moving objects. Using this we were also able to control the moving object remotely. When finding the position, we calculated the norm of the Jacobian matrix every iteration in the Newton algorithm. Also by using a different initial value for calculating the solution when the norm became higher than the critical value and the solution from the inverse matrix became unstable, we could find a more reliable position for the moving object. The proposed algorithm was used in implementing a DSP system capable of real-time position location. To verify the performance, experiments were done in a water tank. As a result we could see that our system could located the position of an object every 2 seconds with a error range of 5cm.

Real-Time 3D Display Scheme with Viewer-Position Tracking Capability (관찰자의 위치 추적에 따른 3차원(3D) 디스플레이의 실시간 제어)

  • Huh, Kyung-Moo
    • Proceedings of the KIEE Conference
    • /
    • 1997.07b
    • /
    • pp.555-557
    • /
    • 1997
  • 3차원 디스플레이에 있어서 여러 사람이 동시에 입체감 있게 3차원 영상을 볼 수 있게 하는 문제와, 관찰자가 움직이더라도 그 위치 변화를 추적하여 그에 따른 입체 영상의 변화를 반영함으로써 계속 양질의 3차원 영상을 볼 수 있도록 하는 문제들은 앞으로 해결해야 할 어려운 문제로 남아 있다. 본 논문에서는 이러한 문제들을 해결할 수 있는 방법을 제시하고 그에 따른 문제점 등을 살펴본다.

  • PDF

3D Map Generation System for Indoor Autonomous Navigation (실내 자율 주행을 위한 3D Map 생성 시스템)

  • Moon, SungTae;Han, Sang-Hyuck;Eom, Wesub;Kim, Youn-Kyu
    • Aerospace Engineering and Technology
    • /
    • v.11 no.2
    • /
    • pp.140-148
    • /
    • 2012
  • For autonomous navigation, map, pose tracking, and finding the shortest path are required. Because there is no GPS signal in indoor environment, the current position should be recognized in the 3D map by using image processing or something. In this paper, we explain 3D map creation technology by using depth camera like Kinect and pose tracking in 3D map by using 2D image taking from camera. In addition, the mechanism of avoiding obstacles is discussed.

Gaze Detection System by IR-LED based Camera (적외선 조명 카메라를 이용한 시선 위치 추적 시스템)

  • 박강령
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.29 no.4C
    • /
    • pp.494-504
    • /
    • 2004
  • The researches about gaze detection have been much developed with many applications. Most previous researches only rely on image processing algorithm, so they take much processing time and have many constraints. In our work, we implement it with a computer vision system setting a IR-LED based single camera. To detect the gaze position, we locate facial features, which is effectively performed with IR-LED based camera and SVM(Support Vector Machine). When a user gazes at a position of monitor, we can compute the 3D positions of those features based on 3D rotation and translation estimation and affine transform. Finally, the gaze position by the facial movements is computed from the normal vector of the plane determined by those computed 3D positions of features. In addition, we use a trained neural network to detect the gaze position by eye's movement. As experimental results, we can obtain the facial and eye gaze position on a monitor and the gaze position accuracy between the computed positions and the real ones is about 4.2 cm of RMS error.

A 3D Object Tracking System Using a Multi-camera (다중 카메라를 이용한 3차원 개체 추적 시스템)

  • Lee, Sang-Geol;Koo, Kyung-Mo;Seo, Young-Wook;Cha, Eui-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.781-784
    • /
    • 2004
  • 본 시스템은 어항속에 있는 물고기 움직임을 추적하기 위해 두 대의 카메라로부터 동시에 독립된 영상을 획득하고 획득된 영상을 처리하여 좌표를 얻어내고 3차원 좌표로 생성해내는 시스템이다. 제안하는 방법은 크게 두 대의 카메라로부터 동시에 영상을 획득하는 방법과 획득된 영상에 대한 처리 및 물체 위치 검출, 그리고 3차원 좌표 생성으로 구성된다. Frame grabber를 사용하여 두 개의 카메라로부터 동시에 영상을 획득하며, 3개의 연속된 프레임에 대한 차영상과 ART2(Adaptive Resonance Theory)를 이용하여 각각의 영상에서의 물고기 위치를 검출한다. 검출된 각각의 좌표를 병합하여 3차원 좌표를 생성하며, 추적 결과는 OpenGL을 이용하여 3차원으로 재생한다.

  • PDF

Facial Gaze Detection by Estimating Three Dimensional Positional Movements (얼굴의 3차원 위치 및 움직임 추정에 의한 시선 위치 추적)

  • Park, Gang-Ryeong;Kim, Jae-Hui
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.39 no.3
    • /
    • pp.23-35
    • /
    • 2002
  • Gaze detection is to locate the position on a monitor screen where a user is looking. In our work, we implement it with a computer vision system setting a single camera above a monitor and a user moves (rotates and/or translates) his face to gaze at a different position on the monitor. To detect the gaze position, we locate facial region and facial features(both eyes, nostrils and lip corners) automatically in 2D camera images. From the movement of feature points detected in starting images, we can compute the initial 3D positions of those features by camera calibration and parameter estimation algorithm. Then, when a user moves(rotates and/or translates) his face in order to gaze at one position on a monitor, the moved 3D positions of those features can be computed from 3D rotation and translation estimation and affine transform. Finally, the gaze position on a monitor is computed from the normal vector of the plane determined by those moved 3D positions of features. As experimental results, we can obtain the gaze position on a monitor(19inches) and the gaze position accuracy between the computed positions and the real ones is about 2.01 inches of RMS error.

Visual Tracking Insensitive to 3D Rotation of Objects (물체의 3차원 회전에 대응 가능한 영상 추적 알고리듬)

  • Cho, Young-Joo;You, Bum-Jae;Lim, Joon-Hong;Oh, Sang-Rok
    • Proceedings of the KIEE Conference
    • /
    • 1999.11c
    • /
    • pp.664-666
    • /
    • 1999
  • 영상 추적(visual tracking)은 로봇의 시각기반제어, 교통정보시스템, 무인감시시스템 등 다양한 분야에 적용 가능하기 때문에 지정된 혹은 운동이 감지된 물체를 지속적이고 빠르게 추적하는 데 목적을 둔다. 이 때 어려운 문제 중 하나는 시간이 지나면서 위치이동은 물론 회전에 와해 물체의 모양이 변한다는 것이다. 이에 본 논문에서는 물체의 3차원 회전에 대응 가능한 실시간 영상추적 알고리듬을 제안한다. 이 알고리듬은 SSD(sum-of-squared differences)를 기반으로 하되, 물체의 배경이 바뀔 때나 물체가 영상추적 윈도우보다 작은 경우에도 추적이 가능하고 3차원 회전에 대응 가능하다. 이것은 3차원 회전으로 인하여 추적목표를 잃어버리는 것을 막기 위하여 기준 영역이 회전할 때 제안된 성능지수에 따라 영상추적 영역과 기준 영상을 새롭게 설정해줌으로써 구현된다. 제안된 알고리듬은 PC기반 실시간 시각시스템에서 성공적으로 실험되었다.

  • PDF

Gaze Detection by Computing Facial and Eye Movement (얼굴 및 눈동자 움직임에 의한 시선 위치 추적)

  • 박강령
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.2
    • /
    • pp.79-88
    • /
    • 2004
  • Gaze detection is to locate the position on a monitor screen where a user is looking by computer vision. Gaze detection systems have numerous fields of application. They are applicable to the man-machine interface for helping the handicapped to use computers and the view control in three dimensional simulation programs. In our work, we implement it with a computer vision system setting a IR-LED based single camera. To detect the gaze position, we locate facial features, which is effectively performed with IR-LED based camera and SVM(Support Vector Machine). When a user gazes at a position of monitor, we can compute the 3D positions of those features based on 3D rotation and translation estimation and affine transform. Finally, the gaze position by the facial movements is computed from the normal vector of the plane determined by those computed 3D positions of features. In addition, we use a trained neural network to detect the gaze position by eye's movement. As experimental results, we can obtain the facial and eye gaze position on a monitor and the gaze position accuracy between the computed positions and the real ones is about 4.8 cm of RMS error.

A Study on Tracking a Moving Object using Photogrammetric Techniques - Focused on a Soccer Field Model - (사진측랑기법을 이용한 이동객체 추적에 관한 연구 - 축구장 모형을 중심으로 -)

  • Bae Sang-Keun;Kim Byung-Guk;Jung Jae-Seung
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.24 no.2
    • /
    • pp.217-226
    • /
    • 2006
  • Extraction and tracking objects are fundamental and important steps of the digital image processing and computer vision. Many algorithms about extracting and tracking objects have been developed. In this research, a method is suggested for tracking a moving object using a pair of CCD cameras and calculating the coordinate of the moving object. A 1/100 miniature of soccer field was made to apply the developed algorithms. After candidates were selected from the acquired images using the RGB value of a moving object (soccer ball), the object was extracted using its size (MBR size) among the candidates. And then, image coordinates of a moving object are obtained. The real-time position of a moving object is tracked in the boundary of the expected motion, which is determined by centering the moving object. The 3D position of a moving object can be obtained by conducting the relative orientation, absolute orientation, and space intersection of a pair of the CCD camera image.