• Title/Summary/Keyword: 3차원위치추적

Search Result 221, Processing Time 0.026 seconds

3D Fingertip Estimation based on the TOF Camera for Virtual Touch Screen System (가상 터치스크린 시스템을 위한 TOF 카메라 기반 3차원 손 끝 추정)

  • Kim, Min-Wook;Ahn, Yang-Keun;Jung, Kwang-Mo;Lee, Chil-Woo
    • The KIPS Transactions:PartB
    • /
    • v.17B no.4
    • /
    • pp.287-294
    • /
    • 2010
  • TOF technique is one of the skills that can obtain the object's 3D depth information. But depth image has low resolution and fingertip occupy very small region, so, it is difficult to find the precise fingertip's 3D information by only using depth image from TOF camera. In this paper, we estimate fingertip's 3D location using Arm Model and reliable hand's 3D location information that is modified by hexahedron as hand model. Using proposed method we can obtain more precise fingertip's 3D information than using only depth image.

Development of Slowly moving Short Baseline Underwater Acoustic Positioning System for Estimating the Position of Unmanned Underwater Vehicle (무인잠수정의 위치추정을 위한 동적단기선 방식의 수중초음파 위치추적시스템 개발)

  • Kim, Joon-Young;Byun, Seung-Woo
    • Proceedings of the KAIS Fall Conference
    • /
    • 2009.05a
    • /
    • pp.240-243
    • /
    • 2009
  • 본 논문에서는 수중에서 이동하는 무인잠수정 및 수중이동체의 위치를 측정하는 방법 중의 하나인 동적 단기선 방식(SBL)에 의한 무인잠수정의 위치측정에 대한 방법을 하이드로폰과 DAQ(Data Aquisition) 시스템을 이용하여 수조에서 테스트를 수행하였고, 실 해역에서의 실험을 실시하였다. 실험을 위해서 4개의 센서가 수조의 벽면에 고정이 되어 있으며, 이동체와 고정된 4개의 센서가 신호를 송수신함으로써 상호간의 위치추적이 가능하게 하는 시뮬레이션을 실시하였으며, 제안하는 SBL시스템과 장기선 방식(Long baseline)을 비교하기위한 시뮬레이션을 실시하여 두 시스템을 비교하였다. 측정된 신호는 DAQ 시스템을 이용하여 데이터를 취득하였고, Labview 프로그램을 이용하여 실시간으로 무인잠수정의 위치를 추정하였다. 위치추정에 사용된 알고리즘은 삼각측량법에 의한 방법을 사용하였으며, X, Y방향에 대해서는 비교적 오차가 적은 추정 결과를 나타내었으나 Z방향에 대하여서는 큰 오차를 보여 데이터로 사용할 수 가 없었다. 이는 수중이동체의 수심측정 센서를 이용하여 보완할 수 있을 것으로 본다. 향후 연구로는 위치추정 알고리즘을 보완하여 실제 선박 선저부에 센서가 부착되었을 경우에 대한 적용연구를 진행할 예정이며, 위치추정 알고리즘을 발전시켜 3차원에서의 정확한 위치 추적을 가능하게 할 예정이다.

  • PDF

Application of Drone for Analysis of 2D Pollutant Mixing in River (하천에 유입된 오염물질의 2차원 혼합 분석을 위한 드론의 활용)

  • Seo, Il Won;Baek, Donghae
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.100-100
    • /
    • 2017
  • 하천에 유입된 오염물질의 2차원 혼합거동은 하천 주흐름에 의한 이송현상과 유속 성분의 수심평균 값에 대한 공간적 편차로부터 야기되는 분산현상으로 설명 할 수 있다. 이는 3차원 이송확산 방정식으로부터 수심 적분된 2차원 이송-분산 방정식으로 수학적 유도가 가능하며, 수심방향으로 적분하는 과정에서 발생되는 농도의 분산항은 Taylor Dispersion 개념에 기초하여 종방향 및 횡방향의 2차원 분산계수로 표현된다. Fischer(1978)는 연직방향 유속분포로부터 2차원 분산계수를 추정하는 해석해를 수학적으로 유도하였으나, 실제 하천에서 정밀한 연직방향 유속분포를 계측하는 것은 많은 비용 및 노동력을 초래한다. 따라서 선행 연구자들은 2차원 혼합모형의 분산계수를 산정하고자 실험적 방법으로써 추적자실험을 수행하였다. 추적자실험은 추적자 물질을 수체에 주입한 후 농도의 변화를 관측함으로써 추적자물질이 하천에서 이송 및 분산되는 과정을 이해하는데 유용하다. 기존의 추적자실험은 고정된 위치에서 농도를 계측하여 시계열적인 농도의 변화를 관측한 후, 오염운 동결가정을 통해 종,횡방향 분산계수의 산정이 가능하지만, 오염물질 농도의 공간적 분포를 얻기에는 한계가 있다. 본 연구에서는 기존의 추적자실험법의 한계를 극복하고자 형광물질을 이용한 추적자실험을 수행함과 동시에 드론에 장착된 디지털카메라를 이용하여 항공영상을 취득 및 분석하여, 하천에 주입된 형광물질의 농도분포를 시공간적으로 추출하는 기법을 개발하고, 이를 바탕으로 오염물질의 2차원 혼합거동을 분석하였다. 본 실험은 한국건설기술연구원의 안동하천실험센터의 A3실험수로에서 수행되었으며, 실험수로는 평균 하폭 5 m, 평균 수심 0.44 m, 유량 $0.96m^3/s$의 실제 소규모 하천과 유사한 축척을 가지고 있다. 추적자물질은 Rhodamine WT 용액이 사용되었으며, 실험수로 내 설치된 15개의 형광광도계(YSI-600OMS)를 이용하여 농도를 측정하였다. 항공영상의 취득을 위해 이용된 드론은 DJI-Phantom 3 Professional 이며, 3840x2160의 해상도로 초당 30 frame의 동영상으로 취득되었다. 영상의 정합 및 좌표화를 위해 RTK-GPS를 이용하여 12개의 지상 기준점의 좌표를 취득한 후, 사영변환을 통해 영상좌표를 지상좌표로 변환하였다. 영상의 픽셀값을 농도장으로 변환하기 위해 각 RGB 밴드의 픽셀값을 통계적으로 분석하여 농도장으로 변환하였으며, 영상으로부터 얻은 농도장은 형광광도계에 의해 실측된 농도와 결정계수 0.9이상의 수준으로 정확도를 나타냈다.

  • PDF

3D First Person Shooting Game by Using Eye Gaze Tracking (눈동자 시선 추적에 의한 3차원 1인칭 슈팅 게임)

  • Lee, Eui-Chul;Park, Kang-Ryoung
    • The KIPS Transactions:PartB
    • /
    • v.12B no.4 s.100
    • /
    • pp.465-472
    • /
    • 2005
  • In this paper, we propose the method of manipulating the gaze direction of 3D FPS game's character by using eye gaze detection from the successive images captured by USB camera, which is attached beneath HMB. The proposed method is composed of 3 parts. At first, we detect user's pupil center by real-time image processing algorithm from the successive input images. In the second part of calibration, when the user gaze on the monitor plane, the geometric relationship between the gazing position of monitor and the detected position of pupil center is determined. In the last part, the final gaze position on the HMD monitor is tracked and the 3D view in game is controlled by the gaze position based on the calibration information. Experimental results show that our method can be used for the handicapped game player who cannot use his(or her) hand. Also, it can Increase the interest and the immersion by synchronizing the gaze direction of game player and the view direction of game character.

A method of Animations for Interactive Deformation of 3D Real Objects (3차원 실사 객체의 대화형 변형을 위한 애니메이션 방법)

  • Park, Jungsik;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.88-89
    • /
    • 2014
  • 본 논문에서는 미리 모델링된 실객체에 대한 3차원 모델을 변형하면서 애니메이션을 정의하고, 실사 객체를 추적하면서 카메라 뷰 상의 실사 객체에 애니메이션을 적용하는 방법을 제안한다. 애니메이션 정의는 라플라시안 기반 메쉬 변형 방법으로 3차원 모델을 변형시키며 키프레임을 지정함으로써 이루어진다. 정의된 애니메이션은 실제 환경에서 추적된 실사 객체의 영상으로부터 모델에 텍스처를 입힌 뒤, 카메라 포즈를 이용하여 객체 위치에 객체 모델을 렌더링할 때 적용된다. 제안된 방법을 통해 사용자가 원하는 대로 실제 환경에 대한 카메라 뷰 상에서 실사 객체가 변형되는 모습을 용이하게 보여줄 수 있다.

  • PDF

Implementation of Intelligent Moving Target Tracking and Surveillance System Using Pan/Tilt-embedded Stereo Camera System (팬/틸트 탑제형 스테레오 카메라를 이용한 지능형 이동표적 추적 및 감시 시스템의 구현)

  • 고정환;이준호;김은수
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.29 no.4C
    • /
    • pp.514-523
    • /
    • 2004
  • In this paper, a new intelligent moving target tracking and surveillance system basing on the pan/tilt-embedded stereo camera system is suggested and implemented. In the proposed system, once the face area of a target is detected from the input stereo image by using a YCbCr color model and then, using this data as well as the geometric information of the tracking system, the distance and 3D information of the target are effectively extracted in real-time. Basing on these extracted data the pan/tilted-embedded stereo camera system is adaptively controlled and as a result, the proposed system can track the target adaptively under the various circumstance of the target. From some experiments using 80 frames of the test input stereo image, it is analyzed that standard deviation of the position displacement of the target in the horizontal and vertical directions after tracking is kept to be very low value of 1.82, 1.11, and error ratio between the measured and computed 3D coordinate values of the target is also kept to be very low value of 0.5% on average. From these good experimental results a possibility of implementing a new real-time intelligent stereo target tracking and surveillance system using the proposed scheme is finally suggested.

3D Facial Model Expression Creation with Head Motion (얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성)

  • Kwon, Oh-Ryun;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

Autonomous Surveillance-tracking System for Workers Monitoring (작업자 모니터링을 위한 자동 감시추적 시스템)

  • Ko, Jung-Hwan;Lee, Jung-Suk;An, Young-Hwan
    • 전자공학회논문지 IE
    • /
    • v.47 no.2
    • /
    • pp.38-46
    • /
    • 2010
  • In this paper, an autonomous surveillance-tracking system for Workers monitoring basing on the stereo vision scheme is proposed. That is, analysing the characteristics of the cross-axis camera system through some experiments, a optimized stereo vision system is constructed and using this system an intelligent worker surveillance-tracking system is implemented, in which a target worker moving through the environments can be detected and tracked, and its resultant stereo location coordinates and moving trajectory in the world space also can be extracted. From some experiments on moving target surveillance-tracking, it is analyzed that the target's center location after being tracked is kept to be very low error ratio of 1.82%, 1.11% on average in the horizontal and vertical directions, respectively. And, the error ratio between the calculation and measurement values of the 3D location coordinates of the target person is found to be very low value of 2.5% for the test scenario on average. Accordingly, in this paper, a possibility of practical implementation of the intelligent stereo surveillance system for real-time tracking of a target worker moving through the environments and robust detection of the target's 3D location coordinates and moving trajectory in the real world is finally suggested.

3D Display Method for Moving Viewers (움직이는 관찰자용 3차원 디스플레이 방법)

  • Heo, Gyeong-Mu;Kim, Myeong-Sin
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.37 no.4
    • /
    • pp.37-45
    • /
    • 2000
  • In this paper we suggest a method of detecting the two eyes position of moving viewer by using images obtained through a color CCD camera, and also a method of rendering view-dependent 3D image which consists of depth estimation, image-based 3D object modeling and stereoscopic display process. Through the experiment of applying the suggested methods, we could find the accurate two-eyes position with the success rate of 97.5% within the processing time of 0.39 second using personal computer, and display the view-dependent 3D image using Fl6 flight model. And through the similarity measurement of stereo image rendered at z-buffer by Open Inventor and captured by stereo camera using robot, we could find that view-dependent 3D picture obtained by our proposed method is optimal to viewer.

  • PDF

3D View Controlling by Using Eye Gaze Tracking in First Person Shooting Game (1 인칭 슈팅 게임에서 눈동자 시선 추적에 의한 3차원 화면 조정)

  • Lee, Eui-Chul;Cho, Yong-Joo;Park, Kang-Ryoung
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.10
    • /
    • pp.1293-1305
    • /
    • 2005
  • In this paper, we propose the method of manipulating the gaze direction of 3D FPS game's character by using eye gaze detection from the successive images captured by USB camera, which is attached beneath HMD. The proposed method is composed of 3 parts. In the first fart, we detect user's pupil center by real-time image processing algorithm from the successive input images. In the second part of calibration, the geometric relationship is determined between the monitor gazing position and the detected eye position gazing at the monitor position. In the last fart, the final gaze position on the HMB monitor is tracked and the 3D view in game is control]ed by the gaze position based on the calibration information. Experimental results show that our method can be used for the handicapped game player who cannot use his (or her) hand. Also, it can increase the interest and immersion by synchronizing the gaze direction of game player and that of game character.

  • PDF