• 제목/요약/키워드: Person tracking by detection

검색결과 38건 처리시간 0.036초

자율 이동로봇의 경로추정을 위한 적응적 공간좌표 검출 기법 (Adaptive Spatial Coordinates Detection Scheme for Path-Planning of Autonomous Mobile Robot)

  • 이정석;고정환
    • 전기학회논문지P
    • /
    • 제55권2호
    • /
    • pp.103-109
    • /
    • 2006
  • In this paper, the detection scheme of the spatial coordinates based on stereo camera for a intelligent path planning of an automatic mobile robot is proposed. In the proposed system, face area of a moving person is detected from a left image among the stereo image pairs by using the YCbCr color model and its center coordinates are computed by using the centroid method and then using these data, the stereo camera embedded on the mobile robot can be controlled for tracking the moving target in real-time. Moreover, using the disparity mad obtained from the left and right images captured by the tracking-controlled stereo camera system and the perspective transformation between a 3-D scene. and an image plane, depth information can be detected. Finally, based-on the analysis of these calculated coordinates, a mobile robot system is derived as a intelligent path planning and a estimation.

운전자 피로 감지를 위한 얼굴 동작 인식 (Facial Behavior Recognition for Driver's Fatigue Detection)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.756-760
    • /
    • 2010
  • 본 논문에서는 운전자 피로 감지를 위한 얼굴 동작을 효과적으로 인식하는 방법을 제안하고자 한다. 얼굴 동작은 얼굴 표정, 얼굴 자세, 시선, 주름 같은 얼굴 특징으로 나타난다. 그러나 얼굴 특징으로 하나의 동작 상태를 뚜렷이 구분한다는 것은 대단히 어려운 문제이다. 왜냐하면 사람의 동작은 복합적이며 그 동작을 표현하는 얼굴은 충분한 정보를 제공하기에는 모호성을 갖기 때문이다. 제안된 얼굴 동작 인식 시스템은 먼저 적외선 카메라로 눈 검출, 머리 방향 추정, 머리 움직임 추정, 얼굴 추적과 주름 검출과 같은 얼굴 특징 등을 감지하고 획득한 특징을 FACS의 AU로 나타낸다. 획득한 AU를 근간으로 동적 베이지안 네트워크를 통하여 각 상태가 일어날 확률을 추론한다.

이중계층구조 파티클 샘플링을 사용한 다중객체 검출 및 추적 (Multi-Object Detection and Tracking Using Dual-Layer Particle Sampling)

  • 정경원;김나현;이승원;백준기
    • 전자공학회논문지
    • /
    • 제51권9호
    • /
    • pp.139-147
    • /
    • 2014
  • 본 논문에서는 다중객체 검출과 동시에 추적을 수행하는 이중계층구조의 파티클 샘플링을 제안한다. 제안된 방법은 다중 객체 검출을 위한 상위 계층 파티클 샘플링과 검출된 객체의 추적을 위한 하위 계층 파티클 샘플링으로 구성된다. 상위 계층에서는 빠른 객체 검출을 위해 슬라이딩 윈도우 대신 움직임 추정 기반의 부모 파티클 (parent particles; PP) 윈도우를 사용하여, 이동 객체 주위로 리샘플링된 파티클을 통해 객체를 검출한다. 하위 계층에서는 상위 계층에서 검출한 객체의 객체영역에 자식 파티클 (child particles; CP)을 생성하여 해당 객체를 추적한다. 실험결과를 통해 비디오 시스템에서 기존 객체 검출 방법보다 빠른 검출이 가능하고, 다중 객체를 효과적으로 추적할 수 있음을 확인하였다.

감시카메라 영상기반 응급상황 탐지 및 이동로봇 추적 시스템 (Emergency Situation Detection using Images from Surveillance Camera and Mobile Robot Tracking System)

  • 한태우;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.101-107
    • /
    • 2009
  • 본 논문은 감시카메라 영상으로부터 응급상황을 탐지하는 방법과 응급상황의 정밀 탐색 및 서비스를 위한 이동로봇 추적 시스템 개발에 대하여 기술한다. 건물 곳곳에 설치된 카메라로부터 얻어지는 일련의 영상들을 분석하여 처리함으로써 사람의 행동을 인식할 수 있으며, 이 중 응급상황이 탐지된 경우 준비된 이동로봇을 이용해 응급상황 발생지점의 정밀 탐색이 가능하다. 감시 카메라 영상을 통하여 사람의 행동들을 인식하기 위해서는 인간의 모습이라고 가정되는 영역들을 추적하고 관리해야 한다. 한 영상에서 가우시안 혼합 모델(MOG)을 이용하여 배경과 분리된 관심 영역들을 추출하고, 각 영역들을 외관 모델을 이용하여 지속적으로 추적한다. 그리고 각 영역의 실루엣 정보를 이용한 움직임 누적 영상(MHI)을 생성하여 행동을 모델링하고 신경망을 이용하여 응급 상황을 최종 인식한다. 또한 응급상황에 처한 사람과 이동로봇의 위치정보를 계산해 이동로봇이 사람에게 접근하는 기술을 구현한다.

  • PDF

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

Optimum Region-of-Interest Acquisition for Intelligent Surveillance System using Multiple Active Cameras

  • Kim, Young-Ouk;Park, Chang-Woo;Sung, Ha-Gyeong;Park, Chang-Han;Namkung, Jae-Chan
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.628-631
    • /
    • 2003
  • In this paper, we present real-time, accurate face region detection and tracking technique for an intelligent surveillance system. It is very important to obtain the high-resolution images, which enables accurate identification of an object-of-interest. Conventional surveillance or security systems, however, usually provide poor image quality because they use one or more fixed cameras and keep recording scenes without any cine. We implemented a real-time surveillance system that tracks a moving person using four pan-tilt-zoom (PTZ) cameras. While tracking, the region-of-interest (ROI) can be obtained by using a low-pass filter and background subtraction. Color information in the ROI is updated to extract features for optimal tracking and zooming. The experiment with real human faces showed highly acceptable results in the sense of both accuracy and computational efficiency.

  • PDF

Real-Time Surveillance of People on an Embedded DSP-Platform

  • Qiao, Qifeng;Peng, Yu;Zhang, Dali
    • Journal of Ubiquitous Convergence Technology
    • /
    • 제1권1호
    • /
    • pp.3-8
    • /
    • 2007
  • This paper presents a set of techniques used in a real-time visual surveillance system. The system is implemented on a low-cost embedded DSP platform that is designed to work with stationary video sources. It consists of detection, a tracking and a classification module. The detector uses a statistical method to establish the background model and extract the foreground pixels. These pixels are grouped into blobs which are classified into single person, people in a group and other objects by the dynamic periodicity analysis. The tracking module uses mean shift algorithm to locate the target position. The system aims to control the human density in the surveilled scene and detect what happens abnormally. The major advantage of this system is the real-time capability and it only requires a video stream without other additional sensors. We evaluate the system in the real application, for example monitoring the subway entrance and the building hall, and the results prove the system's superior performance.

  • PDF

HMD(Head Mounted Display)에서 시선 추적을 통한 3차원 게임 조작 방법 연구 (A Study on Manipulating Method of 3D Game in HMD Environment by using Eye Tracking)

  • 박강령;이의철
    • 대한전자공학회논문지SP
    • /
    • 제45권2호
    • /
    • pp.49-64
    • /
    • 2008
  • 최근에 휴먼 컴퓨터 인터페이스 분야에서 사용자의 시선 위치를 파악하여 더욱 편리한 입력장치를 구축하고자 하는 연구가 많이 진행되고 있다. 하지만 복잡한 하드웨어 구성으로 제품의 가격이 매우 비싸고, 까다로운 사용자 캘리브레이션 과정으로 인해 시스템의 사용에 어려움을 겪는다. 본 논문에서는 HMD(Head Mounted Display)에 USB 카메라와 적외선을 반사시키는 hot-mirror와 적외선 조명을 이용한 시선 추적 모듈을 부착하고, 이를 통해 획득한 눈 영상의 2차원적인 분석과 간단한 사용자 캘리브레이션 과정을 통해 시선 위치를 파악하는 방법을 제안한다. HMD는 사용자의 얼굴 움직임과 함께 움직이므로, 얼굴움직임에 영향을 받지 않는 시선 추적 시스템을 구현할 수 있다. 또한, 시선 추적 시스템을 3차원 1인칭 슈팅 게임에 적응하여, 캐릭터의 시선 방향을 조정하고, 적 캐릭터를 조준하여 사격이 가능하도록 하여, 게임의 몰입감과 흥미성을 높일 수 있게 하였다. 실험 결과, 한 대의 데스크톱 컴퓨터 환경에서 게임과 시선 추적 시스템이 실시간으로 동작 가능했으며, 약 $0.88^{\circ}$의 시선 위치 추출 오차를 보였다. 또한 3차원 1인칭 슈팅게임에서 일반 마우스의 역할을 시선 추적 시스템이 문제없이 대신할 수 있음을 확인하였다.

Automatic Person Identification using Multiple Cues

  • Swangpol, Danuwat;Chalidabhongse, Thanarat
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1202-1205
    • /
    • 2005
  • This paper describes a method for vision-based person identification that can detect, track, and recognize person from video using multiple cues: height and dressing colors. The method does not require constrained target's pose or fully frontal face image to identify the person. First, the system, which is connected to a pan-tilt-zoom camera, detects target using motion detection and human cardboard model. The system keeps tracking the moving target while it is trying to identify whether it is a human and identify who it is among the registered persons in the database. To segment the moving target from the background scene, we employ a version of background subtraction technique and some spatial filtering. Once the target is segmented, we then align the target with the generic human cardboard model to verify whether the detected target is a human. If the target is identified as a human, the card board model is also used to segment the body parts to obtain some salient features such as head, torso, and legs. The whole body silhouette is also analyzed to obtain the target's shape information such as height and slimness. We then use these multiple cues (at present, we uses shirt color, trousers color, and body height) to recognize the target using a supervised self-organization process. We preliminary tested the system on a set of 5 subjects with multiple clothes. The recognition rate is 100% if the person is wearing the clothes that were learned before. In case a person wears new dresses the system fail to identify. This means height is not enough to classify persons. We plan to extend the work by adding more cues such as skin color, and face recognition by utilizing the zoom capability of the camera to obtain high resolution view of face; then, evaluate the system with more subjects.

  • PDF

딥러닝 기반 터널 내 이동체 자동 추적 및 유고상황 자동 감지 프로세스 개발 (Development of a deep-learning based automatic tracking of moving vehicles and incident detection processes on tunnels)

  • 이규범;신휴성;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제20권6호
    • /
    • pp.1161-1175
    • /
    • 2018
  • 도로 터널의 주행은 시야의 제한으로 인해 유고상황이 발생한 후 2차 대형사고로 이어지기 쉽다. 따라서, 유고상황 발생 즉시, 상황을 자동 감지하여 신속히 초동대응이 이루어 져야 한다. 유고상황을 자동으로 감시할 수 있는 시스템은 기존에도 존재했지만, 폐합된 터널 내 열악 환경에서 촬영되는 CCTV 영상의 질적 한계로 인해 유고상황을 제대로 감지하지 못했다. 이러한 한계를 극복하기 위해 딥러닝을 기반으로 한 터널 영상유고 자동 감지 시스템을 개발하였으며, 지난 2017년 11월 딥러닝 객체 인식 네트워크에 대한 연구를 진행하여 우수한 객체인식 성능을 보인바 있다. 그러나 객체인식은 정지영상 기반으로 수행되므로 이동체의 이동방향과 속도를 알 수 없어, 정차 및 역주행 등 이동체의 이동특성에 따른 유고상황을 판단하기 힘들다. 본 논문에서는 객체인식으로 감지된 이동체의 객체정보를 기반으로 별도의 객체추적기법을 적용하여 이동체의 이동 특성을 자동으로 추적하는 프로세스를 제안하였다. 이를 통해 얻어진 이동체의 이동 방향과 속도 정보를 기반으로 정차 및 역주행을 판별하는 알고리즘을 개발하여 딥러닝 기반 터널 영상유고 자동감지 시스템을 완성하였다. 또한, 유고상황이 포함된 영상들에 대하여 유고상황 감지성능을 검증하였다. 검증 실험 결과, 화재, 정차와 역주행 상황에 대해서는 모두 100% 수준으로 완전한 유고상황 감지성능을 보였으나, 보행자 발생 상황에서는 78.5%로 상대적으로 낮은 성능을 보였다. 하지만, 향후 지속적인 영상유고 영상 빅데이터를 확장해 나가고 주기적인 재학습을 통해 유고상황에 대한 인지성능을 향상시켜 나갈 수 있을 것이다.