• 제목/요약/키워드: real time object tracking

검색결과 422건 처리시간 0.03초

영역 기반의 SAD 알고리즘과 광 BPEJTC를 이용한 실시간 스테레오 물체 추적 시스템 (Real-Time Stereo Object Tracking System using Area-based SAD Algorithm and Optical BPEJTC)

  • 이재수
    • 한국통신학회논문지
    • /
    • 제25권10B호
    • /
    • pp.1821-1831
    • /
    • 2000
  • 본 논문에서는 스테레오 물체추적 시스템의 새로운 접근 방법으로 영역기반의 정합인 SAD를 사용하여 복잡한 배경 및 전경에서 추적 물체를 인식하여 추출하고, 광 BPEJTC를 사용하여 주시각 및 카메라의 팬/틸트를 제어하는 실시간 스테레오 물체추적 시스템을 제안하였다. 본 논문에서 제안한 스테레오 물체 추적 시스템은 복잡한 배경 및 주위환경 변화에서도 추적 물체를 정확히 추출하여 적응적으로 스테레오 물체 추적이 가능함을 실험을 통해 확인하였으며, 광학적으로 구성함으로써 스테레오 자동 물체 추적기의 실시간적 구현 가능성을 제시하였다.

  • PDF

실시간 감시 시스템을 위한 사전 무학습 능동 특징점 모델 기반 객체 추적 (Non-Prior Training Active Feature Model-Based Object Tracking for Real-Time Surveillance Systems)

  • 김상진;신정호;이성원;백준기
    • 대한전자공학회논문지SP
    • /
    • 제41권5호
    • /
    • pp.23-34
    • /
    • 2004
  • 본 논문에서는 사전학습이 필요 없는 능동 특징점 모델(non-prior training active feature model; NPT AFM) 기반에서 광류(optical flow)를 이용한 객체추적 기술을 제안한다. 제안한 알고리듬은 비정형 객체에 대한 분석[1]에 초점을 두고 있으며, 실시간에서 NPT-AFM을 사용한 강건한 추적을 가능하게 한다. NPT-AFM 알고리듬은 관심 객체의 위치를 파악하는 과정 (localization)과 이전 프레임 정보와 현재 프레임 정보를 이용하여, 객체의 위치를 예측(prediction), 보정(correction)하는 과정으로 나눌 수 있다 위치 파악 과정에서는 움직임 분할(motion segmentation)을 수행한 후 개선된 Shi-Tomasi의 특징점 추적 알고리듬[2]을 사용 하였다. 예측 및 보정 과정에서는 광류 정보를 사용하여 특징점을 추적하고[3] 만약, 특징점이 적절히 추적 되지 않거나 추적에 실패하면 특징점들의 시간(temporal), 공간(spatial)적 정보를 이용하여 예측, 보정하게 된다. 객체의 형태 (shape)대신 특징점을 사용하였으며, 객체를 추적하는 과정에서 특징점들은 능동 특징점 모델(active feature model; AFM)을 위한 학습 집합(training sets)의 요소로 갱신된다. 실험결과, 제안한 NPT-AF% 기반 추적 알고리듬은 실시간에서 비정형 객체를 추적하는데 강건함을 보석준다.

고해상도 지능형 감시시스템을 위한 실시간 얼굴영역 추적 (Real-time face tracking for high-resolution intelligent surveillance system)

  • 권오현;김상진;김영욱;백준기
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 신호처리소사이어티 추계학술대회 논문집
    • /
    • pp.317-320
    • /
    • 2003
  • In this paper, we present real-time, accurate face region detection and tracking technique for an intelligent surveillance system. It is very important to obtain the high-resolution images, which enables accurate identification of an object-of-interest. Conventional surveillance or security systems, however, usually provide poor image quality because they use one or more fixed cameras and keep recording scenes without any clue. We implemented a real-time surveillance system that tracks a moving person using pan-tilt-zoom (PTZ) cameras. While tracking, the region-of-interest (ROI) can be obtained by using a low-pass filter and background subtraction. Color information in the ROI is updated to extract features for optimal tracking and zooming. The experiment with real human faces showed highly acceptable results in the sense of both accuracy and computational efficiency.

  • PDF

Real-time Zoom Tracking for DM36x-based IP Network Camera

  • Cong, Bui Duy;Seol, Tae In;Chung, Sun-Tae;Kang, HoSeok;Cho, Seongwon
    • 한국멀티미디어학회논문지
    • /
    • 제16권11호
    • /
    • pp.1261-1271
    • /
    • 2013
  • Zoom tracking involves the automatic adjustment of the focus motor in response to the zoom motor movements for the purpose of keeping an object of interest in focus, and is typically achieved by moving the zoom and focus motors in a zoom lens module so as to follow the so-called "trace curve", which shows the in-focus motor positions versus the zoom motor positions for a specific object distance. Thus, one can simply implement zoom tracking by following the most closest trace curve after all the trace curve data are stored in memory. However, this approach is often prohibitive in practical implementation because of its large memory requirement. Many other zoom tracking methods such as GZT, AZT and etc. have been proposed to avoid large memory requirement but with a deteriorated performance. In this paper, we propose a new zoom tracking method called 'Approximate Feedback Zoom Tracking method (AFZT)' on DM36x-based IP network camera, which does not need large memory by approximating nearby trace curves, but generates better zoom tracking accuracy than GZT or AZT by utilizing focus value as feedback information. Experiments through real implementation shows the proposed zoom tracking method improves the tracking performance and works in real-time.

모폴로지 기반의 차영상 분석기법을 이용한 균열검출의 인식 (The Recognition of Crack Detection Using Difference Image Analysis Method based on Morphology)

  • 변태모;김장형;김형수
    • 한국정보통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.197-205
    • /
    • 2006
  • 본 논문에서는 비젼 시스템을 이용하여 이동 물체를 추적하는 방법을 제안하였다. 이동 물체를 계속적으로 추적하기 위해서는 이동 물체의 영상이 화상의 중심점 부근에 위치하도록 해야 한다. 따라서 이동 물체의 영상이 화상의 중심점의 부근에 위치하도록 하기 위하여 팬/틸트(Pan/Tilt)구조의 카메라 모듈을 제어하는 퍼지 제어기를 구현하였다. 향후, 시스템을 이동로봇에 적용하기 위하여 비젼 시스템을 위한 영상처리보드를 설계 제작하였고, 대상물체의 색상과 형태를 파악한 후 퍼지 제어기를 이용하여 카메라모듈이 물체를 추적할 수 있도록 StrongArm 보드를 이용하여 구성하였다. 그리고, 실험에 의해서 제안된 퍼지 제어기 가 실시간 이동물체 추적 시스템에 적용 가능함을 확인 하였다.

이동 물체를 실시간으로 추적하기 위한 Sensory-Motor System 설계 (The Design of the Sensory-Motor System for Real Time Object Tracking)

  • 이상희;동성수;이종호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 하계학술대회 논문집 D
    • /
    • pp.2780-2782
    • /
    • 2002
  • In this paper Valentine Braitenberg structure based sensory motor model for object tracking control system was proposed. Conventional model based control schemes are require highly non-linear mathematical models, which require long computational time to solve complex high order equations. Contrast to conventional models proposed system simply link signal data from camera directly to the inputs of neural network, and outputs of network are directly fed into input of motor driver of camera. With simple structure of sensory motor model, real time tracking control system for dynamic object was realized successfully, and the implementation of sensory motor model can overcome the limitation of model-based control schemes.

  • PDF

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

움직임 추정 능동 방사선 기반 고속 객체 추적 (Motion-Estimated Active Rays-Based Fast Moving Object Tracking)

  • 라정중;서경석;최흥문
    • 대한전자공학회논문지SP
    • /
    • 제42권3호
    • /
    • pp.15-22
    • /
    • 2005
  • 객체 중심점에서 움직임을 추정하여 빠르게 이동하는 객체의 윤곽선을 추적 할 수 있는 알고리듬을 제안하였다. 방사상 표현(radial representation) 방식을 적용하여 객체 중심점에서만 블록정합 (block matching) 알고리듬으로 움직임을 추정하여 적은 계산량으로 객체 움직임을 추정함으로써 객체 윤곽선을 추적하였다. 객체의 움직임을 추정함으로써 프레임 간 객체의 움직임이 객체 중심에서 윤곽까지 거리 이상 빠르게 이동하는 객체도 추적할 수 있다. 에너지 수렴 과정에서 기울기 영상과 차영상(difference image)을 에너지 함수로 함께 사용함으로 복잡한 배경 등에도 강건하도록 하였다. 실험 결과 움직임이 빠른 객체와 복잡한 배경 속의 객체도 실시간으로 강건하게 추적함을 확인하였다.

비모수적 차영상과 칼만 필터를 이용한 실시간 객체 추적 알고리즘의 구현 (Implementation of Real-time Object Tracking Algorithm based on Non-parametric Difference Picture and Kalman Filter)

  • 김영주;김광백
    • 한국통신학회논문지
    • /
    • 제28권10C호
    • /
    • pp.1013-1022
    • /
    • 2003
  • 본 논문은 연속적인 영상에 대해 비모수적 영상 처리 기법과 칼만 필터 기반의 동적 AR(2) 프로세스 기법을 적용하여 객체의 움직임을 적응적으로 추적하는 실시간 객체 추적 알고리즘을 구현하였다. 다양한 환경 조건에서 입력되는 영상에 대해 비모수적 영상 처리 기법을 이용하여 처리함으로써 효과적으로 움직임 객체를 추출하였으며, 객체의 움직임을 동적 AR(2) 프로세스 모형으로 모델링하고 동적으로 변하는 AR(2) 프로세스의 파라미터를 칼만 필터를 통해 추정함으로써 객체의 다변적인 움직임을 적응적으로 예측하여 추적할 수 있었다. 구현된 객체 추적 시스템을 실험한 결과, 기존의 선형 칼만 필터 기법을 이용한 추적 기법과 비교하여 추정 오차가 약 1/2.5∼1/50 만큼 더 적게 나와 객체의 움직임을 더 근사적으로 추적함을 알 수 있었다.

Kinematic Method of Camera System for Tracking of a Moving Object

  • Jin, Tae-Seok
    • Journal of information and communication convergence engineering
    • /
    • 제8권2호
    • /
    • pp.145-149
    • /
    • 2010
  • In this paper, we propose a kinematic approach to estimating the real-time moving object. A new scheme for a mobile robot to track and capture a moving object using images of a camera is proposed. The moving object is assumed to be a point-object and projected onto an image plane to form a geometrical constraint equation that provides position data of the object based on the kinematics of the active camera. Uncertainties in the position estimation caused by the point-object assumption are compensated using the Kalman filter. To generate the shortest time path to capture the moving object, the linear and angular velocities are estimated and utilized. The experimental results of tracking and capturing of the target object with the mobile robot are presented.