• Title/Summary/Keyword: 영상 추적

Search Result 2,356, Processing Time 0.039 seconds

Multi-Small Target Tracking Algorithm in Infrared Image Sequences (적외선 연속 영상에서 다중 소형 표적 추적 알고리즘)

  • Joo, Jae-Heum
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.14 no.1
    • /
    • pp.33-38
    • /
    • 2013
  • In this paper, we propose an algorithm to track multi-small targets in infrared image sequences in case of dissipation or creation of targets by using the background estimation filter, Kahnan filter and mean shift algorithm. We detect target candidates in a still image by subtracting an original image from an background estimation image, and we track multi-targets by using Kahnan filter and target selection. At last, we adjust specific position of targets by using mean shift algorithm In the experiments, we compare the performance of each background estimation filters, and verified that proposed algorithm exhibits better performance compared to classic methods.

A Tracking Method of Robust Lip Movement Image Regions for Blocking the External Acoustic Noise (외부응향잡음 차단을 위한 강인한 입술움직임 영상영역 추적방법)

  • Kim, Eung-Kyeu
    • Proceedings of the KIEE Conference
    • /
    • 2009.07a
    • /
    • pp.1913_1914
    • /
    • 2009
  • 본 논문에서 조명환경하에서 음성/영상 연동시스템을 통해서 외부음향잡음의 차단을 위한 강인한 입술움직임 영상영역을 추적하는 한 가지 방법을 제안한다. 조명환경하에서 강인한 입술움직임 영상영역을 추적하기 위해 온라인상에서 입술움직임 표준영상을 수집하였고 다양한 조명환경에 적응하는 입술 움직임 영상의 특징들을 추출하였다. 동시에 온라인 템플릿 영상을 획득하였고, 이 영상들을 템플릿 정합을 위해 사용했다. 음성/영상처리시스템의 연동결과, 다양한 조명환경하에서 그 연동률을 99.3%까지 높일 수 있었고 음향잡음에 의한 음성인식 실행을 원천적으로 차단할 수 있었다.

  • PDF

Moving object tracking method for mulimedia telecommunication interface (멀티미디어 통신 인터페이스를 위한 동영상 내의 물체 추적 방법)

  • 조영기;이성룡
    • Proceedings of the Korean Operations and Management Science Society Conference
    • /
    • 1996.04a
    • /
    • pp.593-596
    • /
    • 1996
  • 멀티미디어 통신기술을 이용한 통신 환경의 구축은 초고속, 광대역으로 발전하는 통신기술의 발전과 날로 고도화 되는 컴퓨터 기술의 발달에 힘입어 그 적용범위가 확산되고 있다. 특히 이러한 환경에서 동영상의 통신은 기존의 문자, 그래픽 혹은 정지화상을 이용한 통신에서 보다는 더욱 많은 정보를 사용자에게 이해하기 쉽게 전달한다는 점에서 그 응용분야가 증대되고 있다. 그러나 기존의 동영상 통신에서는 동영상이 화상회의 등의 예에서 보듯이 사용자에게 단순히 영상정보를 제공하는 수단으로서만 이용이 되었다. 진정한 의미의 양방향 통신을 위해서는 이러한 동영상에 대한 사용자의 제어가 가능한 인터페이스가 필요한데, 본 연구에서는 이러한 인터페이스의 구축을 위한 기반기술로써 동영상내의 물체 추적방법에 대해 소개한다. 개발된 방법은 영상의 밝기나 형태변화에 민감하지 않고 추적물체의 모델링을 자동적으로 할 수 있다는 점에서 기존의 영상처리 방법과는 구별된다.

  • PDF

Particle Filter Based Feature Points Tracking for Vision Based Navigation System (영상기반항법을 위한 파티클 필터 기반의 특징점 추적 필터 설계)

  • Won, Dae-Hee;Sung, Sang-Kyung;Lee, Young-Jae
    • Journal of the Korean Society for Aeronautical & Space Sciences
    • /
    • v.40 no.1
    • /
    • pp.35-42
    • /
    • 2012
  • In this study, a feature-points-tracking algorithm is suggested using a particle filter for vision based navigation system. By applying a dynamic model of the feature point, the tracking performance is increased in high dynamic condition, whereas a conventional KLT (Kanade-Lucas-Tomasi) cannot give a solution. Futhermore, the particle filter is introduced to cope with irregular characteristics of vision data. Post-processing of recorded vision data shows that the tracking performance of suggested algorithm is more robust than that of KLT in high dynamic condition.

Object Detection and Tracking with Infrared Videos at Night-time (야간 적외선 카메라를 이용한 객체 검출 및 추적)

  • Choi, Beom-Joon;Park, Jang-Sik;Song, Jong-Kwan;Yoon, Byung-Woo
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.10 no.2
    • /
    • pp.183-188
    • /
    • 2015
  • In this paper, it is proposed to detect and track pedestrian and analyse tracking performance with nighttime CCTV video. The detection is performed by a cascade classifier with Haar-like feature trained with Adaboost algorithm. Tracking pedestrian is performed by a particle filter. As results of experiments, it is introduced that efficient number of particles and the distributions are applied to track pedestrian at the night-time. Performance of detection and tracking is verified with nighttime CCTV video that is obtained at alleys etc.

Fingerprint Classification Using Core Points and Flow-line Tracing (Core point와 Flow-line 추적을 이용한 지문 영상의 분류)

  • 박철현;오상근;이경환;김현순;박길흠
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.4B
    • /
    • pp.505-513
    • /
    • 2001
  • 지문영상의 분류는 데이터베이스의 용량이 클 경우 검색시간을 효율적으로 단축시킬 수 있는 핵심적인 기술이다. 따라서 본 논문에서 core point 와 flow-line 추적을 이용한 효율적인 지문 영상 분류 기법을 제안한다. 제안한 방법은 특히 압착 날인된 지문 영상의 분류에 적합한 방법으로 크게 2단계로 이루어져 있다. 첫 번째 단계에서는 먼저 Poincare index를 이용하여 core point를 찾아내고 이를 바탕으로 개략적인 분류를 수행한다. 그 다음 두 번째 단계에서는 core point를 중심으로 flow-line을 추적하여 그 결과를 가지고 세부적인 분류를 수행한다. 세부분류 단계에서는 평활화된 블록의 방향정보를 이용한 효과적인 flow-line 추적 알고리즘과 이를 이용한 새로운 분류 방법이 제안된다. 제안한 방법은 회전이나 이동 그리고 약간의 잡음에 강인한 지문 분류 방법으로 지문입력기를 통하여 획득된 700장의 지문 영상에 적용해 본 결과 93.6%의 분류율을 나타내었다.

  • PDF

An Object-based Tracking Scheme for Interactive HyperVideo (대화형 하이퍼 비디오 저작을 위한 객체 기반 추적 방법)

  • 황본우;손형진;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.427-429
    • /
    • 2001
  • 컴퓨터 비전 기술을 이용한 효과적인 객체 추적 기술은 인공 시각, 컴퓨터와 인간의 상호작용(HCI), 영상 기반 제어 장치, 감시 시스템 등 다양한 분야의 응용에 있어 중요한 연구 과제이다. 특히 최근 들어 초고속 통신망의 보급으로 인해 인터넷 방송과 같은 실시간 동영상 전송 기술이 가능해 짐에 따라 단순한 텍스트와 정지영상을 제공하는 하이퍼텍스트 환경에서 사운드를 포함하는 동영상 데이터를 제공하는 하이퍼미디어 환경으로 변하고 있다. 이러한 하이퍼미디어 환경에서의 객체 추적은 객체 단위의 링크가 가능한 하이퍼비디오 구현에 있어서 필수적이다. 따라서 본 논문에서는 다양한 동영상 데이터 상의 객체를 효과적으로 추적하는 알고리즘을 제안하고자 한다.

  • PDF

Lane Violation Detection Using Corner-Feature Tracking (특징점 추적을 이용한 끼어들기 위반차량 감지)

  • Jeong, Sung-Hwan;Lee, Hee-Sin;Lee, Joonwhoan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.740-743
    • /
    • 2010
  • 본 논문에서는 컴퓨터 비젼에서 특징점 추적을 이용한 끼어들기 위반차량 검지 방법을 제안한다. 제안된 끼어들기 위반차량 검지 시스템의 전체적인 알고리즘은 영상 변환 및 전처리, 특징 추출, 추적대상 차량의 특징점 등록 및 추적, 끼어들기 위반차량 검지 등의 단계로 구성된다. 특히 형태학적 기울기 영상에서 특징점을 추출하므로 써 주간 및 야간 영상에 대해 동일한 알고리즘을 적용하여 그림자, 기상 조건, 차량 전조등 및 조명 등에 강인한 실시간성이 가능한 영상 검지 시스템을 구성 한다. 제안한 시스템을 끼어들기 금지구간에서 주간, 야간, 비 오는 날 야간에 취득한 영상을 사용하여 실험한 결과 정인식률 99.49%와 오류율 0.51%를 보였으며, 실시간처리에 문제가 없는 초당 91.34프레임의 빠른 처리속도를 나타냈다.

Tracking of Single Moving Object based on Motion Estimation (움직임 추정에 기반한 단일 이동객체 추적)

  • Oh Myoung-Kwan
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.6 no.4
    • /
    • pp.349-354
    • /
    • 2005
  • The study on computer vision is aimed on creating a system to substitute the ability of human visual sensor. Especially, moving object tracking system is becoming an important area of study. In this study, we have proposed the tracking system of single moving object based on motion estimation. The tracking system performed motion estimation using differential image, and then tracked the moving object by controlling Pan/Tilt device of camera. Proposed tracking system is devided into image acquisition and preprocessing phase, motion estimation phase and object tracking phase. As a result of experiment, motion of moving object can be estimated. The result of tracking, object was not lost and tracked correctly.

  • PDF

Robot vision system for face tracking using color information from video images (로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적)

  • Jung, Haing-Sup;Lee, Joo-Shin
    • Journal of Advanced Navigation Technology
    • /
    • v.14 no.4
    • /
    • pp.553-561
    • /
    • 2010
  • This paper proposed the face tracking method which can be effectively applied to the robot's vision system. The proposed algorithm tracks the facial areas after detecting the area of video motion. Movement detection of video images is done by using median filter and erosion and dilation operation as a method for removing noise, after getting the different images using two continual frames. To extract the skin color from the moving area, the color information of sample images is used. The skin color region and the background area are separated by evaluating the similarity by generating membership functions by using MIN-MAX values as fuzzy data. For the face candidate region, the eyes are detected from C channel of color space CMY, and the mouth from Q channel of color space YIQ. The face region is tracked seeking the features of the eyes and the mouth detected from knowledge-base. Experiment includes 1,500 frames of the video images from 10 subjects, 150 frames per subject. The result shows 95.7% of detection rate (the motion areas of 1,435 frames are detected) and 97.6% of good face tracking result (1,401 faces are tracked).