• 제목/요약/키워드: video tracking

검색결과 609건 처리시간 0.03초

스포츠 동영상의 모자익을 위한 이동계수의 계층적 향상 (Hierrachical manner of motion parameters for sports video mosaicking)

  • 이재철;이수종;고영훈;노흥식;이완주
    • 정보학연구
    • /
    • 제7권2호
    • /
    • pp.93-104
    • /
    • 2004
  • 스포츠 중계 영상과 같은 동영상은 카메라의 줌과 팬에 의한 화면 전역 이동이 크게 발생하며, 적은 수의 특징점 및 다수의 불규칙 운동 개체들로 인하여 이동 해석이 매우 어렵다. 본 논문에서는 이러한 다이나믹한 동영상의 전역 이동 계수를 추출하기 위한 새로운 알고리듬을 제안하고, 이를 개체 추적 시스템에서의 이동 보상과 파노라마 합성에 이용할 수 있도록 하였다. 인접 프레임 사이의 이동을 연속적으로 적용할 때, 누적되는 오차를 최소화하기 위하여, 다중 프레임 간의 이동으로부터, 사이 프레임들 간의 이동을 보간하는 방법을 제안하였다. 여기서 아핀 변환 또는 원근 투영 변환을 하나의 정방 행렬로 보고, 미소 이동을 갖는 행렬의 거듭제곱으로 분할하는 문제를 제시하고, 뉴튼 랩슨 방법을 벡터와 행렬 행태로 변형하여 풀이하는 방법을 제안하였고 매우 효율적으로 계산할 수 있음을 보였다. 이를 다수의 프레임 사이에서 재 계산된 이동과의 오차의 분할에 이용하고, 같은 방법을 계층적으로 수행하는 이동 계수의 향상 방법을 제안하였다. 제안된 방법은 방송용 특수 효과의 연출과 비디오 인덱싱 등의 응용 분야에 활용할 수 있다.

  • PDF

드론기반 고속도로 교통조사분석 활용을 위한 기초연구 (Preliminary Study Related with Application of Transportation Survey and Analysis by Unmanned Aerial Vehicle(Drone))

  • 김수희;이재광;한동희;윤재용;정소영
    • 한국ITS학회 논문지
    • /
    • 제16권6호
    • /
    • pp.182-194
    • /
    • 2017
  • 그동안 교통관리에서 적용되던 드론 관련 연구는 도로나 차량을 검지하고 추적하는 연구가 대분이었다. 교통분야에서 영상이미지를 분석하는 목적은 기존 교통자료 수집체계(차량검지기, DSRC 등)의 한계를 극복하기 위함이다. 그런 의미에서 드론은 상당히 좋은 대안이나 최대 비행시간이 제한되어 있어 기존 수집체계를 대체하기 보다는 보완적 성격으로 활용되는 것이 타당하다. 따라서 교통조사분석을 위한 드론 활용방안에 대한 연구가 더 필요한 실정이다. 교통문제의 경우 특정 구간이나 지점에서 발생한 문제가 네트워크 전체로 확대되는 경우가 많아 드론을 이용하여 이러한 구간들에 대한 분석이 필요하다. 본 연구는 교통조사분석 활용을 위한 기초 연구로 드론으로 촬영된 고속도로 구간(800~1000m)을 단위 구간으로 분할하여 교통류 변수들을 추출하였다. 또한 영상기술의 발전으로 고고도에서 영상 촬영을 수행하였다.

DVB-T 시스템을 위한 효율적인 주파수 및 심볼동기 구조 (An efficient Frequency and Symbol Synchronization Scheme for DVB-T System)

  • 이형욱;김기윤;최형진
    • 한국통신학회논문지
    • /
    • 제27권2C호
    • /
    • pp.170-183
    • /
    • 2002
  • 본 논문에서는 OFDM(Orthogonal Frequency Division Multiplexing) 전송방식을 채택한 DVB-D(Digital Video Broadcasting-Terrestrial) 시스템의 효율적인 주파수 및 심볼 동기 구조를 제안하였다. 주파수 동기시 고려해야 할 사항은 정규화된 주파수 오프셋(실제 주파수 오프셋/부반송파 간격)의 소수부가 $\pm$0.5 부근에 위치할 때, 알고리즘의 추정 성능이 안정적이지 못하여 동기화에 필요한 심볼이 많이 요구된다는 점이다. 본 논문에서 제안하는 주파수 동기 구조는 대략적인 주파수 동기를 여러 심볼 동안 추정한 평균값을 이용하여 정규화된 주파수 오프셋의 소수부가 $\pm$0.5 부근에 위치할 때의 모호성을 해결하고, 대략과 미세 주파수 동기를 동시에 추정하여 보상하는 효율적인 구조이다. 또한 기존의 OFDM 심볼 동기 수행시 대략과 미세로 나누는 동기 구조를 변경하여 윈도우 오프셋이 항상 보호구간 내의 일정 범위 안으로 잔류하도록 만들어 대략적인 심볼 동기 만으로도 다중경로 페이딩 채널에서 시스템의 성능 열화 없이 하드웨어 구현이 용이한 심볼 동기 구조를 제안하였다. 그리고, 광범위한 시뮬레이션에 의해 본 제안 방식의 우수성을 증명하였다.

퍼지 시스템을 이용한 골프 스윙 분류 (Golf Swing Classification Using Fuzzy System)

  • 박준욱;곽수영
    • 방송공학회논문지
    • /
    • 제18권3호
    • /
    • pp.380-392
    • /
    • 2013
  • 본 논문에서는 키넥트와 퍼지 시스템을 이용하여 골프 스윙 동작을 7가지 구간으로 분류하는 방법을 제안한다. 퍼지 논리의 입력으로 골프 클럽과 클럽의 헤드 위치를 사용하였으며 이 정보는 키넥트로부터 획득한 골퍼의 관절 정보와 컬러 영상 정보로부터 검출하였다. 제안하는 방법은 크게 신체 관절 추출 모듈, 골프 클럽 검출 및 헤드 추적 모듈, 골프 스윙 동작 분류 모듈로 구성되어 있다. 신체 관절 추출 모듈은 키넥트 센서로부터 검출되는 신체 관절 정보 중 골프 클럽의 검출을 위해 손의 좌표를 추출한다. 두 번째 모듈에서는 손의 좌표를 기준으로 허프 직선 변환 알고리즘을 사용하여 골프 클럽과 골프 클럽의 헤드를 검출한다. 마지막으로 인식 오류를 줄이고 동작별 인식 성능을 향상시키기 위해 퍼지 시스템을 적용하여 골프 스윙 동작을 분류하였다. 실시간 골프 스윙 영상에 대해 제안한 방법의 성능 평가를 시행하였고 제안한 방법은 평균 85.2%의 골프 스윙 동작 분류 신뢰도를 보여줌을 확인하였다.

MRF 프레임워크 기반 비모수적 배경 생성 (Non-parametric Background Generation based on MRF Framework)

  • 조상현;강행봉
    • 정보처리학회논문지B
    • /
    • 제17B권6호
    • /
    • pp.405-412
    • /
    • 2010
  • 기존의 배경 생성방법은 주로 시간에 따른 context만을 이용해 복잡한 환경에서는 적용하기 힘들다. 이러한 단점을 해결하기 위해, 본 논문에서는 움직이는 물체를 포함하지 않는 배경 영상을 생성하기 위해 시간에 따른 context와 공간에 따른 context를 융합한 새로운 배경 생성 방법을 제안한다. 제안한 방법은 먼저 샘플링된 프레임 이미지를 m*n의 블록으로 나누고 각각의 블록을 고정 블록과 비고정 블록으로 나눈다. 비고정 블록에 대해서, 각 블록의 시간적 context와 공간적 context를 모델링하기 위해 MRF 프레임워크를 이용한다. MRF 프레임워크는 영상 픽셀과 연관된 특징과 같은 context에 독립된 entity를 모델링하는데 많이 이용되는 방법으로 본 논문에서는 비고정 블록에 대한 시간적 context와 공간적 context를 모델링하기 위해 이용된다. 실험결과는 제안한 방법이 기존의 시간에 따른 context만을 이용했을 경우보다 더 효율적임을 보여준다.

이동형 시선추적기를 활용한 초등교사의 과학 수업 분석 (Elementary Teacher's Science Class Analysis using Mobile Eye Tracker)

  • 신원섭;김장환;신동훈
    • 한국초등과학교육학회지:초등과학교육
    • /
    • 제36권4호
    • /
    • pp.303-315
    • /
    • 2017
  • The purpose of this study is to analyze elementary teachers' science class objectively and quantitatively using Mobile Eye Tracker. The mobile eye tracker is easy to wear in eyeglasses form. And experiments are collected in video form, so it is very useful for realizing objective data of teacher's class situation in real time. Participants in the study were 2 elementary teachers, and they are teaching sixth grade science in Seoul. Participants took a 40-minute class wearing a mobile eye tracker. Eye movements of participants were collected at 60 Hz, and the collected eye movement data were analyzed using SMI BeGaze 3.7. In this study, the area related to the class was set as the area of interest, we analyzed the visual occupancy of teachers. In addition, we analyzed the linguistic interaction between teacher and students. The results of the study are as follows. First, we analyze the visual occupancy of meaningful areas in teaching-learning activities by class stage. Second, the analysis of eye movements when teachers interacted with students showed that teacher A had a high percentage of students' faces, while teacher B had a high visual occupation in areas not related to classes. Third, the linguistic interaction of the participants were analyzed. Analysis areas include questions, attention-focused language, elementary science teaching terminology, daily interaction, humor, and unnecessary words. This study shows that it is possible to analyze elementary science class objectively and quantitatively through analysis of visual occupancy using mobile eye tracking. In addition, it is expected that teachers' visual attention in teaching activities can be used as an index to analyze the form of language interaction.

다중의 특징 분석을 통한 비 유사 영역의 자동적인 검출 (Automatic Detection of Dissimilar Regions through Multiple Feature Analysis)

  • 장석우;정명희
    • 한국산학기술학회논문지
    • /
    • 제21권2호
    • /
    • pp.160-166
    • /
    • 2020
  • 모바일 기반의 하드웨어 기술이 발전함에 따라 많은 종류의 응용 프로그램들이 개발되고 있다. 그리고 이런 응용프로그램들의 인터페이스가 올바르게 동작하는지를 자동으로 검사하려는 수요가 증가하고 있다. 본 논문에서는 입력되는 여러 가지 유형의 영상으로부터 주요한 특징의 비교 분석을 통해서 응용 프로그램의 실행 오류 화면을 강인하게 검출하는 접근 방법을 제시한다. 본 논문에서 제시된 방법에서는 먼저 입력되는 영상으로부터 영상을 대표하는 주요한 다중의 특징을 추출한다. 그런 다음, 추출된 다중의 특징의 차이를 비교함으로써 입력된 영상이 목표 영상과 동일한 정상적인 영상인지, 아니면 목표 영상과 유사하지만 서로 다른 오류 영상인지를 효과적으로 판단한다. 실험 결과에서는 제안된 알고리즘이 입력되는 다양한 종류의 영상으로부터 주요한 다중의 특징 비교를 통해서 정상적인 영상과 오류가 발생한 영상을 정확하게 검출한다는 것을 보여준다. 본 논문에서 제안된 접근 방법은 비디오 색인, 객체 검출 및 추적, 영상 감시 등과 같은 컴퓨터 비전과 관련된 많은 실제 응용 분야에서 유용하게 사용될 것으로 기대된다.

Automatic Person Identification using Multiple Cues

  • Swangpol, Danuwat;Chalidabhongse, Thanarat
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1202-1205
    • /
    • 2005
  • This paper describes a method for vision-based person identification that can detect, track, and recognize person from video using multiple cues: height and dressing colors. The method does not require constrained target's pose or fully frontal face image to identify the person. First, the system, which is connected to a pan-tilt-zoom camera, detects target using motion detection and human cardboard model. The system keeps tracking the moving target while it is trying to identify whether it is a human and identify who it is among the registered persons in the database. To segment the moving target from the background scene, we employ a version of background subtraction technique and some spatial filtering. Once the target is segmented, we then align the target with the generic human cardboard model to verify whether the detected target is a human. If the target is identified as a human, the card board model is also used to segment the body parts to obtain some salient features such as head, torso, and legs. The whole body silhouette is also analyzed to obtain the target's shape information such as height and slimness. We then use these multiple cues (at present, we uses shirt color, trousers color, and body height) to recognize the target using a supervised self-organization process. We preliminary tested the system on a set of 5 subjects with multiple clothes. The recognition rate is 100% if the person is wearing the clothes that were learned before. In case a person wears new dresses the system fail to identify. This means height is not enough to classify persons. We plan to extend the work by adding more cues such as skin color, and face recognition by utilizing the zoom capability of the camera to obtain high resolution view of face; then, evaluate the system with more subjects.

  • PDF

사용자의 얼굴과 카메라 영상 간의 호모그래피를 이용한 실시간 얼굴 움직임 추정 (Online Face Pose Estimation based on A Planar Homography Between A User's Face and Its Image)

  • 구 떠올라;이석한;두경수;최종수
    • 전자공학회논문지CI
    • /
    • 제47권4호
    • /
    • pp.25-33
    • /
    • 2010
  • 본 논문에서는 단일 카메라를 이용하여 얼굴의 움직임 정보를 추정하고 3차원 모델을 합성하기 위한 기법을 제안한다. 먼저 단일 카메라 입력 영상에서 사용자의 얼굴 영역 특징 점 취득을 위한 4개의 하부 이미지를 획득한다. 획득된 4개의 하부 이미지를 템플릿으로 사용하여 사용자 얼굴 영역의 정보를 추출하며, 이들 4개의 특징 점을 사용하여 사용자 얼굴과 카메라 영상 평면 사이의 사영 관계를 계산한다. 취득된 카메라 행렬로부터 얼굴의 움직임 정보인 이동과 회전 성분을 추정할 수 있으며, 이를 기반으로 3차원 모델의 자세 정보를 설정한 다음 이를 사용자 얼굴에 가상의 객체를 합성하기 위한 정보로 이용한다. 다양한 실험을 통하여 사용자 얼굴의 움직임에 대한 정보 추출의 정확도를 검증하였다.

이동 객체 좌표의 시간적 히스토그램 기반 행동패턴 분석 및 검색 디스크립터 설계 (Behavior Pattern Analysis and Design of Retrieval Descriptor based on Temporal Histogram of Moving Object Coordinates)

  • 이재광;이규원
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.811-819
    • /
    • 2017
  • 이동 객체 정보로 이루어진 디스크립터 및 시간적 히스토그램 기반 움직임 패턴 분석 알고리즘을 제안한다. 이동객체의 검출, 추적 및 분석을 위하여 배경으로부터 이동객체를 분리하는 배경학습을 수행한다. 무게중심의 좌표연관성을 이용하여 객체를 식별한 후 객체별로 추적한다. 시간적 히스토그램은 객체의 무게중심의 위치와 시간 정보를 이용해 움직임 특징 패턴을 정의한 것으로서 시간적 히스토그램으로부터 각 객체의 좌표정보와 비교하여 움직임특징 및 행동정보를 파악한다. 검출된 각 객체의 시작프레임, 종료프레임, 위치 등 행동정보를 연결리스트에 저장하여 관리한다. 저장된 정보들을 바탕으로 디스크립터를 작성하고 비디오 검색 알고리즘을 설계한다. 다양한 객체 이동 비디오에 대한 검색 실험을 통해 기존 방법보다 높은 검색 정확도를 보임을 확인하였다.