• 제목/요약/키워드: temporal segmentation

검색결과 107건 처리시간 0.025초

시공간 영상분할을 이용한 이동 및 이동 중 정지물체 검출 (Detection of Objects Temporally Stop Moving with Spatio-Temporal Segmentation)

  • 김도형;김경환
    • 한국통신학회논문지
    • /
    • 제40권1호
    • /
    • pp.142-151
    • /
    • 2015
  • 본 논문에서는 이동 카메라 환경에서 이동 및 이동 중 정지물체를 검출하기 위한 방법을 제안한다. 이동 중에 일시적으로 정지한 물체는 검출 결과의 응용관점에서 볼 때 이동물체의 검출만큼이나 중요한데, 기존의 이동물체 검출 방법들은 이들을 배경과 구분하지 못하는 한계를 갖는다. 이러한 문제를 해결하기 위해 제안하는 방법에서는 이동 가능성 큐, 위치 가능성 큐, 그리고 색 분포 유사성 큐를 정의하여 이동물체 검출 및 지속적인 추적에 이용한다. 그래프 컷 알고리즘은 세 개의 큐를 결합하여 시공간 영상분할을 수행함으로써 이동 및 이동 중 정지물체를 검출한다. 제안하는 방법은 이동물체 뿐 아니라 이동 중 정지물체에 대해서도 검출이 가능함을 실험을 통해 증명하였다.

Normalized Cuts을 이용한 그래프 기반의 하이레벨 모션 분할 (Graph-based High-level Motion Segmentation using Normalized Cuts)

  • 윤성주;박안진;정기철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권11호
    • /
    • pp.671-680
    • /
    • 2008
  • 모션 캡쳐 장비는 사람의 자연스러운 행동이나 동작 정보를 정밀하게 얻기 위해 널리 이용되며, 영화나 게임과 같은 콘텐츠 제작 시에 자주 활용된다. 하지만 모션 캡쳐 장비가 고가이고 이용하기 불편하기 때문에 대부분의 경우 한번 입력받은 데이타를 모션별로 분할하고 상황에 맞게 재결합하여 이용하며, 입력 데이타를 모션별로 분할하는 작업은 대부분 수동으로 이루어진다. 이 때문에 캡쳐된 모션 데이타를 자동으로 분할하기 위한 연구들이 최근 다양하게 시도되고 있다. 기존의 연구들은 크게 각 프레임의 전역적 특징을 고려하는 오프라인 방법과 이웃하는 프레임 사이의 유사도를 고려하는 온라인 방법으로 나누어진다. 본 논문에서는 온라인과 오프라인 방법을 통합한 그래프 기반의 하이레벨 모션 분할 방법을 제안한다. 하이레벨 모션은 모션 내에서 반복되는 프레임을 포함하는 특징을 가지고 있다. 우리는 이 특징을 기반으로 이웃하는 프레임뿐만 아니라 일정시간내의 모든 프레임 사이의 유사도를 고려하는 그래프를 생성하며, 그래프의 정점(vertex)에는 프레임 정보를 간선(edge)의 가중치는 두 프레임 사이의 유사도를 반영한다. 그래프를 분할하기 위해 분할된 간선의 가중치를 전역적으로 최소화할 수 있는 normalized cuts을 이용하며, 분할된 정점의 집합은 하이레벨 모션을 의미한다. 결과적으로 제안된 방법은 이웃하는 프레임뿐만 아니라 일정시간내의 모든 프레임 사이의 유사도를 반영하는 그래프를 전역적으로 최소화함으로써 온라인과 오프라인 방법을 동시에 고려할 수 있으며, 실험에서 제안된 방법은 기존의 오프라인 방법 중 하나인 GMM과 온라인 방법 중 하나인 PEA를 이용한 방법보다 좋은 결과를 보였다

시공간 템플릿과 컨볼루션 신경망을 사용한 깊이 영상 기반의 사람 행동 인식 (Depth Image-Based Human Action Recognition Using Convolution Neural Network and Spatio-Temporal Templates)

  • 음혁민;윤창용
    • 전기학회논문지
    • /
    • 제65권10호
    • /
    • pp.1731-1737
    • /
    • 2016
  • In this paper, a method is proposed to recognize human actions as nonverbal expression; the proposed method is composed of two steps which are action representation and action recognition. First, MHI(Motion History Image) is used in the action representation step. This method includes segmentation based on depth information and generates spatio-temporal templates to describe actions. Second, CNN(Convolution Neural Network) which includes feature extraction and classification is employed in the action recognition step. It extracts convolution feature vectors and then uses a classifier to recognize actions. The recognition performance of the proposed method is demonstrated by comparing other action recognition methods in experimental results.

다중 구간 샘플링에 기반한 동적 배경 영상에 강건한 배경 제거 알고리즘 (A Robust Background Subtraction Algorithm for Dynamic Scenes based on Multiple Interval Pixel Sampling)

  • 이행기;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제19권2호
    • /
    • pp.31-36
    • /
    • 2020
  • Most of the background subtraction algorithms show good performance in static scenes. In the case of dynamic scenes, they frequently cause false alarm to "temporal clutter", a repetitive motion within a certain area. In this paper, we propose a robust technique for the multiple interval pixel sampling (MIS) algorithm to handle highly dynamic scenes. An adaptive threshold scheme is used to suppress false alarms in low-confidence regions. We also utilize multiple background models in the foreground segmentation process to handle repetitive background movements. Experimental results revealed that our approach works well in handling various temporal clutters.

인물 개체 분할을 위한 맥락-의존적 비디오 데이터 보강 (Context-Dependent Video Data Augmentation for Human Instance Segmentation)

  • 전현진;이종훈;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권5호
    • /
    • pp.217-228
    • /
    • 2023
  • 비디오 개체 분할은 비디오를 구성하는 영상 프레임 각각에 대해 관심 개체 분할을 수행해야 할 뿐만 아니라, 해당 비디오를 구성하는 프레임 시퀀스 전체에 걸쳐 개체들에 대한 정확한 트래킹을 요구하기 때문에 난이도가 높은 기술이다. 특히 드라마 비디오에서 인물 개체 분할은 다양한 장소와 시간대에서 상호 작용하는 복수의 주요 등장인물들에 대한 정확한 트래킹을 요구하는 특징을 가지고 있다. 또한, 드라마 비디오 인물 개체분할은 주연 인물들과 조연 혹은 보조 출연 인물들 간의 등장 빈도에 상당한 차이가 있어 일종의 클래스 불균형 문제도 있다. 본 논문에서는 미생 드라마 비디오들을 토대로 구축한 인물 개체 분할 데이터 집합인 MHIS를 소개하고, 등장인물 클래스 간의 심각한 데이터 불균형 문제를 효과적으로 해결하기 위한 새로운 비디오 데이터 보강 기법인 CDVA를 제안한다. 기존의 비디오 데이터 보강 기법들과는 달리, 새로운 CDVA 보강 기법은 비디오들의 시-공간적 맥락을 충분히 고려해서 목표 인물이 삽입되어야 할 배경 클립 내의 위치를 결정함으로써, 보다 더 현실적인 보강 비디오들을 생성한다. 따라서 본 논문에서 제안하는 새로운 비디오 데이터 보강 기법인 CDVA는 비디오 개체 분할을 위한 심층 신경망 모델의 성능을 효과적으로 향상시킬 수 있다. 본 논문에서는 MHIS 데이터 집합을 이용한 다양한 정량 및 정성 실험들을 통해, 제안 비디오 데이터 보강 기법의 유용성과 효과를 입증한다.

실시간 감시 시스템을 위한 사전 무학습 능동 특징점 모델 기반 객체 추적 (Non-Prior Training Active Feature Model-Based Object Tracking for Real-Time Surveillance Systems)

  • 김상진;신정호;이성원;백준기
    • 대한전자공학회논문지SP
    • /
    • 제41권5호
    • /
    • pp.23-34
    • /
    • 2004
  • 본 논문에서는 사전학습이 필요 없는 능동 특징점 모델(non-prior training active feature model; NPT AFM) 기반에서 광류(optical flow)를 이용한 객체추적 기술을 제안한다. 제안한 알고리듬은 비정형 객체에 대한 분석[1]에 초점을 두고 있으며, 실시간에서 NPT-AFM을 사용한 강건한 추적을 가능하게 한다. NPT-AFM 알고리듬은 관심 객체의 위치를 파악하는 과정 (localization)과 이전 프레임 정보와 현재 프레임 정보를 이용하여, 객체의 위치를 예측(prediction), 보정(correction)하는 과정으로 나눌 수 있다 위치 파악 과정에서는 움직임 분할(motion segmentation)을 수행한 후 개선된 Shi-Tomasi의 특징점 추적 알고리듬[2]을 사용 하였다. 예측 및 보정 과정에서는 광류 정보를 사용하여 특징점을 추적하고[3] 만약, 특징점이 적절히 추적 되지 않거나 추적에 실패하면 특징점들의 시간(temporal), 공간(spatial)적 정보를 이용하여 예측, 보정하게 된다. 객체의 형태 (shape)대신 특징점을 사용하였으며, 객체를 추적하는 과정에서 특징점들은 능동 특징점 모델(active feature model; AFM)을 위한 학습 집합(training sets)의 요소로 갱신된다. 실험결과, 제안한 NPT-AF% 기반 추적 알고리듬은 실시간에서 비정형 객체를 추적하는데 강건함을 보석준다.

KOMPSAT 영상을 활용한 SLIC 계열 Superpixel 기법의 최적 파라미터 분석 및 변화 탐지 성능 비교 (Optimal Parameter Analysis and Evaluation of Change Detection for SLIC-based Superpixel Techniques Using KOMPSAT Data)

  • 정민경;한유경;최재완;김용일
    • 대한원격탐사학회지
    • /
    • 제34권6_3호
    • /
    • pp.1427-1443
    • /
    • 2018
  • 객체 기반 영상 분석은 영상의 복잡도를 낮추는 동시에 영상의 특성을 유지한다는 점에서 픽셀 기반 영상 분석보다 높은 효율성과 정보 활용 가능성을 지닌다. Superpixel은 일반적인 영상 분할보다 작은 영상 단위로 영상을 과분할함으로써 영상 내의 경계를 보다 잘 유지할 수 있다. 이 가운데 SLIC(Simple linear iterative clustering) superpixel 기법은 기존의 기법들보다 높은 품질의 영상 분할 결과를 제시하는 것으로 알려져 있다. 이러한 SLIC 기법의 입력 파라미터인 superpixel의 개수는 영상 분할 결과에 큰 영향을 미침에도 이에 대한 연구는 선행 연구에서 충분히 다루어지지 않았다. 이에 본 연구에서는 KOMPSAT 영상을 이용하여 변화 탐지 활용 연구를 위한 SLIC 계열 superpixel 기법의 최적 파라미터 분석 및 변화 탐지 성능 비교를 수행하였다. 사용된 superpixel 기법은 SLIC, SLIC0(SLIC의 무변수 버전), SNIC(Simple non-iterative clustering) 의 세 가지 기법으로, $5{\times}5$(픽셀)에서 $50{\times}50$(픽셀)의 superpixel 크기 범위에 대해서 superpixel 개수를 지정하여 superpixel 분할 영상을 생성하고 변화 탐지 참조 영상에 대한 재현율을 분석하였다. 이를 통해 얻어진 최적 superpixel 크기를 바탕으로 변화를 탐지하고자 하는 두 영상의 차 영상을 분할한 후 일정 크기의 객체로 clustering하였다. 두 시기(bi-temporal) 영상으로부터 얻어진 공통된 영상경계는 전후 영상에 각각 적용함으로써 각 superpixel의 feature(Lab 색상 차이) 변화를 탐지하였다. 최종적인 변화 탐지 결과는 참조 영상을 통해 그 성능이 분석하였으며, 영상의 과분할 정도가 높지 않더라도 규칙적인 크기와 형태의 superpixel을 통해 높은 변화 탐지 성능을 달성할 수 있음을 확인하였다.

The Effect of Acoustic Correlates of Domain-initial Strengthening in Lexical Segmentation of English by Native Korean Listeners

  • Kim, Sa-Hyang;Cho, Tae-Hong
    • 말소리와 음성과학
    • /
    • 제2권3호
    • /
    • pp.115-124
    • /
    • 2010
  • The current study investigated the role of acoustic correlates of domain-initial strengthening in lexical segmentation of a non-native language. In a series of cross-modal identity-priming experiments, native Korean listeners heard English auditory stimuli and made lexical decision to visual targets (i.e., written words). The auditory stimuli contained critical two word sequences which created temporal lexical ambiguity (e.g., 'mill#company', with the competitor 'milk'). There was either an IP boundary or a word boundary between the two words in the critical sequences. The initial CV of the second word (e.g., [$k_{\Lambda}$] in 'company') was spliced from another token of the sequence in IP- or Wd-initial positions. The prime words were postboundary words (e.g., company) in Experiment 1, and preboundary words (e.g., mill) in Experiment 2. In both experiments, Korean listeners showed priming effects only in IP contexts, indicating that they can make use of IP boundary cues of English in lexical segmentation of English. The acoustic correlates of domain-initial strengthening were also exploited by Korean listeners, but significant effects were found only for the segmentation of postboundary words. The results therefore indicate that L2 listeners can make use of prosodically driven phonetic detail in lexical segmentation of L2, as long as the direction of those cues are similar in their L1 and L2. The exact use of the cues by Korean listeners was, however, different from that found with native English listeners in Cho, McQueen, and Cox (2007). The differential use of the prosodically driven phonetic cues by the native and non-native listeners are thus discussed.

  • PDF

Intonational Pattern Frequency of Seoul Korean and Its Implication to Word Segmentation

  • Kim, Sa-Hyang
    • 음성과학
    • /
    • 제15권2호
    • /
    • pp.21-30
    • /
    • 2008
  • The current study investigated distributional properties of the Korean Accentual Phrase and their implication to word segmentation. The properties examined were the frequency of various AP tonal patterns, the types of tonal patterns that are imposed upon content words, and the average number and temporal location of content words within the AP. A total of 414 sentences from the Read speech corpus and the Radio corpus were used for the data analysis. The results showed that the 84% of the APs contained one content word, and that almost 90% of the content words are located in AP-initial position. When the AP-initial onset was not an aspirated or tense consonant, the most common AP patterns were LH, LHH, and LHLH (78%), and 88% of the multisyllabic content words start with a rising tone in AP-initial position. When the AP-initial onset was an aspirated or tense consonant, the most common AP patterns were HH, HHLH, and HHL (72%), and 74% of the multisyllabic content words start with a level H tone in AP-initial position. The data further showed that 84.1% of APs end with the final H tone. The findings provide valuable information about the prosodic pattern and structure of Korean APs, and account for the results of a previous study which showed that Korean listeners are sensitive to AP-initial rising and AP-final high tones (Kim, 2007). This is in line with other cross-linguistic research which has revealed the correlation between prosodic probability and speech processing strategy.

  • PDF

시공간 정보를 이용한 동영상 객체 분할 기법 (Video Object Segmentation Method Using Spatio-Temporal Information)

  • 오혁;최환수;정동석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.349-352
    • /
    • 2000
  • 영상으로부터 의미있는 객체를 영역화하기 위하여, 움직임에 의한 시간적 정보를 이용하거나, 형태학적(Morphological) 기법과 같이 공간적 정보를 이용하는 방법이 있다. 그러나, 단지 시간적 정보나 공간적 정보만을 이용하는 방법은 그 한계를 가지고 있으며, 본 논문에서는 시공간 정보를 이용하여 분할하는 방법을 채택하였다. 시간적 분할에서는, 두 프레임에서 움직임 정보를 찾아내었던 기존 방법을 보완하여 연속되는 세 프레임을 사용하도록 하였다. 이렇게 하면 움직임이 미세한 영상에 대해서도 객체를 분리해 낼 가능성을 높일 수 있게 된다. 공간적 분할시에는, Watershed 알고리즘을 이용하는 형태학적 분할(Morphological Segmentation)[1][2]을 하게 되는데, 전처리 과정의 단일척도경사(Monoscale Gradient) 대신 다중척도 경사(Multiscale Gradient)[3][4]를 사용하여 미세한 경사는 누그러뜨리고 에지 부분의 경사만을 강조하게 하였다. 또한 개선된 Watershed 알고리즘을 제안하여 기존의 Watershed 알고리즘의 과분할 문제를 보완하였다.

  • PDF