Abstract
Affective computing plays an important role in intelligent Human Computer Interactions(HCI). To detect emotional events, it is desirable to construct a computing model for extracting emotion related features from video. In this paper, we propose a statistical model based on the probabilistic distribution of low level features in video shots. The proposed method extracts low level features from video shots and then from a GMM(Gaussian Mixture Model) for them to detect emotional shots. As low level features, we use color, camera motion and sequence of shot lengths. The features can be modeled as a GMM by using EM(Expectation Maximization) algorithm and the relations between time and emotions are estimated by MLE(Maximum Likelihood Estimation). Finally, the two statistical models are combined together using Bayesian framework to detect emotional events in video.
비디오 데이터에 존재하는 감정을 처리하는 것은 지능적인 인간과 컴퓨터와의 상호작용을 위해서 매우 중요한 일이다. 이러한 감정을 추출하기 위해서는 비디오로부터 감정에 관련된 특징들을 검출하기 위한 컴퓨팅 모델을 구축하는 것이 바람직하다. 본 논문에서는 비디오 셧에 존재하는 저급 특징들의 확률적인 분포를 이용하여 감정 이벤트 발생에 관련된 통계학적인 모델을 제안한다. 즉, 비디오 셧의 기본적인 특징을 추출하고 그 특징을 통계적으로 모델화 하여 감정을 유발하는 셧을 찾아낸다. 비디오 셧의 특징으로는 칼라, 카메라 모션 및 셧 길이의 변화를 이용한다. 이러한 특징들을 EM(Expectation Maximization) 알고리즘을 이용하여 GMM(Gaussian Mixture Model) 으로 모델링하고, 감정과 시간과의 관계를 MLE(Maximum Likelihood Estimation)를 이용하여 시간에 따른 확률분포 모델로 구성한다. 이런 두 개의 통계적인 모델들을 융합하여 베이시안 분류법을 적용하여 비디오 데이터로부터 감정에 관련된 셧을 찾아낸다.