• Title/Summary/Keyword: 표정 변화

Search Result 251, Processing Time 0.03 seconds

Robust Facial Expression Recognition using PCA Representation (PCA 표상을 이용한 강인한 얼굴 표정 인식)

  • Shin Young-Suk
    • Korean Journal of Cognitive Science
    • /
    • v.16 no.4
    • /
    • pp.323-331
    • /
    • 2005
  • This paper proposes an improved system for recognizing facial expressions in various internal states that is illumination-invariant and without detectable rue such as a neutral expression. As a preprocessing to extract the facial expression information, a whitening step was applied. The whitening step indicates that the mean of the images is set to zero and the variances are equalized as unit variances, which reduces murk of the variability due to lightening. After the whitening step, we used the facial expression information based on principal component analysis(PCA) representation excluded the first 1 principle component. Therefore, it is possible to extract the features in the lariat expression images without detectable cue of neutral expression from the experimental results, we ran also implement the various and natural facial expression recognition because we perform the facial expression recognition based on dimension model of internal states on the images selected randomly in the various facial expression images corresponding to 83 internal emotional states.

  • PDF

Accurate Visual Working Memory under a Positive Emotional Expression in Face (얼굴표정의 긍정적 정서에 의한 시각작업기억 향상 효과)

  • Han, Ji-Eun;Hyun, Joo-Seok
    • Science of Emotion and Sensibility
    • /
    • v.14 no.4
    • /
    • pp.605-616
    • /
    • 2011
  • The present study examined memory accuracy for faces with positive, negative and neutral emotional expressions to test whether their emotional content can affect visual working memory (VWM) performance. Participants remembered a set of face pictures in which facial expressions of the faces were randomly assigned from pleasant, unpleasant and neutral emotional categories. Participants' task was to report presence or absence of an emotion change in the faces by comparing the remembered set against another set of test faces displayed after a short delay. The change detection accuracies of the pleasant, unpleasant and neutral face conditions were compared under two memory exposure duration of 500ms vs. 1000ms. Under the duration of 500ms, the accuracy in the pleasant condition was higher than both unpleasant and neutral conditions. However the difference disappeared when the duration was extended to 1000ms. The results indicate that a positive facial expression can improve VWM accuracy relative to the negative or positive expressions especially when there is not enough time for forming durable VWM representations.

  • PDF

An Overview on Method of Recognition of Facial Expression (얼굴표정 인식방법론에 관한 검토)

  • Kim, Dae-Young;Sin, Do-Seong;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.326-329
    • /
    • 2012
  • 이 논문에서는 사람 얼굴 표정을 인식하기 위한 여러 가지 방법론들을 비교분석하였다. 사람얼굴표정을 인식할 때 특징 추출 방법에는 크게 AAM(Active Appearance Model) 기반 방법과 비 AAM 기반 방법이 있었다. 추출된 특징에 대한 학습 및 인식에도 신경망, SVM(Support Vector Machine), 사후확률, 기타 변형 알고리즘을 이용하는 경우가 많았다. 인식되는 표정에는 크게 행복, 분노, 슬픔, 놀람에 대한 표정 인식이 주를 이루었고 추가적으로 역겨움, 두려움, 졸음, 윙크까지도 인식하려는 시도가 있었으나 인식률이 그다지 높지 않았다. 또한 현재 나와 있는 표정인식방법들은 얼굴표정을 과장되게 지을 때에만 인식할 수 있다는 한계가 있었다. 따라서 사람들이 인식할 수 있는 미세한 표정변화를 컴퓨터가 인식하기 위해서 더욱 강건한 특징추출과 새로운 표정분류에 대한 정의 방법이 필요함을 알 수 있었다.

Mapping Facial expressions onto internal states (얼굴표정에 의한 내적상태 추정)

  • 한재현;정찬섭
    • Science of Emotion and Sensibility
    • /
    • v.1 no.1
    • /
    • pp.41-58
    • /
    • 1998
  • 얼굴표정과 내적상태의 관계 모형을 수립하기 위한 기초 자료로서 얼굴표정과 내적상태의 대응 관계를 조사하였다. 심리적으로 최소유의미거리에 있는 두 내적상태는 서로 구별되는 얼굴표정으로 대응된다는 것을 확인함으로써 얼굴표정과 내적상태의 일대일 대응 관계가 성립한다는 것을 발견하였다. 얼굴표정 차원값과 내적상태 차원값의 관계 구조를 파악하기 위하여 중다희귀분석 및 정준상관분석을 실시한 결과, 쾌-불쾌는 입의 너비에 의해서 각성-수면은 눈과 입이 열린 정도에 의해서 얼굴표정에 민감하게 반영되는 것으로 나타났다. 얼굴표정 차원 열 두 개가 내적상태 차원상의 변화를 설명하는 정도는 50%내외였다. 선형모형이 이처럼 높은 예측력을 갖는다는 것은 이 두 변수 사이에 비교적 단순한 수리적 대응 구조가 존재한다는 것을 암시한다.

  • PDF

Emotion Recognition Method of Facial Image using PCA (PCA을 이용한 얼굴표정의 감정인식 방법)

  • Kim, Ho-Deok;Yang, Hyeon-Chang;Park, Chang-Hyeon;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.11-14
    • /
    • 2006
  • 얼굴 표정인식에 관한 연구에서 인식 대상은 대부분 얼굴의 정면 정지 화상을 가지고 연구를 한다. 얼굴 표정인식에 큰 영향을 미치는 대표적인 부위는 눈과 입이다. 그래서 표정 인식 연구자들은 얼굴 표정인식 연구에 있어서 눈, 눈썹, 입을 중심으로 표정 인식이나 표현 연구를 해왔다. 그러나 일상생활에서 카메라 앞에 서는 대부분의 사람들은 눈동자의 빠른 변화의 인지가 어렵고, 많은 사람들이 안경을 쓰고 있다. 그래서 본 연구에서는 눈이 가려진 경우의 표정 인식을 Principal Component Analysis (PCA)를 이용하여 시도하였다.

  • PDF

Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition (감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환)

  • Kim, Jong-Hyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.24 no.4
    • /
    • pp.1-9
    • /
    • 2018
  • We propose an emotional training framework that can determine the initial symptom of schizophrenia by using emotional analysis method through facial expression change. We use Emotion API in Microsoft to obtain facial expressions and emotion values at the present time. We analyzed these values and recognized subtle facial expressions that change with time. The emotion states were classified according to the peak analysis-based variance method in order to measure the emotions appearing in facial expressions according to time. The proposed method analyzes the lack of emotional recognition and expressive ability by using characteristics that are different from the emotional state changes classified according to the six basic emotions proposed by Ekman. As a result, the analyzed values are integrated into the image color transfer framework so that users can easily recognize and train their own emotional changes.

Mapping facial expression onto internal states (얼굴표정에 의한 내적상태 추정)

  • 한재현;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.04a
    • /
    • pp.118-123
    • /
    • 1998
  • 얼굴표정과 내적상태의 관계 모형을 수립하기 위한 기초 자료로서 얼굴표정과 내적상태의 대응관계를 조사하였다. 심리적으로 최소유의미거리에 있는 두 내적상태는 서로 구별되는 얼굴표정과 내적상태의 일대일 대응 관계가 성립한다는 것을 발결하였다. 얼굴표정 차원값과 내적상태 차원값의 관계 구조를 파악하기 위하여 중다회귀분석을 실시한 결과, 쾌-불쾌상태는 입의 너비에 의해서, 각성-수면상태는 눈과 입이 열린 정도에 의해서 얼굴표정에 민감하게 반영되는 것으로 나타났다. 얼굴표정 차원 열 두개가 내적상태 차원 상의 변화를 설명하는 정도는 40%내외였다. 선형모형이 이처럼 높은 예측력을 갖는다는 것은 이 두 변수 사이에 비교적 단순한 수리적 대응 구조가 존재한다는 것을 암시한다.

  • PDF

A Recognition Framework for Facial Expression by Expression HMM and Posterior Probability (표정 HMM과 사후 확률을 이용한 얼굴 표정 인식 프레임워크)

  • Kim, Jin-Ok
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.11 no.3
    • /
    • pp.284-291
    • /
    • 2005
  • I propose a framework for detecting, recognizing and classifying facial features based on learned expression patterns. The framework recognizes facial expressions by using PCA and expression HMM(EHMM) which is Hidden Markov Model (HMM) approach to represent the spatial information and the temporal dynamics of the time varying visual expression patterns. Because the low level spatial feature extraction is fused with the temporal analysis, a unified spatio-temporal approach of HMM to common detection, tracking and classification problems is effective. The proposed recognition framework is accomplished by applying posterior probability between current visual observations and previous visual evidences. Consequently, the framework shows accurate and robust results of recognition on as well simple expressions as basic 6 facial feature patterns. The method allows us to perform a set of important tasks such as facial-expression recognition, HCI and key-frame extraction.

Effects of the facial expression's presenting type and areas on emotional recognition (얼굴 표정의 제시 유형과 제시 영역에 따른 정서 인식 효과)

  • Lee, Jung-Hun;Kim, Hyuk;Han, Kwang-Hee
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1393-1400
    • /
    • 2006
  • 정서를 측정하고 나타내는 기술이 발전에 따라 문화적 보편성을 가진 얼굴표정 연구의 필요성이 증가하고 있다. 그리고 지금까지의 많은 얼굴 표정 연구들은 정적인 얼굴사진 위주로 이루어졌다. 그러나 실제 사람들은 단적인 얼굴표정만으로 정서를 인식하기 보다는 미묘한 표정의 변화나 얼굴근육의 움직임 등을 통해 정서상태를 추론한다. 본 연구는 동적인 얼굴표정이 정적인 얼굴표정 보다 정서상태 전달에서 더 큰 효과를 가짐을 밝히고, 동적인 얼굴 표정에서의 눈과 입의 정서인식 효과를 비교해 보고자 하였다. 이에 따라 15 개의 형용사 어휘에 맞는 얼굴 표정을 얼굴전체, 눈, 입의 세 수준으로 나누어 동영상과 스틸사진으로 제시하였다. 정서 판단의 정확성을 측정한 결과, 세 수준 모두에서 동영상의 정서인식 효과가 스틸사진 보다 유의미하게 높게 나타나 동적인 얼굴 표정이 더 많은 내적정보를 보여주는 것을 알 수 있었다. 또한 얼굴전체-눈-입 순서로 정서인식 효과의 차이가 유의미하게 나타났으며, 부정적 정서는 눈에서 더 잘 나타나고 긍정적 정서는 입에서 더 잘 나타났다. 따라서 눈과 입에 따른 정서인식이 정서의 긍정성-부정성 차원에 따라 달라짐을 볼 수 있었다.

  • PDF

Facial Expression Feature Extraction for Expression Recognition (표정 인식을 위한 얼굴의 표정 특징 추출)

  • Kim, Young-Il;Kim, Jung-Hoon;Hong, Seok-Keun;Cho, Seok-Je
    • Proceedings of the IEEK Conference
    • /
    • 2005.11a
    • /
    • pp.537-540
    • /
    • 2005
  • 본 논문에서는 사람의 감정, 건강상태, 정신상태등 다양한 정보를 포함하고 있는 웃음, 슬픔, 졸림, 놀람, 윙크, 무표정 등의 표정을 인식하기 위한 표정의 특징이 되는 얼굴의 국부적 요소인 눈과 입을 검출하여 표정의 특징을 추출한다. 표정 특징의 추출을 위한 전체적인 알고리즘 과정으로는 입력영상으로부터 칼라 정보를 이용하여 얼굴 영역을 검출하여 얼굴에서 특징점의 위치 정보를 이용하여 국부적 요소인 특징점 눈과 입을 추출한다. 이러한 특징점 추출 과정에서는 에지, 이진화, 모폴로지, 레이블링 등의 전처리 알고리즘을 적용한다. 레이블 영역의 크기를 이용하여 얼굴에서 눈, 눈썹, 코, 입 등의 1차 특징점을 추출하고 누적 히스토그램 값과 구조적인 위치 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확한 눈과 입을 추출한다. 표정 변화에 대한 표정의 특징을 정량적으로 측정하기 위해 추출된 특징점 눈과 입의 눈과 입의 크기와 면적, 미간 사이의 거리 그리고 눈에서 입까지의 거리 등 기하학적 정보를 이용하여 6가지 표정에 대한 표정의 특징을 추출한다.

  • PDF