• 제목/요약/키워드: Facial emotion

검색결과 311건 처리시간 0.026초

Enhanced Independent Component Analysis of Temporal Human Expressions Using Hidden Markov model

  • 이지준;;김태성
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.487-492
    • /
    • 2008
  • Facial expression recognition is an intensive research area for designing Human Computer Interfaces. In this work, we present a new facial expression recognition system utilizing Enhanced Independent Component Analysis (EICA) for feature extraction and discrete Hidden Markov Model (HMM) for recognition. Our proposed approach for the first time deals with sequential images of emotion-specific facial data analyzed with EICA and recognized with HMM. Performance of our proposed system has been compared to the conventional approaches where Principal and Independent Component Analysis are utilized for feature extraction. Our preliminary results show that our proposed algorithm produces improved recognition rates in comparison to previous works.

  • PDF

실감 있는 얼굴 표정 애니메이션 및 3차원 얼굴 합성 (Realistics Facial Expression Animation and 3D Face Synthesis)

  • 한태우;이주호;양현승
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.25-31
    • /
    • 1998
  • 컴퓨터 하드웨어 기술과 멀티미디어 기술의 발달로 멀티미디어 입출력 장치를 이용한 고급 인터메이스의 필요성이 대두되었다. 친근감 있는 사용자 인터페이스를 제공하기 위해 실감 있는 얼굴 애니메이션에 대한 요구가 증대되고 있다. 본 논문에서는 사람의 내적 상태를 잘 표현하는 얼굴의 표정을 3차원 모델을 이용하여 애니메이션을 수행한다. 애니메이션에 실재감을 더하기 위해 실제 얼굴 영상을 사용하여 3차원의 얼굴 모델을 변형하고, 여러 방향에서 얻은 얼굴 영상을 이용하여 텍스터 매핑을 한다. 변형된 3차원 모델을 이용하여 얼굴 표정을 애니메이션 하기 위해서 해부학에 기반한 Waters의 근육 모델을 수정하여 사용한다. 그리고, Ekman이 제안한 대표적인 6가지 표정들을 합성한다.

  • PDF

모델 독립적 얼굴 표정 애니메이션 도구 (Model-Independent Facial Animation Tool)

  • 이지형;김상원;박찬종
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1999년도 추계학술대회 논문집
    • /
    • pp.193-196
    • /
    • 1999
  • 컴퓨터 그래픽스에서 인간의 얼굴 표정을 생성하는 것은 고전적인 주제중의 하나이다. 따라서 관련된 많은 연구가 이루어져 왔지만 대부분의 연구들은 특정 모델을 이용한 얼굴 표정 애니메이션을 제공하였다. 이는 얼굴 표정에는 얼굴 근육 정보 및 부수적인 정보가 필요하고 이러한 정보는 3D 얼굴 모델에 종속되기 때문이다. 본 논문에서는 일반적인 3D 얼굴 모델에 근육을 설정하고 기타 정보를 편집하여, 다양한 3D 얼굴모델에서 표정 애니메이션이 가능한 도구를 제안한다.

  • PDF

Efficient Emotional Relaxation Framework with Anisotropic Features Based Dijkstra Algorithm

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.79-86
    • /
    • 2020
  • 본 논문에서는 비등방성 특징 기반의 다익스트라 알고리즘(Dijkstra algorithm)을 이용한 효율적인 감성 완화 프레임워크를 제안한다. 감성을 완화시키는 것은 감성 분석만큼이나 중요하며, 사람의 우울함이나 외로움을 자동으로 완화시켜줄 수 있는 프레임워크로써 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)측면에서도 매우 중요한 의미를 갖는다. 본 논문에서는 1) 마이크로소프트의 Emotion API를 이용하여 얼굴 표정으로부터 변화하는 감정값을 계산하고, 2) 이 감정값의 차이를 이용하여 우울이나 외로움 같은 이상 감정을 인지한다. 3) 마지막으로, 감성 히스토그램과 비등방성 특성을 고려한 감정 메시 기반의 매칭 과정을 거침으로써 사용자에게 완화된 감성이 내포된 이미지들을 제시해준다. 본 논문에서 제안하는 기법은 얼굴 영상을 이용하여 사용자가 쉽게 감성의 변화를 인지하고, 완화된 감성으로 감정을 트레이닝 할 수 있는 시스템이다.

타인의 얼굴 표정이 도덕적 판단에 미치는 영향 (Effects of Facial Expression of Others on Moral Judgment)

  • 이원섭;김신우
    • 인지과학
    • /
    • 제30권2호
    • /
    • pp.85-104
    • /
    • 2019
  • 기존 연구들은 타인의 존재가 바람직한 행동을 유도하고 도덕적으로 엄격한 판단을 하게 한다는 것을 보여주었다. 즉, 타인의 존재 자체가 사람들을 더 도덕적인 존재로 만든다는 것이다. 반면 타인의 얼굴 표정에 따라 도덕적 판단이 어떻게 달라지는지에 대한 연구는 거의 존재하지 않는다. 본 연구에서는 타인의 얼굴표정이 드러내는 정서가 도덕적 판단에 미치는 영향을 검증하였다. 이를 위해 부도덕한 혹은 친사회적 행위를 묘사한 제시문과 함께 다양한 정서(특히, 혐오와 행복)를 표현하는 얼굴자극을 함께 제시한 뒤, 제시문에 묘사된 행동의 도덕성을 평가하도록 하였다. 실험 1에서는 타인의 얼굴표정이 도덕적 판단에는 영향을 미치지 않았으나, 제시문의 내용과 표정이 불일치할 때 도덕성 평정의 변산성이 높아지는 것을 확인하였다. 실험 1에서 효과가 나타나지 않은 잠재적 원인들을 수정하여 동일한 절차로 실험 2를 실시하였다. 그 결과 비도덕적 행동에 대해 참가자들은 행복표정보다 혐오표정에서 더 엄격한 판단을 했으나, 친사회적 행동에 대해서는 얼굴표정의 효과가 나타나지 않았다. 실험 3에서는 제시문의 행위자를 참가자 자신으로 여기도록 유도한 뒤 동일한 실험을 실시하였다. 그 결과 실험 2에서 나타난 결과들을 재검증할 수 있었으나 행위주체에 따른 차이는 발견할 수 없었다. 본 연구는 타인의 얼굴표정이 비도덕적 행위에 대한 판단에 특정적으로 영향을 미치며 친사회적 행위에 대한 판단에는 영향을 미치지 않는다는 것을 보여준다. 종합논의에서 본 실험의 결과를 논의하고 한계점을 제시하였다.

Multimodal Parametric Fusion for Emotion Recognition

  • Kim, Jonghwa
    • International journal of advanced smart convergence
    • /
    • 제9권1호
    • /
    • pp.193-201
    • /
    • 2020
  • The main objective of this study is to investigate the impact of additional modalities on the performance of emotion recognition using speech, facial expression and physiological measurements. In order to compare different approaches, we designed a feature-based recognition system as a benchmark which carries out linear supervised classification followed by the leave-one-out cross-validation. For the classification of four emotions, it turned out that bimodal fusion in our experiment improves recognition accuracy of unimodal approach, while the performance of trimodal fusion varies strongly depending on the individual. Furthermore, we experienced extremely high disparity between single class recognition rates, while we could not observe a best performing single modality in our experiment. Based on these observations, we developed a novel fusion method, called parametric decision fusion (PDF), which lies in building emotion-specific classifiers and exploits advantage of a parametrized decision process. By using the PDF scheme we achieved 16% improvement in accuracy of subject-dependent recognition and 10% for subject-independent recognition compared to the best unimodal results.

뇌졸중 환자의 일반적 특성에 따른 정서인식의 차이 (Emotional Recognition According to General Characteristics of Stroke Patients)

  • 박성호;김민호
    • 대한통합의학회지
    • /
    • 제3권1호
    • /
    • pp.63-69
    • /
    • 2015
  • Purpose: The purpose of this study was to investigate the differences in emotion recognition according to general characteristics of stroke patients. Method: The subjects consisted of 38 stroke patients receiving rehabilitation at S Hospital in Busan. Used the eMETT program to assess emotional cognition. Result: The age and duration of disease showed statistically significant differences in emotion recognition ability score, the gender and lesion showed a statistically significant difference in some emotion(p<.05). Conclusion: The results of this study it can be seen that the difference in emotion recognition ability in accordance with the general characteristics of the stroke. There will be a variety of future research related to standardized research or interventions targeted at stroke patients and normal controls to be carried out.

Classification of Three Different Emotion by Physiological Parameters

  • Jang, Eun-Hye;Park, Byoung-Jun;Kim, Sang-Hyeob;Sohn, Jin-Hun
    • 대한인간공학회지
    • /
    • 제31권2호
    • /
    • pp.271-279
    • /
    • 2012
  • Objective: This study classified three different emotional states(boredom, pain, and surprise) using physiological signals. Background: Emotion recognition studies have tried to recognize human emotion by using physiological signals. It is important for emotion recognition to apply on human-computer interaction system for emotion detection. Method: 122 college students participated in this experiment. Three different emotional stimuli were presented to participants and physiological signals, i.e., EDA(Electrodermal Activity), SKT(Skin Temperature), PPG(Photoplethysmogram), and ECG (Electrocardiogram) were measured for 1 minute as baseline and for 1~1.5 minutes during emotional state. The obtained signals were analyzed for 30 seconds from the baseline and the emotional state and 27 features were extracted from these signals. Statistical analysis for emotion classification were done by DFA(discriminant function analysis) (SPSS 15.0) by using the difference values subtracting baseline values from the emotional state. Results: The result showed that physiological responses during emotional states were significantly differed as compared to during baseline. Also, an accuracy rate of emotion classification was 84.7%. Conclusion: Our study have identified that emotions were classified by various physiological signals. However, future study is needed to obtain additional signals from other modalities such as facial expression, face temperature, or voice to improve classification rate and to examine the stability and reliability of this result compare with accuracy of emotion classification using other algorithms. Application: This could help emotion recognition studies lead to better chance to recognize various human emotions by using physiological signals as well as is able to be applied on human-computer interaction system for emotion recognition. Also, it can be useful in developing an emotion theory, or profiling emotion-specific physiological responses as well as establishing the basis for emotion recognition system in human-computer interaction.

다중 생체신호를 이용한 신경망 기반 전산화 감정해석 (Neural-network based Computerized Emotion Analysis using Multiple Biological Signals)

  • 이지은;김병남;유선국
    • 감성과학
    • /
    • 제20권2호
    • /
    • pp.161-170
    • /
    • 2017
  • 감정은 학습능력, 행동, 판단력 등 삶의 많은 부분에 영향을 끼치므로 인간의 본질을 이해하는 데 중요한 역할을 한다. 그러나 감정은 개인이 느끼는 강도가 다르며, 시각 영상 자극을 통해 감정을 유도하는 경우 감정이 지속적으로 유지되지 않는다. 이러한 문제점을 극복하기 위하여 총 4가지 감정자극(행복, 슬픔, 공포, 보통) 시 생체신호(뇌전도, 맥파, 피부전도도, 피부 온도)를 획득하고, 이로부터 특징을 추출하여 분류기의 입력으로 사용하였다. 감정 패턴을 확률적으로 해석하여 다른 공간으로 매핑시켜주는 역할을 하는 Restricted Boltzmann Machine (RBM)과 Multilayer Neural Network (MNN)의 은닉층 노드를 이용하여 비선형적인 성질의 감정을 구별하는 Deep Belief Network (DBN) 감정 패턴 분류기를 설계하였다. 그 결과, DBN의 정확도(약 94%)는 오류 역전파 알고리즘의 정확도(약 40%)보다 높은 정확도를 가지며 감정 패턴 분류기로서 우수성을 가짐을 확인하였다. 이는 향후 인지과학 및 HCI 분야 등에서 활용 가능할 것으로 사료된다.

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF