• 제목/요약/키워드: Facial emotion

검색결과 311건 처리시간 0.269초

감정 기반 모바일 손제스쳐 애니메이션 제작 시스템 (Emotion Based Gesture Animation Generation Mobile System)

  • 이정숙;변혜원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.129-134
    • /
    • 2009
  • 최근 모바일의 문자 서비스를 사용하여 사람들과 소통하는 사용자가 늘어나고 있다. 하지만 기존 문자 서비스의 문장과 이모티콘 만으로는 자신의 감정을 정확히 표현하기 어렵다. 이러한 점에 착안하여, 본 논문에서는 문자 내용이 나타내는 감정과 분위기 및 뉘앙스를 정확하고 재미있게 전달하기 위해서 캐릭터 애니메이션을 활용하였다. 문자 내용의 감정을 말보다 역동적이고 뚜렷하게 전달하기 위해서 캐릭터의 얼굴 표정과 손제스쳐로 감정과 내용을 나타내는 감정 기반 모바일 손제스쳐 애니메이션 제작 시스템을 제안한다. Michel[1]등은 화자의 스타일을 나타낸 손제스쳐 애니메이션 제작을 위해서 인터뷰 영상을 분석하고 손제스쳐가 자연스럽게 연결되는 애니메이션 생성을 위한 손제스쳐 생성 그래프를 제안하였다. 본 논문에서는 Michel[1]의 논문을 확장하여 캐릭터의 감정을 손제스쳐로 과장되게 표현한 디즈니 애니메이션에서 단어의 감정을 표현하는 손제스쳐를 추출하고 자연스럽게 연결된 모바일 3차원 애니메이션으로 제작하는 것에 초점을 맞춘다. 특히 입력된 문장의 감정에 맞는 손제스쳐를 선택하는 감정 손제스쳐 생성 그래프를 제안하고 감정의 자연스러운 흐름을 반영하는 방법을 제시한다. 제안된 시스템의 타당성과 기존 서비스와의 대체 적정도를 알아보기 위해서 사용자 반응을 조사 분석한다.

  • PDF

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

자폐성향과 공감-체계화능력 간의 관계 (The relationship between autistic features and empathizing-systemizing traits)

  • 조경자;김정기
    • 감성과학
    • /
    • 제14권2호
    • /
    • pp.245-256
    • /
    • 2011
  • 본 연구에서는 대학생을 대상으로 자폐적 성향과 공감하기 및 체계화하기능력간의 관계를 알아보고자 하였다. 연구 1에서는 대학생 355명을 대상으로 자폐스펙트럼(AQ) 척도, 공감하기(EQ) 척도, 체계화하기(SQ-R) 척도를 실시하였다. 그 결과 AQ 점수는 EQ 점수, D 점수(각 개인의 공감하기 수준과 체계화하기 수준의 상대적 차이)와는 부적상관을 보였으나, SQ-R 점수와는 통계적으로 유의한 차이를 보이지 않았다. 이 결과는 자폐성향이 강할수록 공감하기 능력은 떨어지나, 체계화하기 능력과는 관계가 없음을 보여준다. 연구 2에서는 연구 1의 실험참가자의 AQ 점수에 근거하여 자폐적 성향이 높은 집단과 그렇지 않은 집단을 분류한 후 자폐적성향(유, 무), 얼굴제시영역(얼굴전체, 눈, 입), 정서유형(기본, 복합)에 따라 얼굴표정읽기 능력이 어떻게 달라지는지 알아보았다. 그 결과 자폐적 성향이 없는 집단에 비해 자폐적 성향이 높은 집단이, 기본정서보다는 복합정서에서 과제 정확률이 더 떨어졌고 얼굴전체 영역 눈 영역, 입 영역 순으로 과제 수행이 낮았는데, 특히 눈 조건에서 자폐적 성향이 높은 집단이 그렇지 않은 집단에 비해 정서읽기능력이 떨어지는 결과를 보였다. 본 연구의 결과는 공감능력 얼굴표정읽기능력이 자폐적 성향과 관계가 있음을 시사한다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.401-404
    • /
    • 2007
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링을 기반으로한 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 6가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고, 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

  • PDF

앙상블 학습 알고리즘과 인공지능 표정 인식 기술을 활용한 사용자 감정 맞춤 힐링 서비스 (Using Ensemble Learning Algorithm and AI Facial Expression Recognition, Healing Service Tailored to User's Emotion)

  • 양성연;홍다혜;문재현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.818-820
    • /
    • 2022
  • The keyword 'healing' is essential to the competitive society and culture of Koreans. In addition, as the time at home increases due to COVID-19, the demand for indoor healing services has increased. Therefore, this thesis analyzes the user's facial expression so that people can receive various 'customized' healing services indoors, and based on this, provides lighting, ASMR, video recommendation service, and facial expression recording service.The user's expression was analyzed by applying the ensemble algorithm to the expression prediction results of various CNN models after extracting only the face through object detection from the image taken by the user.

영상콘텐츠 시청자의 몰입상황 분석을 위한 몰입감정상태 연구 (A Study on Flow-emotion-state for Analyzing Flow-situation of Video Content Viewers)

  • 김승환;김철기
    • 한국멀티미디어학회논문지
    • /
    • 제21권3호
    • /
    • pp.400-414
    • /
    • 2018
  • It is required for today's video contents to interact with a viewer in order to provide more personalized experience to viewer(s) than before. In order to do so by providing friendly experience to a viewer from video contents' systemic perspective, understanding and analyzing the situation of the viewer have to be preferentially considered. For this purpose, it is effective to analyze the situation of a viewer by understanding the state of the viewer based on the viewer' s behavior(s) in the process of watching the video contents, and classifying the behavior(s) into the viewer's emotion and state during the flow. The term 'Flow-emotion-state' presented in this study is the state of the viewer to be assumed based on the emotions that occur subsequently in relation to the target video content in a situation which the viewer of the video content is already engaged in the viewing behavior. This Flow-emotion-state of a viewer can be expected to be utilized to identify characteristics of the viewer's Flow-situation by observing and analyzing the gesture and the facial expression that serve as the input modality of the viewer to the video content.

Gesture-Based Emotion Recognition by 3D-CNN and LSTM with Keyframes Selection

  • Ly, Son Thai;Lee, Guee-Sang;Kim, Soo-Hyung;Yang, Hyung-Jeong
    • International Journal of Contents
    • /
    • 제15권4호
    • /
    • pp.59-64
    • /
    • 2019
  • In recent years, emotion recognition has been an interesting and challenging topic. Compared to facial expressions and speech modality, gesture-based emotion recognition has not received much attention with only a few efforts using traditional hand-crafted methods. These approaches require major computational costs and do not offer many opportunities for improvement as most of the science community is conducting their research based on the deep learning technique. In this paper, we propose an end-to-end deep learning approach for classifying emotions based on bodily gestures. In particular, the informative keyframes are first extracted from raw videos as input for the 3D-CNN deep network. The 3D-CNN exploits the short-term spatiotemporal information of gesture features from selected keyframes, and the convolutional LSTM networks learn the long-term feature from the features results of 3D-CNN. The experimental results on the FABO dataset exceed most of the traditional methods results and achieve state-of-the-art results for the deep learning-based technique for gesture-based emotion recognition.

Emotion Recognition using Short-Term Multi-Physiological Signals

  • Kang, Tae-Koo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권3호
    • /
    • pp.1076-1094
    • /
    • 2022
  • Technology for emotion recognition is an essential part of human personality analysis. To define human personality characteristics, the existing method used the survey method. However, there are many cases where communication cannot make without considering emotions. Hence, emotional recognition technology is an essential element for communication but has also been adopted in many other fields. A person's emotions are revealed in various ways, typically including facial, speech, and biometric responses. Therefore, various methods can recognize emotions, e.g., images, voice signals, and physiological signals. Physiological signals are measured with biological sensors and analyzed to identify emotions. This study employed two sensor types. First, the existing method, the binary arousal-valence method, was subdivided into four levels to classify emotions in more detail. Then, based on the current techniques classified as High/Low, the model was further subdivided into multi-levels. Finally, signal characteristics were extracted using a 1-D Convolution Neural Network (CNN) and classified sixteen feelings. Although CNN was used to learn images in 2D, sensor data in 1D was used as the input in this paper. Finally, the proposed emotional recognition system was evaluated by measuring actual sensors.

표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템 (Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features)

  • 윤현섭;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.821-827
    • /
    • 2009
  • 표정은 인간의 감정을 전달할 수 있는 중요한 수단으로 표정 인식은 감정상태를 알아낼 수 있는 효과적인 방법중 하나이다. 일반적인 표정 인식 시스템은 얼굴 표정을 표현하는 특징점을 찾고, 물리적인 해석 없이 특징을 추출한다. 하지만 특징점 추출은 많은 시간이 소요될 뿐 아니라 특징점의 정확한 위치를 추정하기 어렵다. 그리고 표정 인식 시스템을 실시간 임베디드 시스템에서 구현하기 위해서는 알고리즘을 간략화하고 자원 사용량을 줄일 필요가 있다. 본 논문에서 제안하는 실시간 표정 인식 시스템은 격자점 위치에서 얻어진 가버 웨이블릿(Gabor wavelet) 특징 기반 표정 공간을 설정하고, 각 표정 공간에서 얻어진 주성분을 신경망 분류기를 이용하여 얼굴 표정을 분류한다. 제안하는 실시간 표정 인식 시스템은 화남, 행복, 평온, 슬픔 그리고 놀람의 5가지 표정이 인식 가능하며, 다양한 실험에서 평균 10.25ms의 수행시간, 그리고 87%~93%의 인식 성능을 보였다.

한국인 20대 여성 얼굴의 감성모형 (An Affective Space Model for the Faces of Korean Women in Twenties)

  • 박수진;한재현;정찬섭
    • 감성과학
    • /
    • 제4권2호
    • /
    • pp.47-55
    • /
    • 2001
  • 박수진, 김한경, 한재현, 이정원, 김종일, 송경석 및 정찬섭(2001)에서의 발견을 토대로 얼굴의 감성모형을 개발하였다. 박수진 등의 연구에서는 얼굴의 감성구조를 이루는 2개의 차원축으로 ‘날카롭다-부드럽다’, ‘앳되다-성숙하다’를 제안하였다. 본 연구에서는 이 축들로 이루어진 얼굴의 2차원 감성공간 내에 균일하게 17개의 위치를 선정하고 각 위치들에 합성된 해당 얼굴들을 배치함으로써 감성에 영향을 주는 전체적인 얼굴특징이 무엇인지를 가시화하였다. 또한, 얼굴의 물리적 특징들이 감성의 변화에 어떤 영향을 주는지를 두 개의 주요 축을 중심으로 살펴보았다. 마지막으로 범주모형으로서 개별 감성어휘들과 얼굴의 물리적 특징이 어떤 관계가 있는지에 대해서도 살펴보았다.

  • PDF