• 제목/요약/키워드: Emotional Facial Expression Change

검색결과 15건 처리시간 0.019초

감성인식에 따른 가상 캐릭터의 미소 표정변화에 관한 연구 (Study of expression in virtual character of facial smile by emotion recognition)

  • 이동엽
    • 만화애니메이션 연구
    • /
    • 통권33호
    • /
    • pp.383-402
    • /
    • 2013
  • 본 연구에서는 감성 변화에 따라 나타나는 얼굴 표정에 대한 해부학적 접근방식으로 근육 체계에 의해서 부호화하는 얼굴 움직임 부호화 시스템(FACS, Facial Action Coding System)을 얼굴표정에 적용하고 이를 바탕으로 듀센스마일(Duchenne smile)을 가상 캐릭터에 적용하여 검증해 보고자 한다. 인간의 표정을 인식하는 방식이 동일하게 가상의 캐릭터에도 적용된다는 선행연구를 바탕으로 애니메이션, 게임 등의 캐릭터에 보다 사실적인 표정을 담을 수 있는 연구 방식을 제안하고자 한다. 실험을 위해 훈련된 연극전공 학생들에게 정서 유발 실험을 통해 듀센 스마일과 일반 스마일을 추출하였다. 추출된 표정을 바탕으로 얼굴 근육 데이터를 표집하여 입과 입술주변의 근육과 다른 부위의 얼굴 표정 빈도를 산출하여 얻어진 데이터를 가상 캐릭터에 적용해 보았다. 그 결과 미소 표정에서 근육의 움직임은 협골 대근육의 수축으로 인한 입술 끝이 상향운동을 하며 안륜근이 수축하며 뺨이 올라가고 눈의 아래쪽 외측 눈꺼풀이 올라가는 표정이 나타났다. 개방성과 관련된 입주변 근육(AU25, AU26, AU27)과 코주위 근육(AU9)이 함께 협골근과 광대근 주변 근육의 움직임이 표현되었다. 그중 듀센 미소는 협골 대근육과 안륜근이 동시에 움직이는 형태로 발생되었다. 이를 바탕으로 본인의 의지에 의해 수행 가능한 광대근육과 감성적 정서에 공감하여 웃음의 형태로 나타나는 안륜근을 구분하고 이를 가상의 캐릭터의 근육에 적용하여 인간의 표정과 가상의 캐릭터 표정이 서로 구분 가능한지를 설문을 통해 알아보고자 하였다.

가버 웨이블릿 신경망 기반 적응 표정인식 시스템 (Adaptive Facial Expression Recognition System based on Gabor Wavelet Neural Network)

  • 이상완;김대진;김용수;변증남
    • 한국지능시스템학회논문지
    • /
    • 제16권1호
    • /
    • pp.1-7
    • /
    • 2006
  • 본 논문에서는 6개의 특징점을 이용하는 가버 웨이블릿 신경망 기반 적응 표정인식 시스템을 제안한다. 특징 추출부를 포함하는 초기 네트워크의 구성은 Levenberg-Marquardt 기반의 학습방법이 사용되며, 따라서 특징 추출부 결정에 있어서 경험적 요소를 배재시킬 수 있다. 또한 새로운 사용자에 대한 적응 네트워크를 구성하기 위해서 개선된 보상함수를 가지는 Q-학습과, 비지도 퍼지 신경망 모델을 사용하였다. Q-학습을 통해서는 개인 사용자에 대해 분리도가 좋은 특징벡터를 얻을 수 있는 가버필터 세트를 얻을 수 있으며, 퍼지 신경망을 통해서는 사용자의 얼굴변화에 맞게 인식기를 변화시킬 수 있다. 따라서 제안된 시스템은 사용자의 얼굴변화를 따라갈 수 있는 좋은 적응 성능을 보이고 있다.

The effects of the usability of products on user's emotions - with emphasis on suggestion of methods for measuring user's emotions expressed while using a product -

  • Jeong, Sang-Hoon
    • 디자인학연구
    • /
    • 제20권2호
    • /
    • pp.5-16
    • /
    • 2007
  • The main objective of our research is analyzing user's emotional changes while using a product, to reveal the influence of usability on human emotions. In this study we have extracted some emotional words that can come up during user interaction with a product and reveal emotional changes through three methods. Finally, we extracted 88 emotional words for measuring user's emotions expressed while using products. And we categorized the 88 words to form 6 groups by using factor analysis. The 6 categories that were extracted as a result of this study were found to be user's representative emotions expressed while using products. It is expected that emotional words and user's representative emotions extracted in this study will be used as subjective evaluation data that is required to measure user's emotional changes while using a product. Also, we proposed the effective methods for measuring user's emotion expressed while using a product in the environment which is natural and accessible for the field of design, by using the emotion mouse and the Eyegaze. An examinee performs several tasks with the emotion mouse through the mobile phone simulator on the computer monitor connected to the Eyegaze. While testing, the emotion mouse senses user's EDA and PPG and transmits the data to the computer. In addition, the Eyegaze can observe the change of pupil size. And a video camera records user's facial expression while testing. After each testing, a subjective evaluation on the emotional changes expressed by the user is performed by the user him/herself using the emotional words extracted from the above study. We aim to evaluate the satisfaction level of usability of the product and compare it with the actual experiment results. Through continuous studies based on these researches, we hope to supply a basic framework for the development of interface with consideration to the user's emotions.

  • PDF

사용자 리뷰에서 표정 인식을 이용한 감정 표현 기법 (Emotional Expression Technique using Facial Recognition in User Review)

  • 최원관;황만수;김능회
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권5호
    • /
    • pp.23-28
    • /
    • 2022
  • 오늘날 디지털 플랫폼의 발달과 팬데믹 상황에 더불어 온라인 시장은 급속도로 성장하였다. 이로 인해 기존의 오프라인 시장과 다르게 온라인 시장에서의 특수성으로 인해 사용자들은 온라인 리뷰를 확인하게 되었고, 여러 연구들의 선례를 통해 리뷰가 사용자의 구매 의도를 정하는 데 중요한 역할을 하는 것을 확인할 수 있었다. 하지만 기존의 리뷰작성 방식에서는 작성자의 감정이 글의 어투나 단어와 같은 요소들을 통해 표현됨으로써 다른 사용자가 작성자의 감정을 쉽게 파악하기 어려웠으며 작성자가 감정을 표현하기 위해 강조하고 싶은 부분이 있다면 작성자가 일일이 강조하고 싶은 부분의 굵기를 굵게 하거나 감정에 따라 색상을 바꾸는 등 여러 번거로운 작업의 수고가 필요하였다. 따라서, 본 논문에서는 기존의 이러한 점을 보완하기 위해 카메라를 이용하여 표정 인식을 통해 사용자의 감정을 확인하고 기존의 감정과 색상에 관한 연구를 활용하여 각 감정에 맞는 색상을 자동으로 설정하고 사용자의 의도에 따라 사용자 리뷰에서 색상을 부여하는 기법을 제안하고자 한다.

영상통신 감성융합 서비스를 위한 실시간 아바타 정합기술 (Emotion fusion video communication services for real-time avatar matching technology)

  • 오동식;강준규;신민호
    • 디지털융복합연구
    • /
    • 제10권10호
    • /
    • pp.283-288
    • /
    • 2012
  • 현재 전 세계적으로 미래 수익 사업의 일환으로 각광받고 있는 분야 중 하나는 3D이다. 3D는 현실세계와 가상현실 세계의 차원을 함께 공존시켜주며 형태 및 질감 등을 느낄 수 있게 해주어 기존의 평면적인 2D에서 입체적인 3D로 변화하고 공존의 시대적 현실을 잘 보여주고 있기 때문이다. 3D에 대한 사람들의 관심은 3D아바타를 바탕으로 하는 영화를 통하여 확산되었다. 또한 현재 대기업들의 3D TV 시장으로의 시장 변화 역시 3D시장의 개척에서 도약의 시대로 한층 더 업그레이드 시키게 되었다. 또한 이와 동시에 세계의 현대인이라면 필수품이 되어가고 있는 스마트폰의 열풍 또한 새로운 핸드폰 시장과 IT 시장의 혁신을 이루었으며. 스마트 폰은 작은 컴퓨터라 불릴 정도로, 그 파급속도와 여파는 전화, 인터넷의 혁신만큼 많은 이슈를 남기고 있다. 스마트폰은 말 그대로 똑똑한 폰으로 여러 가지 기능을 할 수 있는 핸드폰이다. 현재 iPhone, Android. Windows Phone외에 다수의 스마트폰이 출시되어 있다. 위의 전체적인 향후의 전망과 비즈니스 서비스 모델을 위하여 스마트폰에 가상의 3D캐릭터를 카메라로 입력받아 3D 표정아바타를 사람의 얼굴에 합성할 수 있고 카메라로 사용자의 감성 표정을 인식하여 합성된 아바타를 실시간 다른 휴대전화 사용자에게 정합, 전송, 통신 할 수 있는 실시간 감성융합 영상통신 서비스 어플리케이션의 개발하고자 한다.