• 제목/요약/키워드: Facial Emotion Expression

검색결과 202건 처리시간 0.026초

인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace)

  • 이용후;김상운;청목유직
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.59-73
    • /
    • 2003
  • 인터넷 가상공간에서 서로 다른 언어 사이의 언어 장벽을 극복하기 위한 한 방법으로 CG 애니메이션 기술을 이용한 수화 통신 시스템이 연구되고 있다. 지금까지 연구에서는 비언어 통신 수단으로서 팔과 손의 제스춰만을 고려하였으나, 얼굴 표정이 의사전달에 중요한 요소가 된다. 특히 사실적인 감정표현보다는 얼굴 요소가 과장된 코믹한 표현이 보다 효과적이고, 또 눈썹, 눈, 입 등의 AU(Action Units)만이 아니라 뺨과 턱의 움직임도 중요한 역할을 하게 됨을 알게 되었다. 따라서 3D 표정 생성 에디터에서 AU를 추출하고, 보다 효율적을 표정 생성을 위해 FACS(Facial Action Unit)으로 분류한다. 또 기존에 표정 에디터에 비해서 제안된 표정 에디터는 PAU에 대한 강도를 강하게 줌으로써, 6가지 표정을 분리할 수 있음을 보인다. 또한 얼굴 표정 생성에서 “뺨을 올림”과 “턱을 내림”에 대한 움직임을 자동화하기 위해서 포물형 편미분식(Parabolic Partial Differential Equations)과 Runge-Kutta법을 이용하여 보다 자연스러운 표정을 생성하였다. 또한 이를 이용하여 구조가 서로 다른 아바타 모델에 감정을 재생하는 방법을 제안하였다. 본 방법을 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.

한국어 감정표현단어의 추출과 범주화 (Korean Emotion Vocabulary: Extraction and Categorization of Feeling Words)

  • 손선주;박미숙;박지은;손진훈
    • 감성과학
    • /
    • 제15권1호
    • /
    • pp.105-120
    • /
    • 2012
  • 본 연구 1에서는 한국어 감정표현단어의 목록을 제작하고, 연구 2에서는 제작된 감정표현단어가 어떤 범주의 감정에 속하는지를 조사하였다. 연구 1의 한국어 감정표현단어 목록 제작을 위하여 연세대학교에서 제작한 '현대 한국어의 어휘빈도' 자료집으로부터 감정단어들을 추출하는 작업을 여러 단계에 걸쳐 시행하였다. 일상생활에서 빈도 높게 사용하는 감정표현단어를 선정하기 위하여 국문학 전공자와 감정연구자 12명이 참가하였으며, 총 504개의 감정표현단어들로 구성된 목록을 완성하였다. 연구 2에서는 80명의 대학생을 대상으로 각 단어가 '기쁨', '공포', '분노' 등 10개 범주(중성포함)의 감정 중 어느 감정과 관련 있는지 복수 선택하도록 하여 각 단어에 대한 감정 범주를 조사하였다. 단어들의 감정 범주 분석 결과, 504개 단어 중 426개 단어는 한 범주의 감정을 의미하였는데, '슬픔'을 나타내는 단어가 가장 많았으며, 다음으로 '분노', '기쁨' 순으로 나타났다. 다음 72개 단어는 두 감정 범주를 나타내었는데, '분노'와 '혐오', '슬픔'과 '공포' 그리고 '기쁨'과 '흥미'로 묶이는 단어가 많았다. 세 감정 범주를 보인 6개의 단어는 '놀람', '흥미', '기쁨'의 조합이 가장 높은 빈도로 나타났다. 본 연구는 일상생활에서 실제로 사용하는 감정표현단어 목록을 제작하고, 이에 기반을 두어 각 단어와 관련된 감정 범주를 복수의 감정 범주를 포함하여 규명하였다는데 의의가 있다. 본 연구에서 개발된 감정표현단어들과 각 단어에 대한 감정 범주 정보는 심리학 분야뿐만 아니라 이후 HCI 분야에서 언어적 내용에 기반을 둔 감정인식 연구에 활용될 수 있을 것으로 기대한다.

  • PDF

암묵 데이터를 활용한 인문학 인풋값과 다중 모달리티의 가중치 할당 방법에 관한 연구 (A Study on the Weight Allocation Method of Humanist Input Value and Multiplex Modality using Tacit Data)

  • 이원태;강장묵
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권4호
    • /
    • pp.157-163
    • /
    • 2014
  • 이용자의 감성은 그 어느 때보다 기업, 정부 그리고 개인 간의 소통에서 중요한 변수로 인식된다. 특히 수많은 연구에서 이용자의 감성을 파악하는 방법으로 음성 톤, 속도, 얼굴 표정, 몸의 이동 방향과 속도, 제스쳐 등이 사용된다. 다중 모달리티는 단일의 모달리티보다 정확도가 높은 반면 멀티 센싱에 따른 인식률 한계와 데이터 처리 부하 그리고 센싱된 값을 추론하는 우수한 알고리즘이 요구된다. 즉 다중 모달리티는 각 모달리티의 개념, 속성이 상이하여 인간의 감성값이라는 표준화된 값으로 전환하는데 오류가 발생할 수 있다. 이 문제를 해결하기 위해 다중 모발리티 중관계망 분석, 문맥 파악, 디지털 필터 등의 기술을 이용하여 이용자에게 우선 순위를 갖는 감성 표현 모달리티를 추출할 필요가 있다. 특정 상황에 우선 순위를 갖는 모달리티와 그 주변을 에워싼 다른 모발리티를 암묵 값으로 처리하면 감성 인식에 있어 컴퓨터 자원의 소비 대비 견고한 시스템을 구성할 수 있다. 본 연구 결과, 암묵 데이터를 활용하여 다중 모발리티 중 가중치를 어떻게 부여할지에 대하여 제안하였다.

정서인식과 권력의 관계: 정서지능과 목표관련성의 조절효과 검증 (Power affects emotional awareness: The moderating role of emotional intelligence and goal-relevance)

  • 이수란;이원표;김가은;염준규;손영우
    • 감성과학
    • /
    • 제16권4호
    • /
    • pp.433-444
    • /
    • 2013
  • 본 연구는 개인이 가지고 있는 정서지능 수준의 차이와 타인이 표현하는 정서가 가지는 목표관련성의 차이에 따라서 권력이 타인정서 인식능력에 미치는 영향력이 달라지는가를 알아보고자 하였다. 첫 번째 실험에서는 참가자들의 정서지능을 측정한 후, 권력을 조작하여 사진 속 주인공의 정서를 판단하도록 하였다. 두 번째 실험에서는 사진 속 주인공의 정서가 가지고 있는 목표관련성을 조작 한 후, 실험 1과 동일하게 권력을 조작하고 정서판단과제를 실시하였다. 실험 결과, 권력을 가진 집단은 기존의 연구 결과와 마찬가지로 권력을 갖지 못한 집단보다 타인의 정서에 대한 민감도가 떨어지는 것으로 나타났다. 한편 개인의 정서지능이 높은 경우에는 권력이 타인정서 인식능력에 미치는 영향력이 작았으나 중간 정도의 정서지능을 가진 참가자들은 권력의 영향을 많이 받았다. 또한, 사진 속 정서의 목표관련성이 높은 집단에서는 권력을 가졌음에도 불구하고 비교적 높은 수준의 정서판단의 정확도를 보였다. 또한, 능력으로써 정서지능의 역할을 확인하였고 권력을 가졌다 할지라도 타인의 정보에 대한 동기수준을 유연하게 조절할 수 있다는 점을 밝혔다는 점에서 이론적 공헌이 있다.

얼굴 표정인식을 위한 얼굴요소 추출 (Facial Feature Extraction for Face Expression Recognition)

  • 이경희;고재필;변혜란;이일병;정찬섭
    • 감성과학
    • /
    • 제1권1호
    • /
    • pp.33-40
    • /
    • 1998
  • 본 논문은 얼굴인식 분야에 있어서 필수 과정인 얼굴 및 얼굴의 주요소인 눈과 입의 추출에 관한 방법을 제시한다. 얼굴 영역 추출은 복잡한 배경하에서 움직임 정보나 색상정보를 사용하지 않고 통계적인 모델에 기반한 일종의 형찬정합 방법을 사용하였다. 통계적인 모델은 입력된 얼굴 영상들의 Hotelling변환 과정에서 생성되는 고유 얼굴로, 복잡한 얼굴 영상을 몇 개의 주성분 갑으로 나타낼 수 있게 한다. 얼굴의 크기, 영상의 명암, 얼굴의 위치에 무관하게 얼굴을 추출하기 위해서, 단계적인 크기를 가지는 탐색 윈도우를 이용하여 영상을 검색하고 영상 강화 기법을 적용한 후, 영상을 고유얼굴 공간으로 투영하고 복원하는 과정을 통해 얼굴을 추출한다. 얼굴 요소의 추출은 각 요소별 특성을 고려한 엣지 추출과 이진화에 따른 프로젝션 히스토그램 분석에 의하여 눈과 입의 경계영역을 추출한다. 얼굴 영상에 관련된 윤곽선 추출에 관한 기존의 연구에서 주로 기하학적인 모양을 갖는 눈과 입의 경우에는 주로 가변 템플릿(Deformable Template)방법을 사용하여 특징을 추출하고, 비교적 다양한 모양을 갖는 눈썹, 얼굴 윤곽선 추출에는 스네이크(Snakes: Active Contour Model)를 이용하는 연구들이 이루어지고 있는데, 본 논문에서는 이러한 기존의 연구와는 달리 스네이크를 이용하여 적절한 파라미터의 선택과 에너지함수를 정의하여 눈과 입의 윤곽선 추출을 실험하였다. 복잡한 배경하에서 얼굴 영역의 추출, 추출된 얼굴 영역에서 눈과 입의 영역 추출 및 윤곽선 추출이 비교적 좋은 결과를 보이고 있다.

  • PDF

감정로그 자동화 기록을 위한 표정인식 어플리케이션 개발 (Development of facial recognition application for automation logging of emotion log)

  • 신성윤;강선경
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.737-743
    • /
    • 2017
  • 지능형 라이프로그 시스템은 언제(When), 어디서(Where), 누구와 함께(Who), 어떤 상황에서(What, How), 일어나는 정보, 즉 사용자의 일상에서 발생되는 시간, 인물, 장면, 연령대, 감정, 관계, 상태, 위치, 이동 경로 등의 다양한 상황정보들을 인식하여 태그를 달아 사용자의 일상생활을 기록하고 쉽고 빠르게 접근하도록 제공하는 것이다. 상황인식은 자동태킹(Auto-Tagging) 기술과 생체인식 기술인 얼굴인식을 이용해, 태그(Tag) 단위의 정보를 자동으로 생성하고 분류되어 상황정보 DB을 구축한다. 상황정보 DB에는 지리정보, 위치정보, 날씨정보, 감정정보 등을 포함하고 있다. 본 논문에서는 감정정보를 자동으로 기록하기 위해서 능동형태 모델 방법을 사용해 무표정과 웃는표정을 인식하는 어플리케이션을 개발하였다.

The effects of the usability of products on user's emotions - with emphasis on suggestion of methods for measuring user's emotions expressed while using a product -

  • Jeong, Sang-Hoon
    • 디자인학연구
    • /
    • 제20권2호
    • /
    • pp.5-16
    • /
    • 2007
  • The main objective of our research is analyzing user's emotional changes while using a product, to reveal the influence of usability on human emotions. In this study we have extracted some emotional words that can come up during user interaction with a product and reveal emotional changes through three methods. Finally, we extracted 88 emotional words for measuring user's emotions expressed while using products. And we categorized the 88 words to form 6 groups by using factor analysis. The 6 categories that were extracted as a result of this study were found to be user's representative emotions expressed while using products. It is expected that emotional words and user's representative emotions extracted in this study will be used as subjective evaluation data that is required to measure user's emotional changes while using a product. Also, we proposed the effective methods for measuring user's emotion expressed while using a product in the environment which is natural and accessible for the field of design, by using the emotion mouse and the Eyegaze. An examinee performs several tasks with the emotion mouse through the mobile phone simulator on the computer monitor connected to the Eyegaze. While testing, the emotion mouse senses user's EDA and PPG and transmits the data to the computer. In addition, the Eyegaze can observe the change of pupil size. And a video camera records user's facial expression while testing. After each testing, a subjective evaluation on the emotional changes expressed by the user is performed by the user him/herself using the emotional words extracted from the above study. We aim to evaluate the satisfaction level of usability of the product and compare it with the actual experiment results. Through continuous studies based on these researches, we hope to supply a basic framework for the development of interface with consideration to the user's emotions.

  • PDF

얼굴 표정 정서가 전환 과제 수행에 미치는 영향: 동서양 문화차 (How facial emotion affects switching cost: Eastern and Western cultural differences)

  • 태진이;남예은;이윤형;손명호;김태훈
    • 인지과학
    • /
    • 제34권3호
    • /
    • pp.227-241
    • /
    • 2023
  • 본 연구의 목적은 전환 과제 수행 시 정서 정보의 영향을 비교 문화적 관점에서 살펴보는 것이다. 보다 구체적으로 본 연구에서는 긍정 정서와 부정 정서를 표현하고 있는 사진을 사용하여 전환 과제 수행 시 정소 정보의 영향이 한국인들과 미국인들에게서 다르게 나타나는지를 살펴보고자 하였다. 이를 위하여 한국대학생들과 미국 대학생들에게 긍정 혹은 부정 얼굴을 제시하고 제시된 사진의 테두리 색깔에 맞춰 정서판단 과제 혹은 성별 판단 과제를 수행하도록 요구하였다. 실험 결과, 한국인과 미국인 모두 성별 과제에서 정서 과제로의 전환 비용이 성별 과제에서 정서 과제로의 전환 비용에 비해 유의미하게 크게 나타났고, 사진에서 표현하는 정서가 반복되는 조건이 정서가 전환되는 조건에 비해 더 큰 전환 비용을 보였다. 또한, 참가자의 문화적 배경과 무관하게 과제와 정서가 직접적으로 관련된 정서 과제가 성별 과제에 비해 정서 전환 여부에 따른 전환 비용이 더 크게 나타났다. 하지만, 정서 전환이 전환 과제 수행에 미치는 영향을 개인이 속한 문화에 따라 달랐는데, 한국인이 미국인에 비해 사진에서 표현되는 정서의 전환 여부에 덜 민감하게 반응하였다. 이러한 결과는 정서 정보가 인지과제 수행에 영향을 준다는 것을 보여주며 정서의 영향이 개인이 속하고 자라온 문화적 배경에 따라 다를 수 있음을 시사한다.

아동의 정서적, 인지적 조망수용능력의 발달에 관한 연구 (The Development of Children's Emotional and Cognitive Perspective-taking Ability)

  • 김정진;최경숙
    • 아동학회지
    • /
    • 제12권1호
    • /
    • pp.5-20
    • /
    • 1991
  • The purpose of this study was to investigate developmental tendencies and age-related differences in the relationship between children's cognitive and emotional perspective-taking ability. The subjects were 4-year-old (N=60), 6-year-old (N=60) and 8-year-old (N=60) children. In each group, there were an equal number of boys and girls. Feshbach & Roe's child perspective-taking ability test was modified for this study. The test included four facial expression cards and six different stories inducing three types of emotion: happy, sad and angry. This experiment consisted of a 3 (age) by 3 (emotional stories: happy, sad and angry) factorial design. The dependent measures were two response types: emotional and cognitive perspective-taking ability. The results showed that both cognitive and emotional perspective-taking ability increased with age. Happy emotional perspective-taking ability developed earlier than sad and angry perspective-taking ability. The correlation between cognitive and emotional perspective-taking ability increased with age.

  • PDF