• Title/Summary/Keyword: Facial emotion

Search Result 312, Processing Time 0.029 seconds

A model of Affectiveness on Korean female faces in twenties (한국인 20대 여성 얼굴의 감성 모형)

  • 박수진;김한경;한재현;이정원;김종일;송경석;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2001.11a
    • /
    • pp.42-48
    • /
    • 2001
  • 본 연구에서는 박수진, 김한경, 한재현, 이정원, 김종일, 송경석, 정찬섭(2001)에서의 발견을 토대로 얼굴의 범주-차원적 감성 구조를 정립하였다. 박수진 등의 연구는 얼굴의 감성 구조를 이루는 2개의 차원축으로 '앳되다-성숙하다', '날카롭다-부드럽다'를 제안하였었다. 본 연구에서는 이들 축으로 이뤄진 얼굴의 2차원 감성 공간 내에 균일하게 17개의 위치를 선정하고 각 위치들에 합성된 해당 얼굴들을 위치시킴으로써 해당 공간의 얼굴 특징을 시각화하였다. 또한 얼굴의 물리적 특징의 변화가 감성에 어 떤 영향을 주는지를 두 개의 주요 축을 중심으로 살펴보았다. 마지막으로 범주 모형으로서 개별 감성 어휘들과 얼굴의 물리적 특징이 어떤 관계가 있는지를 일차적으로 살펴보았다.

  • PDF

The Property of Formative Factor Influencing Preference on Robot's Design (로봇디자인에 대한 선호 반응에 영향을 미치는 조형요소의 특성)

  • Jeong, Jeong-Pil;Heo, Seong-Cheol
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2008.10a
    • /
    • pp.38-41
    • /
    • 2008
  • This study's basic intention is to analyze property of combination relations of formative element composing robot' s face based on a result of preference response on robot's design. Also, in order to improve preference from the analysis result, the study intended to inquire into possibilities of suggesting design guideline. For the above, photographs of 27 robots' faces were selected as a experimental stimuli, and experiments on preference response and association response were performed. As a result, various properties such as robots' form of eyes having greater influences than facial structure, etc. Based on the result, each formative element's property that could have positive influence preference response on robot's face could be drawn and basic design guideline could also be suggested.

  • PDF

Recognizing Facial Expressions Using a Neural Network (신경망을 이용한 얼굴 표정인식)

  • 신영숙;이일병
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.04a
    • /
    • pp.101-105
    • /
    • 1998
  • 기존의 표정인식 연구는 Ekman의 기본정서모형의 특에 의하여 표정인식이 이루어져왔다. 그러나 이러한 6가지 기본정서(행복, 놀람, 공포, 분노, 혐오, 슬픔)에 의한 표정인식은 6개 정서 중에서 선택하는 간제 선택법이 아닌 자유응답방식을 택했을때는 훨씬 인식률이 떨어진다. 이는 표정이 기본정서이외에도 여러 가지 미묘한 마음상태를 표현하고 있기 때문이다. 본 연구는 섬세한 표정인식을 우한 방법으로, 차원모형을 근거로 MLP를 적용한 표정인식을 수행하였다. 차원 모형에 의한 표정은 3가지 차원으로 하나의 표정을 이룬다. 3가지 차원은 쾌-불쾌, 각성-수면과 외부지향-내부지향이다. 3가지 차원을 갖는 각각의 표정은 MLP에 의하여 쾌-불쾌차원 68%, 각성-수면차원 60%, 외부지향-내부지향차원 76%의 인식률을 보였다. 연구결과에서 차원모형에 근거한 표정인식을 통하여 기존의 표정인식을 통하여 기존의 기본정서모형의 한계성을 극복하고 섬세한 표정인식을 수행할 수 있었다.

  • PDF

Mapping facial expression onto internal states (얼굴표정에 의한 내적상태 추정)

  • 한재현;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1998.04a
    • /
    • pp.118-123
    • /
    • 1998
  • 얼굴표정과 내적상태의 관계 모형을 수립하기 위한 기초 자료로서 얼굴표정과 내적상태의 대응관계를 조사하였다. 심리적으로 최소유의미거리에 있는 두 내적상태는 서로 구별되는 얼굴표정과 내적상태의 일대일 대응 관계가 성립한다는 것을 발결하였다. 얼굴표정 차원값과 내적상태 차원값의 관계 구조를 파악하기 위하여 중다회귀분석을 실시한 결과, 쾌-불쾌상태는 입의 너비에 의해서, 각성-수면상태는 눈과 입이 열린 정도에 의해서 얼굴표정에 민감하게 반영되는 것으로 나타났다. 얼굴표정 차원 열 두개가 내적상태 차원 상의 변화를 설명하는 정도는 40%내외였다. 선형모형이 이처럼 높은 예측력을 갖는다는 것은 이 두 변수 사이에 비교적 단순한 수리적 대응 구조가 존재한다는 것을 암시한다.

  • PDF

The Peer Competence of Children in Poverty (빈곤층 아동의 또래역량)

  • Lee, Eun Ju;Lee, Jae Yeon
    • Korean Journal of Child Studies
    • /
    • v.17 no.2
    • /
    • pp.195-206
    • /
    • 1996
  • The purpose of this study was to observe differences in peer competence by children's personality and to investigate the relationship between peer competence and characteristics of children from poor families. The subjects were 79 parents and their 4- to 6-year-old children at a kindergarten in Seoul. The instruments were Iannotti's facial drawings cards, vignettes, "roster and rating" the Family Environment Scale (FES) and the Family Expressiveness Questionnaire (FEQ). The main results of this study were that girls from poor families had higher levels of peer competence than boys. There was a significant correlation between the peer competence of the children in poverty and family characteristics. The children's gender, knowledge of emotion, and mother's negatively dominant conduct were the factors that indicated children's behavior in peer competence. Family conflict and mother's emotional conduct did not relate to children's knowledge of emotion.

  • PDF

3D Facial Modeling and Expression Synthesis using muscle-based model for MPEG-4 SNHC (MPEG-4 SNHC을 위한 3차원 얼굴 모델링 및 근육 모델을 이용한 표정합성)

  • 김선욱;심연숙;변혜란;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.368-372
    • /
    • 1999
  • 새롭게 표준화된 멀티미디어 동영상 파일 포맷인 MPEG-4에는 자연영상과 소리뿐만 아니라 합성된 그래픽과 소리를 포함하고 있다. 특히 화상회의나 가상환경의 아바타를 구성하기 위한 모델링과 에니메이션을 위한 FDP, FAP에 대한 표준안을 포함하고 있다. 본 논문은 MPEG-4에서 정의한 FDP와 FAP를 이용하여 화상회의나 가상환경의 아바타로 자연스럽고 현실감 있게 사용할 수 있는 얼굴 모델 생성을 위해서 보다 정교한 일반모델을 사용하고, 이에 근육 모델을 사용하여 보다 정밀한 표정 생성을 위해서 임의의 위치에 근육을 생성 할 수 있도록 근육 편집기를 작성하여, 표정 에니메이션을 수행할 수 있도록 에니메이션 편집 프로그램을 구현하였다.

  • PDF

A DB for facial expression and its user-interface (얼굴표정 DB 및 사용자 인터페이스 개발)

  • 한재현;문수종;김진관;김영아;홍상욱;심연숙;반세범;변혜란;오경자
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.373-378
    • /
    • 1999
  • 얼굴 및 얼굴표정 연구의 기초 자료를 제공하고 실제 표정을 디자인하는 작업의 지침으로 사용되도록 하기 위하여 대규모의 표정 DB를 구축하였다. 이 DB 내에는 여러 가지 방법으로 수집된 배우 24명의 자연스럽고 다양한 표정 영상자료 약 1,500장이 저장되어 있다. 수집된 표정자료 각각에 대하여 내적상태의 범주모형과 차원모형을 모두 고려하여 다수의 사람들이 반응한 내적상태 평정 정보를 포함하도록 하였으며 사진별로 평정의 일치율을 기록함으로써 자료 이용에 참고할 수 있도록 하였다. 표정인식 및 합성 시스템에 사용될 수 있도록 각 표정자료들을 한국인 표준형 상모형에 정합하였을 때 측정된 MPEG-4 FAP 기준 39개 꼭지점들(vertices)의 좌표값들 및 표정추출의 맥락정보를 저장하였다. 실제 DB를 사용할 사람들이 가진 한정된 정보로써 전체 DB의 영상자료들을 용이하게 검색할 수 있도록 사용자 인터페이스를 개발하였다.

  • PDF

Structural Analysis of Facial Expressions Measured by a Standard Mesh Frame (표준형상모형 정합을 통한 얼굴표정 구조 분석)

  • 한재현;심연숙;변혜란;오경자;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.271-276
    • /
    • 1999
  • 자동 표정인식 및 합성 기술과 내적상태별 얼굴표정 프로토타입 작성의 기초 작업으로서 특정 내적상태를 표현하는 얼굴표정의 특징적 구조를 분석하였다. 내적상태의 평정 절차를 거쳐 열 다섯 가지의 내적상태로 명명된 배우 여섯 명에 대한 영상자료 90장을 사용하여 각 표정의 특징적 구조를 발견하고자 하였다. 서로 다른 얼굴들의 표준화 작업과 서로 다른 표정들의 직접 비교 작업에 정확성을 기하기 위하여 각 표정 표본들을 한국인 표준형상모형에 정합하였다. 정합 결과로 얻어진 각 얼굴표정의 특징점에 대해 모형이 규정하고 있는 좌표값들만으로는 표정해석이 불가능하며 중립얼굴로부터의 변화값이 표정해석에 유효하다는 결론을 얻었다. 표정의 특징적 구조는 그 표정이 표현하는 내적상태가 무엇인가에 따라 발견되지 않는 경우도 있었으며 내적상태가 기본정서에 가까울수록 비교적 일관된 형태를 갖는 것으로 나타났다. 내적상태별 특징적 표정을 결정할 수 있는 경우에 표정의 구조는 얼굴표정 요소들 중 일부에 의해서 특징지어짐을 확인하였다.

  • PDF

Biosign Recognition based on the Soft Computing Techniques with application to a Rehab -type Robot

  • Lee, Ju-Jang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2001.10a
    • /
    • pp.29.2-29
    • /
    • 2001
  • For the design of human-centered systems in which a human and machine such as a robot form a human-in system, human-friendly interaction/interface is essential. Human-friendly interaction is possible when the system is capable of recognizing human biosigns such as5 EMG Signal, hand gesture and facial expressions so the some humanintention and/or emotion can be inferred and is used as a proper feedback signal. In the talk, we report our experiences of applying the Soft computing techniques including Fuzzy, ANN, GA and rho rough set theory for efficiently recognizing various biosigns and for effective inference. More specifically, we first observe characteristics of various forms of biosigns and propose a new way of extracting feature set for such signals. Then we show a standardized procedure of getting an inferred intention or emotion from the signals. Finally, we present examples of application for our model of rehabilitation robot named.

  • PDF

Analysis of facial expression recognition (표정 분류 연구)

  • Son, Nayeong;Cho, Hyunsun;Lee, Sohyun;Song, Jongwoo
    • The Korean Journal of Applied Statistics
    • /
    • v.31 no.5
    • /
    • pp.539-554
    • /
    • 2018
  • Effective interaction between user and device is considered an important ability of IoT devices. For some applications, it is necessary to recognize human facial expressions in real time and make accurate judgments in order to respond to situations correctly. Therefore, many researches on facial image analysis have been preceded in order to construct a more accurate and faster recognition system. In this study, we constructed an automatic recognition system for facial expressions through two steps - a facial recognition step and a classification step. We compared various models with different sets of data with pixel information, landmark coordinates, Euclidean distances among landmark points, and arctangent angles. We found a fast and efficient prediction model with only 30 principal components of face landmark information. We applied several prediction models, that included linear discriminant analysis (LDA), random forests, support vector machine (SVM), and bagging; consequently, an SVM model gives the best result. The LDA model gives the second best prediction accuracy but it can fit and predict data faster than SVM and other methods. Finally, we compared our method to Microsoft Azure Emotion API and Convolution Neural Network (CNN). Our method gives a very competitive result.