• Title/Summary/Keyword: 표정분석

Search Result 393, Processing Time 0.027 seconds

Analysis of facial expressions using three-dimensional motion capture (3차원동작측정에 의한 얼굴 표정의 분석)

  • 박재희;이경태;김봉옥;조강희
    • Proceedings of the ESK Conference
    • /
    • 1996.10a
    • /
    • pp.59-65
    • /
    • 1996
  • 인간의 얼굴 표정은 인간의 감성이 가장 잘 나타나는 부분이다 . 따라서 전통적으로 인간의 표정을 감 성과 연관 지어 연구하려는 많은 노력이 있어 왔다. 최근에는 얼굴 온도 변화를 측정하는 방법, 근전도(EMG; Electromyography)로 얼굴 근육의 움직임을 측정하는 방법, 이미지나 동작분석에 의한 얼굴 표정의 연구가 가능 하게 되었다. 본 연구에서는 인간의 얼굴 표정 변화를 3차원 동작분석 장비를 이용하여 측정하였다. 얼굴 표정 의 측정을 위해 두가지의 실험을 계획하였는데, 첫번 째 실험에서는 피실험자들로 하여금 웃는 표정, 놀라는 표정, 화난 표정, 그리고 무표정 등을 짓게 한 후 이를 측정하였으며, 두번째 실험에스는 코미디 영화와 공포 영화를 피 실험자들에게 보여 주어 피실험자들의 표정 변화를 측정하였다. 5명의 성인 남자가 실험에 참여하였는데, 감성을 일으킬 수 있는 적절한 자극 제시를 못한 점 등에서 처음에 기도했던 6개의 기본 표정(웃음, 슬픔, 혐오, 공포, 화남, 놀람)에 대한 모든 실험과 분석이 수행되지 못했다. 나머지 부분을 포함한 정교한 실험 준비가 추후 연구 에서 요구된다. 이러한 연구는 앞으로 감성공학, 소비자 반응 측정, 컴퓨터 애니메이션(animation), 정보 표시 장치(display) 수단으로서 사용될 수 있을 것이다.

  • PDF

A Study on Expression Analysis of Animation Character Using Action Units(AU) (Action Units(AU)를 사용한 애니메이션 캐릭터 표정 분석)

  • Shin, Hyun-Min;Weon, Sun-Hee;Kim, Gye-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.163-167
    • /
    • 2009
  • 본 논문에서는 크게 2단계에 걸쳐 다양한 형태의 얼굴을 가진 2차원 애니메이션 상의 캐릭터 얼굴구성요소를 추출하고 표정을 분석한다. 첫 번째 단계에서는, 기존의 얼굴인식 및 표정인식 분야에서 이용되었던 동적메쉬모델을 간소화하여 캐릭터 얼굴에 적용하기 위한 최적의 표준 메쉬모델을 제작하고, 이 모델을 사용하여 얼굴구성요소의 위치 및 형태정보를 추출한다. 두 번째 단계에서는, 앞 단계에서 추출된 3가지 얼굴구성요소(눈썹, 눈, 입)를 사용하여 FACS(Facial Action Coding System)에 정의된 AU(Action Units) 44개 중 12개의 AU를 사용하여 캐릭터의 5까지 기본적인 얼굴 표정에 대해 분석 및 정의한다. 본 논문에서 정의한 AU로 기본적인 5가지 얼굴표정에 대해 표정분석 정확도를 측정하였고, 서로 다른 캐릭터에 실험함으로써 제안된 AU정의의 타당성을 제시한다.

  • PDF

Structural Analysis of Facial Expressions Measured by a Standard Mesh Frame (표준형상모형 정합을 통한 얼굴표정 구조 분석)

  • 한재현;심연숙;변혜란;오경자;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1999.11a
    • /
    • pp.271-276
    • /
    • 1999
  • 자동 표정인식 및 합성 기술과 내적상태별 얼굴표정 프로토타입 작성의 기초 작업으로서 특정 내적상태를 표현하는 얼굴표정의 특징적 구조를 분석하였다. 내적상태의 평정 절차를 거쳐 열 다섯 가지의 내적상태로 명명된 배우 여섯 명에 대한 영상자료 90장을 사용하여 각 표정의 특징적 구조를 발견하고자 하였다. 서로 다른 얼굴들의 표준화 작업과 서로 다른 표정들의 직접 비교 작업에 정확성을 기하기 위하여 각 표정 표본들을 한국인 표준형상모형에 정합하였다. 정합 결과로 얻어진 각 얼굴표정의 특징점에 대해 모형이 규정하고 있는 좌표값들만으로는 표정해석이 불가능하며 중립얼굴로부터의 변화값이 표정해석에 유효하다는 결론을 얻었다. 표정의 특징적 구조는 그 표정이 표현하는 내적상태가 무엇인가에 따라 발견되지 않는 경우도 있었으며 내적상태가 기본정서에 가까울수록 비교적 일관된 형태를 갖는 것으로 나타났다. 내적상태별 특징적 표정을 결정할 수 있는 경우에 표정의 구조는 얼굴표정 요소들 중 일부에 의해서 특징지어짐을 확인하였다.

  • PDF

Recognition of Facial Expressions using Geometrical Features (기하학적인 특징 추출을 이용한 얼굴 표정인식)

  • 신영숙;이일병
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.205-208
    • /
    • 1997
  • 본 연구는 기하학적인 특징 추출을 기반으로 얼굴 영상에서 얼굴표정을 인식하는 방법을 제시한다. 얼굴표정은 3가지 그룹으로 제한한다(무표정, 기쁨, 놀람). 표정에 관련된 기본 특징들을 추출하기 위하여 얼굴표정정영상에서 눈높이, 눈폭, 입높이, 입폭을 추출하여 데이터를 분석한다. 분석결과로 눈높이, 입폭, 입높이가 표정을 분별하는 주요 특징으로 추출되었다. 각 표정별 눈높이, 입폭, 입높이가 표정을 분별하는 주요 특징으로 추출되었다. 각 표정별 눈높이, 입폭, 입높이의 평균과 표준편차를 구하여 표정별 표준 템플릿을 작성하였다. 표정인식 방법은 최소 근접 분류기(nearest neighbor classifier)를 사용하였다. 새로운 얼굴표정 영상과 표준 템플릿간의 유클리드 거리를 계산하여 새로운 표정에 대하여 83%인식률을 얻었다.

  • PDF

A Recognition Framework for Facial Expression by Expression HMM and Posterior Probability (표정 HMM과 사후 확률을 이용한 얼굴 표정 인식 프레임워크)

  • Kim, Jin-Ok
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.11 no.3
    • /
    • pp.284-291
    • /
    • 2005
  • I propose a framework for detecting, recognizing and classifying facial features based on learned expression patterns. The framework recognizes facial expressions by using PCA and expression HMM(EHMM) which is Hidden Markov Model (HMM) approach to represent the spatial information and the temporal dynamics of the time varying visual expression patterns. Because the low level spatial feature extraction is fused with the temporal analysis, a unified spatio-temporal approach of HMM to common detection, tracking and classification problems is effective. The proposed recognition framework is accomplished by applying posterior probability between current visual observations and previous visual evidences. Consequently, the framework shows accurate and robust results of recognition on as well simple expressions as basic 6 facial feature patterns. The method allows us to perform a set of important tasks such as facial-expression recognition, HCI and key-frame extraction.

Facial Expression Research according to Arbitrary Changes in Emotions through Visual Analytic Method (영상분석법에 의한 자의적 정서변화에 따른 표정연구)

  • Byun, In-Kyung;Lee, Jae-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.13 no.10
    • /
    • pp.71-81
    • /
    • 2013
  • Facial expressions decide an image for the individual, and the ability to interpret emotion from facial expressions is the core of human relations, hence recognizing emotion through facial expression is important enough to change attitude and decisions between individuals within social relations. Children with unstable attachment development, seniors, autistic group, ADHD children and depression group showed low performance results in facial expression recognizing ability tasks, and active interventions with such groups anticipates possibilities of prevention and therapeutic effects for psychological disabilities. The quantified figures that show detailed change in position of lips, eyes and cheeks anticipates for possible applications in diverse fields such as human sensibility ergonomics, korean culture and art contents, therapeutical and educational applications to overcome psychological disabilities and as methods of non-verbal communication in the globalizing multicultural society to overcome cultural differences.

Facial Expression Analysis Framework (표정 분석 프레임워크)

  • Ji, Eun-Mi
    • Journal of the Korea Computer Industry Society
    • /
    • v.8 no.3
    • /
    • pp.187-196
    • /
    • 2007
  • Human being represents his emotion through facial expression on purpose or unconsciously. Several psychologists started the research for analysis of facial expression, and over the last decade, many computer scientists were also interested in it. Facial expression recognition is a future-valuable research that can be applicable in many kinds of field based on man-computer interface. However, in spite of lots of study, it is hard to find any practical systems because of a variety of illumination and scale of face, and high dimensional information to be processed. In this paper, I tried to describe a generic framework for facial expression analysis, the need of each level, and international research tendency. Also, I analyzed the case study of facial expression in Korea. I expect it to be helpful for the scientists willing to make contribution on facial expression.

  • PDF

Mapping Facial expressions onto internal states (얼굴표정에 의한 내적상태 추정)

  • 한재현;정찬섭
    • Science of Emotion and Sensibility
    • /
    • v.1 no.1
    • /
    • pp.41-58
    • /
    • 1998
  • 얼굴표정과 내적상태의 관계 모형을 수립하기 위한 기초 자료로서 얼굴표정과 내적상태의 대응 관계를 조사하였다. 심리적으로 최소유의미거리에 있는 두 내적상태는 서로 구별되는 얼굴표정으로 대응된다는 것을 확인함으로써 얼굴표정과 내적상태의 일대일 대응 관계가 성립한다는 것을 발견하였다. 얼굴표정 차원값과 내적상태 차원값의 관계 구조를 파악하기 위하여 중다희귀분석 및 정준상관분석을 실시한 결과, 쾌-불쾌는 입의 너비에 의해서 각성-수면은 눈과 입이 열린 정도에 의해서 얼굴표정에 민감하게 반영되는 것으로 나타났다. 얼굴표정 차원 열 두 개가 내적상태 차원상의 변화를 설명하는 정도는 50%내외였다. 선형모형이 이처럼 높은 예측력을 갖는다는 것은 이 두 변수 사이에 비교적 단순한 수리적 대응 구조가 존재한다는 것을 암시한다.

  • PDF

On Parameterizing of Human Expression Using ICA (독립 요소 분석을 이용한 얼굴 표정의 매개변수화)

  • Song, Ji-Hey;Shin, Hyun-Joon
    • Journal of the Korea Computer Graphics Society
    • /
    • v.15 no.1
    • /
    • pp.7-15
    • /
    • 2009
  • In this paper, a novel framework that synthesizes and clones facial expression in parameter spaces is presented. To overcome the difficulties in manipulating face geometry models with high degrees of freedom, many parameterization methods have been introduced. In this paper, a data-driven parameterization method is proposed that represents a variety of expressions with a small set of fundamental independent movements based on the ICA technique. The face deformation due to the parameters is also learned from the data to capture the nonlinearity of facial movements. With this parameterization, one can control the expression of an animated character's face by the parameters. By separating the parameterization and the deformation learning process, we believe that we can adopt this framework for a variety applications including expression synthesis and cloning. The experimental result demonstrates the efficient production of realistic expressions using the proposed method.

  • PDF

A Case Study on Face and Expression Recognition using AAMs and Multilinear Analysis (다선형 모델을 이용한 얼굴 및 표정 인식)

  • Park, Yong-Chan;Lee, Seong-Oh;Park, Gwi-Tae
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.1901-1902
    • /
    • 2008
  • 얼굴 인식은 얼굴의 특징적인 패턴을 이용하지만, 이러한 패턴은 표정, 포즈, 조명의 변화에 민감하여 인식에 어려움이 있다. 본 논문은 표정 변화에 강인한 인식 모델을 개발하기 위해 Cohn-Kanade 표정 데이터베이스와 AAM을 이용하여 다양한 데이터를 추출하였고, 추출된 데이터를 다선형 분석을 이용하여 분석하였다. 이를 적용한 인식 실험에서 PCA보다 표정에 좀 더 강인한 인식 성능을 나타내었다.

  • PDF