• 제목/요약/키워드: Facial Model

검색결과 522건 처리시간 0.026초

특징점 기반의 적응적 얼굴 움직임 분석을 통한 표정 인식 (Feature-Oriented Adaptive Motion Analysis For Recognizing Facial Expression)

  • 노성규;박한훈;신홍창;진윤종;박종일
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.667-674
    • /
    • 2007
  • Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.

  • PDF

대중의 얼굴 매력도 인지에 미치는 개별 안면 미학단위의 영향에 대한 평가 (Evaluation of Influence of Individual Facial Aesthetic Subunits on the Congnition of Facial Attractiveness in Public)

  • 이호빈;이수향;김지수;이승철
    • Archives of Plastic Surgery
    • /
    • 제37권4호
    • /
    • pp.361-368
    • /
    • 2010
  • Purpose: Authors tried to analyze the influence of individual facial aesthetic subunits on the cognition of facial attractiveness in public and suggest a mathematical model which explain the facial attractiveness. Methods: Independent facial aesthetic subunits are extracted from facial photographs from three women (11 frontal and 7 lateral aesthetic subunits). Each facial subunits of three women are rated in terms of relative rank by 164 peoples (68 man and 96 woman, average age was 32.4, and ranged ${\pm}$ 9.8 years). $x^2$-test and categorical regression analysis were performed. Results: There was no difference in the aesthetic preference in terms of ages or sexes in large. Beautification of individual aesthetic subunits can predict the overall facial attractiveness up to 42.1% in frontal face (Adjusted $R^2$=0.421, F=6.39, p=0.000 < 0.05) and 22.7% in lateral face (Adjusted $R^2$=0.227, F=4.42, p=0.000 < 0.05). Aesthetic appearance of eyes (p=0.001), upper face (p=0.034) in frontal face and midface (p=0.000) in lateral face are statistically important factors in the cognition of facial attractiveness. Conclusion: Authors experimently proved that harmony and balance among facial aesthetic subunits are the most important factors, in embarking on facial aesthetic plastic surgery, for better enhancement of facial attractiveness.

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF

간단한 사용자 인터페이스에 의한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템 (Automatic facial expression generation system of vector graphic character by simple user interface)

  • 박태희;김재호
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1155-1163
    • /
    • 2009
  • 본 논문에서는 가우시안 프로세스 모델을 이용한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템을 제안한다. 제안한 방법은 Russell의 내적 정서 상태의 차원 모형을 근거로 재정의된 캐릭터의 26가지 표정 데이터로 부터 주요 특징 벡터를 추출한다. 그리고 추출된 고차원의 특징 벡터에 대해 SGPLVM이라는 가우시안 프로세스 모델을 이용하여 저차원 특징 벡터를 찾고, 확률분포함수(PDF)를 학습한다. 확률분포함수의 모든 파라메타는 학습된 표정 데이터의 우도를 최대화함으로써 추정할 수 있으며, 이는 2차원 공간에서 사용자가 원하는 얼굴 표정을 실시간으로 선택하기 위해 사용된다. 시뮬레이션 결과 본 논문에서 제안한 표정 생성 프로그램은 얼굴 표정의 작은 데이터셋에도 잘 동작하며, 사용자는 표정과 정서간의 관련성에 관한 사전지식이 없이도 연속되는 다양한 캐릭터의 표정을 생성할 수 있음을 확인할 수 있었다.

  • PDF

3D 캐릭터의 얼굴 블렌드쉐입(blendshape)의 제작연구 -언리얼 엔진의 페이셜 캡처를 중심으로 (A Study on the Fabrication of Facial Blend Shape of 3D Character - Focusing on the Facial Capture of the Unreal Engine)

  • 러우이쓰;최동혁
    • 한국콘텐츠학회논문지
    • /
    • 제22권8호
    • /
    • pp.73-80
    • /
    • 2022
  • 얼굴 표정은 영화나 애니메이션에서 캐릭터의 특징을 나타내기 위한 중요한 수단이며, 페이셜 캡쳐 기술은 3D 캐릭터의 페이셜 애니메이션 제작을 보다 빠르고 효과적으로 지원할 수 있다. 블렌드쉐입(blendshape) 기법은 고품질의 3D 얼굴 애니메이션을 생성하기 위해 가장 널리 사용되는 방법이지만, 전통적인 블렌드쉐입은 제작에 시간이 오래 걸리는 경우가 많다. 따라서 블렌드쉐입의 제작 기간을 줄이기 위해 전통적인 제작의 효과에 크게 뒤지지 않는 결과를 얻으려는 것이 이번 연구의 목적이다. 본문은 블렌드쉐입의 제작을 위해 크로스 모델(Cross-Model)로 블렌드쉐입을 전달 방법을 사용하고, 전통적인 블렌드쉐입의 제작 방법과 비교하여 새로운 방식의 타당성을 검증하였다. 이번 연구는 언리얼 엔진이 개발한 키트 보이(kite boy)를 실험 대상으로 삼고, 각각 두 가지 블렌드쉐입 제작 기법을 사용하여 페이셜 캡처 테스트를 실시하고, 블렌드쉐입과 연동된 얼굴 표정 제작 방법의 효과를 비교 분석하였다.

iOS 플랫폼에서 Active Shape Model 개선을 통한 얼굴 특징 검출 (Improvement of Active Shape Model for Detecting Face Features in iOS Platform)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제15권2호
    • /
    • pp.61-65
    • /
    • 2016
  • Facial feature detection is a fundamental function in the field of computer vision such as security, bio-metrics, 3D modeling, and face recognition. There are many algorithms for the function, active shape model is one of the most popular local texture models. This paper addresses issues related to face detection, and implements an efficient extraction algorithm for extracting the facial feature points to use on iOS platform. In this paper, we extend the original ASM algorithm to improve its performance by four modifications. First, to detect a face and to initialize the shape model, we apply a face detection API provided from iOS CoreImage framework. Second, we construct a weighted local structure model for landmarks to utilize the edge points of the face contour. Third, we build a modified model definition and fitting more landmarks than the classical ASM. And last, we extend and build two-dimensional profile model for detecting faces within input images. The proposed algorithm is evaluated on experimental test set containing over 500 face images, and found to successfully extract facial feature points, clearly outperforming the original ASM.

Active Shape Model과 통계적 패턴인식기를 이용한 얼굴 영상 기반 감정인식 (Video-based Facial Emotion Recognition using Active Shape Models and Statistical Pattern Recognizers)

  • 장길진;조아라;박정식;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권3호
    • /
    • pp.139-146
    • /
    • 2014
  • 본 논문에서는 얼굴 영상으로부터 자동으로 사람의 감정을 인식하는 효과적인 방법을 제안한다. 얼굴 표정으로부터 감정을 파악하기 위해서는 카메라로부터 얼굴영상을 입력받고, ASM (active shape model)을 이용하여 얼굴의 영역 및 얼굴의 주요 특징점을 추출한다. 추출한 특징점으로부터 각 장면별로 49차의 크기 및 변이에 강인한 특징벡터를 추출한 후, 통계기반 패턴분류 방법을 사용하여 얼굴표정을 인식하였다. 사용된 패턴분류기는 Naive Bayes, 다중계층 신경회로망(MLP; multi-layer perceptron), 그리고 SVM (support vector machine)이며, 이중 SVM을 이용하였을 때 가장 높은 최종 성능을 얻을 수 있었으며, 6개의 감정분류에서 50.8%, 3개의 감정분류에서 78.0%의 인식결과를 보였다.

ATM 보안 시스템을 위한 모델 인증 알고리즘 (Model Verification Algorithm for ATM Security System)

  • 정헌;임춘환;편석범
    • 대한전자공학회논문지TE
    • /
    • 제37권3호
    • /
    • pp.72-78
    • /
    • 2000
  • 본 연구에서는 ATM 보안 시스템을 위한 DCT와 신경망 기반 모델 인증 알고리즘을 제안한다. CCD 카메라를 이용하여 일정한 조도와 거리에서 30명의 얼굴영상을 획득한 후 데이터 베이스를 구성한다. 모델 인증 실험을 위해 동일인에 대해 학습영상 4장 그리고 실험 영상 4장을 각각 획득한다. 얼굴영상의 에지를 검출한 후 에지 분포에 의해 얼굴영상에서 사각형태로 특징영역을 검출한다. 특징영역에는 눈썹, 눈, 코, 입, 그리고 뺨이 포함된다. 특징영역에 대해 DCT를 수행한 후 대각방향의 계수 합을 구해 특징벡터를 추출한다. 특징벡터는 정규화되어 신경망의 입력 벡터가 된다. 패스워드를 고려하지 않는 경우, 데이터 베이스를 검색한 결과 학습된 얼굴영상에 대해서는 100%의 인증율을 나타내었고 학습되지 않는 얼굴영상의 경우에는92%의 인증률을 나타내었다. 그러나 패스워드를 고려한 경우 모두 100%의 인증율을 보였다.

  • PDF

안면 연령 예측을 위한 CNN기반의 히트 맵을 이용한 랜드마크 선정 (Landmark Selection Using CNN-Based Heat Map for Facial Age Prediction)

  • 홍석미;유현
    • 융합정보논문지
    • /
    • 제11권7호
    • /
    • pp.1-6
    • /
    • 2021
  • 본 연구의 목적은 이미지 랜드마크 선정 기법을 기반으로, 인공신경망 안면 영상분석 시스템의 성능을 향상하기 위한 내용이다. 랜드마크 선정을 위하여 안면 이미지 연령을 분류를 위한 CNN 기반의 다층 ResNet 모델의 구성이 필요하며, ResNet 모델에서 입력 노드의 변화에 따른 출력 노드의 변화를 감지하는 히트 맵을 추출한다. 추출된 다수의 히트 맵을 결합하여 연령 구분 예측과 관계된 안면 랜드마크를 구성한다. 이를 통하여, 안면 랜드마크를 통하여 픽셀의 위치별 중요도를 분석할 수 있으며, 가중치가 낮은 픽셀의 제거함으로서 상당량의 입력 데이터 감소가 가능해졌다. 이러한 기법은 인공신경망 시스템의 연산 성능 향상에 기여하게 된다.

3D 얼굴 모델의 코믹한 감정 표현 (A Comic Emotional Expression for 3D Facial Model)

  • 고광훈;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.536-539
    • /
    • 1999
  • In this paper we propose a 3D emotional expression method using a comic model for effective sign-language communications. Until now we have investigated to produce more realistic facial and emotional expression. When representing only emotional expression, however, a comic expression could be better than the real picture of a face. The comic face is a comic-style expression model in which almost components except the necessary parts like eyebrows, eyes, nose and mouth are discarded. We represent emotional expression using Action Units(AU) of Facial Action Coding System(FACS). Experimental results show a possibility that the proposed method could be used efficiently for sign-language image communications.

  • PDF