• 제목/요약/키워드: Facial Model

검색결과 523건 처리시간 0.023초

다양한 얼굴 표현을 위한 하이브리드 nsNMF 방법 (A Hybrid Nonsmooth Nonnegative Matrix Factorization for face representation)

  • 이성주;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.957-958
    • /
    • 2008
  • The human facial appearances vary globally and locally according to identity, pose, illumination, and expression variations. In this paper, we propose a hybrid-nonsmooth nonnegative matrix factorization (hybrid-nsNMF) based appearance model to represent various facial appearances which vary globally and locally. Instead of using single smooth matrix in nsNMF, we used two different smooth matrixes and combine them to extract global and local basis at the same time.

  • PDF

3차원 얼굴 모델 링 을 이 용한 표정 합성 (Facial Expression Synthesis Using 3D Facial Modeling)

  • 심연숙;변혜란;정찬섭
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1998년도 추계학술발표 논문집
    • /
    • pp.40-44
    • /
    • 1998
  • 사용자에 게 친근감 있는 인터페이스를 제공하기 위해 자연스러운 얼굴 애니메이션에 대한 연구가 활발히 진행 중이다.[5][6] 본 논문에서는 자연스러운 얼굴의 표정 합성을 위한 애니메이션 방법 을 제안하였다. 특정한 사람을 모델로 한 얼굴 애니메이션을 위하여 우선 3차원 메쉬로 구성된 일반 모델(generic model)을 특정 사람에게 정합 하여 특정인의 3차원 얼굴 모델을 얻을 수 있다 본 논문에서는 한국인의 자연스러운 얼굴 표정합성을 위하여, 한국인의 표준얼굴에 관한 연구결과를 토대로 한국인 얼굴의 특징을 반영한 일반모델을 만들고 이를 이용하여 특정인의 3차원 얼굴 모델을 얻을 수 있도록 하였다. 실제 얼굴의 근육 및 피부 조직 등 해부학적 구조에 기반 한 표정 합성방법을 사용하여 현실감 있고 자연스러운 얼굴 애니메이션이 이루어질 수 있도록 하였다.

  • PDF

표정-내적상태 상관모형을 위한 얼굴 DB 구축 (Construction of facial database for a facial expression-inner states correlation model)

  • 반세범;한재현;정찬섭
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1997년도 한국감성과학회 연차학술대회논문집
    • /
    • pp.215-219
    • /
    • 1997
  • 내적 감성상태와 표정을 연결하는 상관모형을 개발하기 위\ulcorner 기초자료로서 광범위한 얼굴표정자료를 수집하였다. 다양한 얼굴유형의 표정자료를 DB화하기 위해서는 궁극적으로 50명 이상의 인물표정 자료수집이 필요하다고 보고, 우선 영화배우 10면분의 표정자료를 수집하였다. 이를 위해 표정연기가 자연스럽다고 평가된 영화배우 10명을 선정하고, 이들이 출연한 50여편의 영화비디오에서 표정자료를 수집하였다. 한사람의 인물당 50개의 표정을 한세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 한사람의 인물당 50개의 표정을 한 세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 각각의 표정은 시작-상승-절정-하강-종료의 연속 5단계를 비율적으로 표집하여 동적정보를 포함하고 있다. 이들 자료들은 등자인물의 출연맥락이나 상황별로 분류하여 표정관련 맥락단서를 기록하였고, 후속연구를 통해 각 표정에 대응되는 내적상태를 기록할 수 있도록 DB화 하였다. 이와같이 구조화된 자료들은 표정인식과 합성의 입출력모형을 위한 기초자료로 활용될 뿐 아니라, 한국인의 얼굴 프로토타입 DB구축 및 향후 표정관련 연구의 타당성을 검증할 수 있는 Benchmarking 정보를 제공할 수 있다.

  • PDF

A Gesture-Emotion Keyframe Editor for sign-Language Communication between Avatars of Korean and Japanese on the Internet

  • Kim, Sang-Woon;Lee, Yung-Who;Lee, Jong-Woo;Aoki, Yoshinao
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.831-834
    • /
    • 2000
  • The sign-language tan be used a9 an auxiliary communication means between avatars of different languages. At that time an intelligent communication method can be also utilized to achieve real-time communication, where intelligently coded data (joint angles for arm gestures and action units for facial emotions) are transmitted instead of real pictures. In this paper we design a gesture-emotion keyframe editor to provide the means to get easily the parameter values. To calculate both joint angles of the arms and the hands and to goner-ate the in keyframes realistically, a transformation matrix of inverse kinematics and some kinds of constraints are applied. Also, to edit emotional expressions efficiently, a comic-style facial model having only eyebrows, eyes nose, and mouth is employed. Experimental results show a possibility that the editor could be used for intelligent sign-language image communications between different lan-guages.

  • PDF

Face-to-face Communication in Cyberspace using Analysis and Synthesis of Facial Expression

  • Shigeo Morishima
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.111-118
    • /
    • 1999
  • Recently computer can make cyberspace to walk through by an interactive virtual reality technique. An a avatar in cyberspace can bring us a virtual face-to-face communication environment. In this paper, an avatar is realized which has a real face in cyberspace and a multiuser communication system is constructed by voice transmitted through network. Voice from microphone is transmitted and analyzed, then mouth shape and facial expression of avatar are synchronously estimated and synthesized on real time. And also an entertainment application of a real-time voice driven synthetic face is introduced and this is an example of interactive movie. Finally, face motion capture system using physics based face model is introduced.

컬러채널 실시간 복합 얼굴영역 검출 시스템 연구 (A Study on Real-Time Detection System of Facial Region using Color Channel)

  • 송선희;석경휴;정유선;박동석;배철수;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.463-467
    • /
    • 2004
  • 본 논문에서는 컬러정보를 이용하여 외부 조명의 영향에 대응하면서 얼굴 후보영역을 추출하고, 추출된 후보 영역으로부터 다채널 스킨컬러 모델로 특정 정보를 추출하는 검출 기법을 제시한다. 외부 조명에 민감한 스킨컬러 특성을 고려해 색상정보와 광도를 분리할 수 있는 Y $C_{r}$ , $C_{b}$ 색상모델을 이용하며, Green, Blue 채널의 정보를 Gaussian 확률밀도 모델로부터 $C_{b-}$ $C_{g}$ 의 좁은 범위에 분포되어 있는 스킨컬러 영역 밀도를 모델링한다. 또한 얼굴영역에 Region Restricting과 임계값 반복 알고리즘을 사용하여 눈 영역 검출 과정을 보이고, 실시간 복합 얼굴 검출 시스템 조명방식에 의해 결과를 나타낸다.다.

  • PDF

깊이영상을 이용한 나이와 성별인식을 통해 캐릭터 플로팅 홀로그램 구현 (Implementation of Character Floating Hologram by Age and Gender Recognitions using Depth Images)

  • 오규진;권순각
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.146-156
    • /
    • 2019
  • In this paper, we propose a character floating hologram system using the user's gender and age. The proposed system recognizes the gender and age of the user through depth images and color images. The depth images are used to find and normalize facial position. Next, by using facial color images, the age and gender are estimated through an verified database-based model of CNN. Finally, the estimated age and gender are expressed to a character for the floating hologram. The proposed system can be used in a variety of areas, including marketing, advertising, and exhibition events using gender or age.

점진적 AAM을 이용한 강인한 얼굴 윤곽 검출 (Robust Face Alignment using Progressive AAM)

  • 김대환;김재민;조성원;장용석;김부균;정선태
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.11-20
    • /
    • 2007
  • AAM은 얼굴 윤곽 검출에 잘 적용되어 왔으나 초기값에 민감하다는 특성을 가지고 있다. 본 논문에서는 점진적 AAM을 이용한 얼굴 윤곽 검출 방법을 제안한다. 제안한 방법은 얼굴 모델 구성 및 관계 추출 단계와 얼굴 윤곽 검출 단계의 2단계로 구성된다. 얼굴 모델 구성 및 관계 추출 단계에서는 먼저 얼굴 내부 영역만으로 구성된 얼굴 내부 AAM 모델 구성과 얼굴 전체 영역으로 구성된 얼굴 전체 AAM 모델 구성을 수행한 후에, 이후 얼굴 내부 AAM 모델 파라미터 벡터와 얼굴 전체 AAM 모델 파라미터 벡터간의 관계 행렬을 추출한다. 얼굴 윤곽 검출 단계는 2단계 절차로 수행된다. 먼저 새로 입력되는 얼굴 이미지에 대해 얼굴 내부 AAM 모델을 맞추어 얼굴 내부에 대한 특징 파라미터 벡터를 구한다. 이후 얼굴 모델 구성 및 관계 추출 단계에서 구한 관계 행렬과 첫 단계에서 구한 얼굴 내부 특징 파라미터 벡터를 이용하여 얼굴 전체 AAM 특징 파라미터 벡터에 대한 초기값을 추정하고 이를 이용하여 새로 입력되는 얼굴 이미지에 대해 얼굴 전체 AAM 모델을 맞추어 전체 얼굴 윤곽 검출을 수행한다. 실험을 통해 제안된 점진적 AAM 기반 얼굴 윤곽 검출 방법이 자세, 얼굴 배경 등에 대해 기존 기본 AAM 기반 얼굴 검출 방법보다 더 강인한 것으로 확인되었다.

정서 재인 방법 고찰을 통한 통합적 모델 모색에 관한 연구 (Toward an integrated model of emotion recognition methods based on reviews of previous work)

  • 박미숙;박지은;손진훈
    • 감성과학
    • /
    • 제14권1호
    • /
    • pp.101-116
    • /
    • 2011
  • 정서 컴퓨팅 분야는 인간과 컴퓨터 간 상호작용을 효과적이게 하기 위하여 사용자의 정서를 재인하는 컴퓨터 시스템을 개발했다. 본 연구의 목적은 심리학적 이론에 기반한 정서 재인 연구들을 고찰하고 보다 진보된 정서 재인 방법을 제안하고자 하였다. 본 연구의 본론에서는 심리학적 이론에 근거한 대표적인 정서 재인 방법을 고찰하였다. 첫째, Darwin 이론에 근거한 얼굴 표정 기반 정서 재인 방법을 고찰하였다. 둘째, James 이론에 근거한 생리신호기반 정서 재인 방법을 고찰하였다. 셋째, 앞의 두 이론에 통합적으로 근거한 다중 모달리티 기반 정서 재인 방법을 고찰하였다. 세 가지 방법들은 이론적 배경과 현재까지 이루어진 연구 결과들을 중심으로 고찰되었다. 결론에서는 선행 연구의 한계점을 종합하여 보다 진보된 정서 재인 방법을 제안하였다. 본 연구는 첫째, 현재 사용되고 있는 제한된 생리 신호에 대한 대안으로 다양한 생리 반응(예., 뇌 활동, 얼굴온도 등)을 정서 재인에 포함하도록 제안하였다. 둘째, 애매한 정서를 구분할 수 있도록 정서의 차원 개념에 기반한 정서 재인 방법을 제안하였다. 셋째, 정서 유발에 영향을 미치는 인지적 요소를 정서 재인에 포함하도록 제안하였다. 본 연구에서 제안한 정서 재인 방법은 다양한 생리 신호를 포함하고, 정서의 차원적 개념에 기반하며, 인지적 요소를 고려한 통합적인 모델이다.

  • PDF

자가 미소 훈련을 위한 자동 미소 분석 시스템 (An Automatic Smile Analysis System for Smile Self-training)

  • 송원창;강선경;정성태
    • 한국멀티미디어학회논문지
    • /
    • 제14권11호
    • /
    • pp.1373-1382
    • /
    • 2011
  • 본 논문에서는 사용자가 스스로 미소 훈련을 할 수 있도록 자동으로 미소를 분석하는 시스템을 제안한다. 제안된 시스템은 입력 영상으로부터 AdaBoost 알고리즘을 통해 얼굴 영역을 검출한 다음, ASM(active shape model)을 이용하여 생성된 얼굴 형태 모델을 이용하여 얼굴의 특징을 찾는다. 얼굴 특징을 찾은 다음에는 미소 분석에 필요한 입술 라인과 개별 치아 영역을 추출한다. 미소의 정도를 분석하기 위해 입술 라인과 치아와의 관계 판별이 필요한데, 이를 위해 치아 영상에 대해 2차 미분을 실행한 후, 세로축과 가로축에 히스토그램 프로젝션 방법을 이용하여 개별적인 치아 영역을 찾는다. 입술 라인과 개별 치아 영역에 대한 분석을 통해 사용자의 미소 정도를 자동으로 분석하고 결과를 실시간으로 사용자가 직접 확인할 수 있게 해 준다. 본 논문에서 개발된 시스템은 기존에 치과 병원에서 이루어진 미소 훈련을 위한 미소 평가 결과와 8.6% 이하의 오차를 보였으며 사용자가 혼자서도 미소를 훈련하는데 활용할 수 있는 것으로 분석되었다.