• Title/Summary/Keyword: 얼굴 모델

Search Result 597, Processing Time 0.026 seconds

3D Facial Modeling and Synthesis System for Realistic Facial Expression (자연스러운 표정 합성을 위한 3차원 얼굴 모델링 및 합성 시스템)

  • 심연숙;김선욱;한재현;변혜란;정창섭
    • Korean Journal of Cognitive Science
    • /
    • v.11 no.2
    • /
    • pp.1-10
    • /
    • 2000
  • Realistic facial animation research field which communicates with human and computer using face has increased recently. The human face is the part of the body we use to recognize individuals and the important communication channel that understand the inner states like emotion. To provide the intelligent interface. computer facial animation looks like human in talking and expressing himself. Facial modeling and animation research is focused on realistic facial animation recently. In this article, we suggest the method of facial modeling and animation for realistic facial synthesis. We can make a 3D facial model for arbitrary face by using generic facial model. For more correct and real face, we make the Korean Generic Facial Model. We can also manipulate facial synthesis based on the physical characteristics of real facial muscle and skin. Many application will be developed such as teleconferencing, education, movies etc.

  • PDF

Pose Estimation of Face Using 3D Model and Optical Flow in Real Time (3D 모델과 Optical flow를 이용한 실시간 얼굴 모션 추정)

  • Kwon, Oh-Ryun;Chun, Jun-Chul
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.780-785
    • /
    • 2006
  • HCI, 비전 기반 사용자 인터페이스 또는 제스쳐 인식과 같은 많은 분야에서 3 차원 얼굴 모션을 추정하는 것은 중요한 작업이다. 연속된 2 차원 이미지로부터 3 차원 모션을 추정하기 위한 방법으로는 크게 외형 기반 방법이나 모델을 이용하는 방법이 있다. 본 연구에서는 동영상으로부터 3 차원 실린더 모델과 Optical flow를 이용하여 실시간으로 얼굴 모션을 추정하는 방법을 제안하고자 한다. 초기 프레임으로부터 얼굴의 피부색과 템플릿 매칭을 이용하여 얼굴 영역을 검출하고 검출된 얼굴 영역에 3 차원 실린더 모델을 투영하게 된다. 연속된 프레임으로 부터 Lucas-Kanade 의 Optical flow 를 이용하여 얼굴 모션을 추정한다. 정확한 얼굴 모션 추정을 하기 위해 IRLS 방법을 이용하여 각 픽셀에 대한 가중치를 설정하게 된다. 또한, 동적 템플릿을 이용해 오랫동안 정확한 얼굴 모션 추정하는 방법을 제안한다.

  • PDF

An Automatic Matching between Video Frames and 3D Facial Model (동영상과 3차원 얼굴 모델이 자동 정합)

  • Lee, Jung;Kim, Chang-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.613-615
    • /
    • 2001
  • 본 논문은 동영상 내의 얼굴을 특정인 얼굴로 자동 변환 및 정합하는 기술을 제안한다. 얼굴에 나타난 동작이나 표정은 높은 자유도로 인하여 기존에 사용되어온 2차원적이고 고정된 물체 위주의 동영상 정합 기술로는 자연스러운 결과물을 얻기가 어렵다. 본 논문에서는 입력 받은 정면 유사방향의 사진으로부터 3차원 얼굴 모델을 복원한다. 각 프레임에 등장한 얼굴의 3차원 방향을 추출하여 복원한 3차원 얼굴 모델에 적용한 후 대체할 얼굴 영역에 저합시킨다. 정합 과정 시 비디오 프레임 내의 조명효과와 얼굴색 등을 분석하고 3차원 얼굴 모델에 블렌딩하여 비디오 프레임과 자연스럽게 정합할 수 있도록 한다.

  • PDF

Face and Its Components Extraction of Animation Characters Based on Dominant Colors (주색상 기반의 애니메이션 캐릭터 얼굴과 구성요소 검출)

  • Jang, Seok-Woo;Shin, Hyun-Min;Kim, Gye-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.10
    • /
    • pp.93-100
    • /
    • 2011
  • The necessity of research on extracting information of face and facial components in animation characters have been increasing since they can effectively express the emotion and personality of characters. In this paper, we introduce a method to extract face and facial components of animation characters by defining a mesh model adequate for characters and by using dominant colors. The suggested algorithm first generates a mesh model for animation characters, and extracts dominant colors for face and facial components by adapting the mesh model to the face of a model character. Then, using the dominant colors, we extract candidate areas of the face and facial components from input images and verify if the extracted areas are real face or facial components by means of color similarity measure. The experimental results show that our method can reliably detect face and facial components of animation characters.

Anatomy-Based Face Animation for Virtual Reality (가상현실을 위한 해부학에 기반한 얼굴 애니메이션)

  • 김형균;오무송;고석만;김장형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.280-282
    • /
    • 2003
  • 본 논문에서는 가상현실 환경에서 인체 모델의 애니메이션을 위하여 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2 장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육 모델을 수정하여 사용하였다.

  • PDF

3D Face Model Texturing Using Panorama Image Stitching (파노라마 이미지 스티칭 기술을 이용한 3차원 얼굴 모델 텍스쳐링 기법)

  • Cho, Kwang-Hyeon;Kim, Gye-Young;Choi, Hyung-Il
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2011.01a
    • /
    • pp.47-49
    • /
    • 2011
  • 본 논문에서는 사용자의 정면, 측면 영상을 이용하여 3차원 얼굴 모델에 적합한 텍스쳐 맵을 생성, 이를 이용하여 3차원 얼굴 모델을 생성하는 방법을 제안한다. 기존 3차원 얼굴 모델은 매핑 할 텍스쳐 영상들을 하나로 통합하여 이를 원통형 좌표계를 통해 텍스쳐링 하는 방법이 이용되고 있다. 이때 정면과 측면의 영상을 3차원 얼굴 모델의 중심축을 기준으로 계산하여 좌표에 맞게 투영시키고 통합 및 보간하여 텍스쳐링 하게 된다. 사용자는 이를 위하여 정면과 측면 영상을 원통형 좌표에 맞게 통합시키는 작업이 필요하다. 본 논문은 사용자에게 수반되는 이러한 작업을 줄이고 발생될 수 있는 텍스쳐의 왜곡을 최소화하기 위한 방법을 제시한다. 2차원 정면 측면 이미지를 3차원 얼굴모델에 투영시키고 정면과 측면을 구분하여 각 텍스쳐 간 경계 부분을 자연스럽게 처리하기 위해 파노라마 이미지 스티칭 기술을 이용하여 텍스쳐링 한 뒤 얼굴 모델을 생성하는 방법에 대해서 기술한다.

  • PDF

A Three-Dimensional Facial Modeling and Prediction System (3차원 얼굴 모델링과 예측 시스템)

  • Gu, Bon-Gwan;Jeong, Cheol-Hui;Cho, Sun-Young;Lee, Myeong-Won
    • Journal of the Korea Computer Graphics Society
    • /
    • v.17 no.1
    • /
    • pp.9-16
    • /
    • 2011
  • In this paper, we describe the development of a system for generating a 3-dimensional human face and predicting it's appearance as it ages over subsequent years using 3D scanned facial data and photo images. It is composed of 3-dimensional texture mapping functions, a facial definition parameter input tool, and 3-dimensional facial prediction algorithms. With the texture mapping functions, we can generate a new model of a given face at a specified age using a scanned facial model and photo images. The texture mapping is done using three photo images - a front and two side images of a face. The facial definition parameter input tool is a user interface necessary for texture mapping and used for matching facial feature points between photo images and a 3D scanned facial model in order to obtain material values in high resolution. We have calculated material values for future facial models and predicted future facial models in high resolution with a statistical analysis using 100 scanned facial models.

Collaborative Local Active Appearance Models for Illuminated Face Images (조명얼굴 영상을 위한 협력적 지역 능동표현 모델)

  • Yang, Jun-Young;Ko, Jae-Pil;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.36 no.10
    • /
    • pp.816-824
    • /
    • 2009
  • In the face space, face images due to illumination and pose variations have a nonlinear distribution. Active Appearance Models (AAM) based on the linear model have limits to the nonlinear distribution of face images. In this paper, we assume that a few clusters of face images are given; we build local AAMs according to the clusters of face images, and then select a proper AAM model during the fitting phase. To solve the problem of updating fitting parameters among the models due to the model changing, we propose to build in advance relationships among the clusters in the parameter space from the training images. In addition, we suggest a gradual model changing to reduce improper model selections due to serious fitting failures. In our experiment, we apply the proposed model to Yale Face Database B and compare it with the previous method. The proposed method demonstrated successful fitting results with strongly illuminated face images of deep shadows.

A Study on Creation of 3D Facial Model Using Facial Image (임의의 얼굴 이미지를 이용한 3D 얼굴모델 생성에 관한 연구)

  • Lee, Hea-Jung;Joung, Suck-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.12 no.2 s.46
    • /
    • pp.21-28
    • /
    • 2007
  • The facial modeling and animation technology had been studied in computer graphics field. The facial modeling technology is utilized much in virtual reality research purpose of MPEG-4 and so on and movie, advertisement, industry field of game and so on. Therefore, the development of 3D facial model that can do interaction with human is essential to little more realistic interface. We developed realistic and convenient 3D facial modeling system that using a optional facial image only. This system allows easily fitting to optional facial image by using the Korean standard facial model (generic model). So it generates intuitively 3D facial model as controling control points elastically after fitting control points on the generic model wire to the optional facial image. We can confirm and modify the 3D facial model by movement, magnify, reduce and turning. We experimented with 30 facial images of $630{\times}630$ sizes to verify usefulness of system that developed.

  • PDF

Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model (다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원)

  • Kim, Sang-Hoon
    • The KIPS Transactions:PartB
    • /
    • v.9B no.5
    • /
    • pp.563-570
    • /
    • 2002
  • Robust extraction of 3D facial features and global motion information from 2D image sequence for the MPEG-4 SNHC face model encoding is described. The facial regions are detected from image sequence using multi-modal fusion technique that combines range, color and motion information. 23 facial features among the MPEG-4 FDP (Face Definition Parameters) are extracted automatically inside the facial region using color transform (GSCD, BWCD) and morphological processing. The extracted facial features are used to recover the 3D shape and global motion of the object using paraperspective camera model and SVD (Singular Value Decomposition) factorization method. A 3D synthetic object is designed and tested to show the performance of proposed algorithm. The recovered 3D motion information is transformed into global motion parameters of FAP (Face Animation Parameters) of the MPEG-4 to synchronize a generic face model with a real face.