• 제목/요약/키워드: Facial Model

검색결과 519건 처리시간 0.026초

신경회로망을 이용한 2D 얼굴근육 파라메터의 자동인식 (Automatic Estimation of 2D Facial Muscle Parameter Using Neural Network)

  • 김동수;남기환;한준희;배철수;권오흥;나상동
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 하계종합학술대회 논문집
    • /
    • pp.1029-1032
    • /
    • 1999
  • Muscle based face image synthesis is one of the most realistic approach to realize life-like agent in computer. Facial muscle model is composed of facial tissue elements and muscles. In this model, forces are calculated effecting facial tissue element by contraction of each muscle strength, so the combination of each muscle parameter decide a specific facial expression. Now each muscle parameter is decided on trial and error procedure comparing the sample photograph and generated image using our Muscle-Editor to generate a specific face image. In this paper, we propose the strategy of automatic estimation of facial muscle parameters from 2D marker movement using neural network. This also 3D motion estimation from 2D point or flow information in captered image under restriction of physics based face model.

  • PDF

Multi-patch Surface를 이용한 3D Facial Model 제작 효율 향상에 관한 연구 (A Study on Multi-patch Surface in Improving Efficiency of 3D Facial Modeling)

  • 진영애;김종기;김치용
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 춘계학술발표대회논문집
    • /
    • pp.492-498
    • /
    • 2003
  • 본 논문에서는 실사와 같은 사실적인 3차원 Facial Model 제작을 위해 해부학 접근을 통한 근육기반의 자연스러운 Facial Modeling 제작을 연구하였다 한국인 기본형 얼굴을 연구 대상으로 선정하여 안면근육 비례를 분석한 후 Multi-patch Surface Modeling 방법을 적용하며 제작하였다. 이 방법에는 통계적 분석기법 중 L/sub 27/(3/sup 13/) 3수준계 직교배열표를 이용하여 검증하였다. 본 연구를 통하여 Facial Model 제작 시 최소의 UV spans 수로 최대 시각화 즉, 원본의 형상을 최대한 유지하면서 작업시간과 Rendering 시간 단축 및 Data 용량을 줄일 수 있는 Modeling 방법을 제안하였고, 향후 자연스런 Facial Animation 제작 및 연구에도 많은 도움이 될 것으로 기대된다.

  • PDF

스킨 컬러와 변형 모델에 기반한 컬러영상으로부터의 얼굴 및 얼굴 특성영역 추출 (Detection of Facial Region and features from Color Images based on Skin Color and Deformable Model)

  • 민경필;전준철;박구락
    • 인터넷정보학회논문지
    • /
    • 제3권6호
    • /
    • pp.13-24
    • /
    • 2002
  • 본 논문에서는 색상 정보와 변형 모델을 이용한 얼굴 영역 및 얼굴의 특징 영역의 자동 검출 방법을 제시한다. 영상으로부터 획득할 수 있는 정보 중 가장 빠르고 쉽게 얻을 수 있는 정보가 색상 정보이며, 색상정보는 사물을 판단함에 있어서 가장 효율적이면서 컴퓨터의 계산량을 줄일 수 있다는 장점을 갖고 있기 때문에 얼굴 영역 검출 방법으로 많이 이용되고 있다. 본 연구에서는 얼굴영역 및 얼굴 특성 추출함에 있어 컬러모델 사용 시 외부 조명의 영향을 줄여주는 조명 보정 방법을 제시하고, 조명 보정에 의해 평활화 된 YCbCr 색상모델에 적용하여 각 성분 특성을 고려한 얼굴영역 및 얼굴의 특성 영역에 해당하는 후보 영역을 검출하는 방법을 제시한다. 검출된 얼굴후보 영역 및 특성 영역은 가변 모델인 동적 윤곽선 모델의 초기 값으로 자동 적용되어 윤곽선 모델 적용 시 문제점가운데 하나인 초기 값 설정문제를 해결함과 동시에 얼굴 및 얼굴 특징 정보의 정확한 윤곽선을 추출하는데 사용된다. 실험 결과 제시된 방법을 적용한 결과 빠르고 효과적으로 얼굴 및 특성 영역을 검출 할 수 있음을 입증 할 수 있었다. 이상에서 추출된 얼굴의 특성정보는 차후 얼굴 인식 및 얼굴 특성을 설명하는 얼굴 특성 서술자로 사용될 수 있다.

  • PDF

Reconstructing 3-D Facial Shape Based on SR Imagine

  • Hong, Yu-Jin;Kim, Jaewon;Kim, Ig-Jae
    • Journal of International Society for Simulation Surgery
    • /
    • 제1권2호
    • /
    • pp.57-61
    • /
    • 2014
  • We present a robust 3D facial reconstruction method using a single image generated by face-specific super resolution technique. Based on the several consecutive frames with low resolution, we generate a single high resolution image and a three dimensional facial model based on it. To do this, we apply PME method to compute patch similarities for SR after two-phase warping according to facial attributes. Based on the SRI, we extract facial features automatically and reconstruct 3D facial model with basis which selected adaptively according to facial statistical data less than a few seconds. Thereby, we can provide the facial image of various points of view which cannot be given by a single point of view of a camera.

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.

An Intelligent Emotion Recognition Model Using Facial and Bodily Expressions

  • Jae Kyeong Kim;Won Kuk Park;Il Young Choi
    • Asia pacific journal of information systems
    • /
    • 제27권1호
    • /
    • pp.38-53
    • /
    • 2017
  • As sensor technologies and image processing technologies make collecting information on users' behavior easy, many researchers have examined automatic emotion recognition based on facial expressions, body expressions, and tone of voice, among others. Specifically, many studies have used normal cameras in the multimodal case using facial and body expressions. Thus, previous studies used a limited number of information because normal cameras generally produce only two-dimensional images. In the present research, we propose an artificial neural network-based model using a high-definition webcam and Kinect to recognize users' emotions from facial and bodily expressions when watching a movie trailer. We validate the proposed model in a naturally occurring field environment rather than in an artificially controlled laboratory environment. The result of this research will be helpful in the wide use of emotion recognition models in advertisements, exhibitions, and interactive shows.

Validity of Three-dimensional Facial Scan Taken with Facial Scanner and Digital Photo Wrapping on the Cone-beam Computed Tomography: Comparison of Soft Tissue Parameters

  • Aljawad, Hussein;Lee, Kyungmin Clara
    • Journal of Korean Dental Science
    • /
    • 제15권1호
    • /
    • pp.19-30
    • /
    • 2022
  • Purpose: The purpose of the study was to assess the validity of three-dimensional (3D) facial scan taken with facial scanner and digital photo wrapping on the cone-beam computed tomography (CBCT). Materials and Methods: Twenty-five patients had their CBCT scan, two-dimensional (2D) standardized frontal photographs and 3D facial scan obtained on the same day. The facial scans were taken with a facial scanner in an upright position. The 2D standardized frontal photographs were taken at a fixed distance from patients using a camera fixed to a cephalometric apparatus. The 2D integrated facial models were created using digital photo wrapping of frontal photographs on the corresponding CBCT images. The 3D integrated facial models were created using the integration process of 3D facial scans on the CBCT images. On the integrated facial models, sixteen soft tissue landmarks were identified, and the vertical, horizontal, oblique and angular distances between soft tissue landmarks were compared among the 2D facial models and 3D facial models, and CBCT images. Result: The results showed no significant differences of linear and angular measurements among CBCT images, 2D and 3D facial models except for Se-Sn vertical linear measurement which showed significant difference for the 3D facial models. The Bland-Altman plots showed that all measurements were within the limit of agreement. For 3D facial model, all Bland-Altman plots showed that systematic bias was less than 2.0 mm and 2.0° except for Se-Sn linear vertical measurement. For 2D facial model, the Bland-Altman plots of 6 out of 11 of the angular measurements showed systematic bias of more than 2.0°. Conclusion: The facial scan taken with facial scanner showed a clinically acceptable performance. The digital 2D photo wrapping has limitations in clinical use compared to 3D facial scans.

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF

얼굴 특징영역상의 광류를 이용한 표정 인식 (Recognition of Hmm Facial Expressions using Optical Flow of Feature Regions)

  • 이미애;박기수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권6호
    • /
    • pp.570-579
    • /
    • 2005
  • 표정인식 연구는 맨$\cdot$머신 인터페이스 개발, 개인 식별, 가상모델에 의한 표정복원 등 응용가치의 무한한 가능성과 함께 다양한 분야에서 연구되고 있다 본 논문에서는 인간의 기본정서 중 행복, 분노, 놀람, 슬픔에 대한 4가지 표정을 얼굴의 강체 움직임이 없는 얼굴동영상으로부터 간단히 표정인식 할 수 있는 방법을 제안한다. 먼저, 얼굴 및 표정을 결정하는 요소들과 각 요소의 특징영역들을 색상, 크기 그리고 위치정보를 이용하여 자동으로 검출한다. 다음으로 Gradient Method를 이용하여 추정한 광류 값으로 특징영역들에 대한 방향패턴을 결정한 후, 본 연구가 제안한 방향모델을 이용하여 방향패턴에 대한 매칭을 행한다. 각 정서를 대표하는 방향모델과의 패턴 매칭에서 그 조합 값이 최소를 나타내는 부분이 가장 유사한 정서임을 판단하고 표정인식을 행한다. 마지막으로 실험을 통하여 본 논문의 유효성을 확인한다.

사실적인 3D 얼굴 모델링 시스템 (Realistic individual 3D face modeling)

  • 김상훈
    • 한국전자통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1187-1193
    • /
    • 2013
  • 본 논문은 사실적인 3D 얼굴 모델링과 얼굴 표정 생성 시스템을 제안한다. 사실적인 3D 얼굴 모델링 기법에서 개별적인 3D 얼굴 모양과 텍스쳐 맵을 만들기 위해 Generic Model Fitting 기법을 적용하였다. Generic Model Fitting에서 Deformation Function을 계산하기 위해 개별적인 얼굴과 Generic Model 사이의 대응점을 결정하였다. 그 후, Calibrated Stereo Camera로부터 캡쳐 된 영상들로부터 특징점을 3D로 복원하였다. 텍스쳐 매핑을 위해 Fitted된 Generic Model을 영상으로 Projection하였고 사전에 정의된 Triangle Mesh에서 텍스쳐를 Generic Model에 매핑 하였다. 잘못된 텍스쳐 매핑을 방지하기 위해, Modified Interpolation Function을 사용한 간단한 방법을 제안하였다. 3D 얼굴 표정을 생성하기 위해 Vector Muscle기반 알고리즘을 사용하고, 보다 사실적인 표정 생성을 위해 Deformation 과 vector muscle 기반의 턱 rotation을 적용하였다.