• Title/Summary/Keyword: 3차원 얼굴영상

Search Result 172, Processing Time 0.044 seconds

A 3D Face Reconstruction and Tracking Method using the Estimated Depth Information (얼굴 깊이 추정을 이용한 3차원 얼굴 생성 및 추적 방법)

  • Ju, Myung-Ho;Kang, Hang-Bong
    • The KIPS Transactions:PartB
    • /
    • v.18B no.1
    • /
    • pp.21-28
    • /
    • 2011
  • A 3D face shape derived from 2D images may be useful in many applications, such as face recognition, face synthesis and human computer interaction. To do this, we develop a fast 3D Active Appearance Model (3D-AAM) method using depth estimation. The training images include specific 3D face poses which are extremely different from one another. The landmark's depth information of landmarks is estimated from the training image sequence by using the approximated Jacobian matrix. It is added at the test phase to deal with the 3D pose variations of the input face. Our experimental results show that the proposed method can efficiently fit the face shape, including the variations of facial expressions and 3D pose variations, better than the typical AAM, and can estimate accurate 3D face shape from images.

2D Image-Based Individual 3D Face Model Generation and Animation (2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션)

  • 김진우;고한석;김형곤;안상철
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1999.11b
    • /
    • pp.15-20
    • /
    • 1999
  • 본 논문에서는 사람의 정면 얼굴을 찍은 컬러 동영상에서 얼굴의 각 구성 요소에 대한 특징점들을 추출하여 3차원 개인 얼굴 모델을 생성하고 이를 얼굴의 표정 움직임에 따라 애니메이션 하는 방법을 제시한다. 제안된 방법은 얼굴의 정면만을 촬영하도록 고안된 헬멧형 카메라( Head-mounted camera)를 사용하여 얻은 2차원 동영상의 첫 프레임(frame)으로부터 얼굴의 특징점들을 추출하고 이들과 3차원 일반 얼굴 모델을 바탕으로 3차원 얼굴 특징점들의 좌표를 산출한다. 표정의 변화는 초기 영상의 특징점 위치와 이 후 영상들에서의 특징점 위치의 차이를 기반으로 알아낼 수 있다. 추출된 특징점 및 얼굴 움직임은 보다 다양한 응용 이 가능하도록 최근 1단계 표준이 마무리된 MPEG-4 SNHC의 FDP(Facial Definition Parameters)와FAP(Facial Animation Parameters)의 형식으로 표현되며 이를 이용하여 개인 얼굴 모델 및 애니메이션을 수행하였다. 제안된 방법은 단일 카메라로부터 촬영되는 영상을 기반으로 이루어지는 MPEG-4 기반 화상 통신이나 화상 회의 시스템 등에 유용하게 사용될 수 있다.

  • PDF

A Implementation of 3D Virtual Face using two 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴 구현)

  • 임낙현;서경호;김태효
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.12a
    • /
    • pp.117-120
    • /
    • 2000
  • 본 논문에서는 2매의 2차원 얼굴영상으로부터 이들을 합성하여 3차원 얼굴의 가상형상을 복원한다. 여기서 2매의 2차원 얼굴영상은 정면과 측면 영상을 사용한다. 우선 임의의 일반 얼굴에 대한 기준모델을 설정하고, 이 모델에서, 얼굴형상의 특징을 표현하는 귀, 2개의 눈, 코 및 입 부분에 집중적으로 특징점을 규정하고, 그 외에 이마 및 턱 부분에도 특징 점을 규정하여 그 위치좌표를 저장해 둔다. 그 후 정면영상의 좌 우측에 측면영상을 대칭적으로 접속하고 영상의 기하변환 방법을 적용하여 점차적으로 합성한다. 이때 나타나는 합성부분에 색상 및 명도의 차를 제거하기 위해 선형보간법을 적용하여 자연스런 3차원 가상얼굴을 구현하게 된다. 그 결과 불특정 얼굴형상도 3차원으로 구현할 수 있음을 확인하였다.

  • PDF

Motions syntheses 0in 3D facial model using features and motion parameters estimated through optical flow (Optical flow를 이용한 얼굴요소 및 얼굴의 움직임 측정값에 따른 3차원 얼굴모델의 움직임 합성)

  • 박도영;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.408-410
    • /
    • 1998
  • 동영상에서 얼굴의 움직임을 이해하는 것은 인간과 컴퓨터간의 상호작용을 이루는 분야에서 중요한 문제이다. 본 논문에서는 2차원 동영상에서 얼굴요소 및 얼굴의 움직임을 측정하기 위해 optical flow를 통해 매개변수화된 움직임 벡터를 추출한다. 그리고 나서, 이를 소수의 매개변수들의 조합으로 만들어 얼굴의 움직임에 대한 정보를 묘사할 수 있게 하였다. 매개변수화된 움직임 벡터는 얼굴 및 얼굴 요소의 특징에 따라 다른 벡터 모델을 사용한다. 2차원 동영상에서 매개변수화된 움직임 벡터는 매 프레임마다 갱신되어 각 프레임에서 얼굴 및 얼굴 요소의 위치를 파악한다. 또한, 갱신된 벡터의 매개변수 조합으로 만들어 확인된 움직임에 대한 정보가 3차원 얼굴모델에 전달되며 3차원 얼굴 모델의 단위행위(Action Unit)와 연결되어 2차원 동영상에서의 얼굴 움직임을 합성할 수 있게 하였다.

  • PDF

3D Face Image Watermarking using Wavelet Transform (웨이브렛 변환을 이용한 3차원 얼굴영상 워터마킹)

  • 이정환;박세훈;이시웅
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.691-694
    • /
    • 2003
  • This paper proposes an 3D face image watermarking method based on discrete wavelet transform(DWT). First, 3D face image are transformed by DWT and inserted gaussian watermark into frequency domain. To increase the robustness and perceptual invisibility of watermark, the proposed algorithm is combined with the characteristics of 3D face image and human visual system. The proposed method is invisible and blind watermarking which the original image is not required. Simulation results show that the proposed method is robust to the general attack such as JPEG compression, enhancement, noise, cropping, and filtering etc.

  • PDF

Texture Mapping and 3D Face Modeling using Two Views of 2D Face Images (2장의 2차원 얼굴영상을 이용한 텍스쳐 생성과 자동적인 3차원 얼굴모델링)

  • Weon, Sun-Hee;Kim, Gye-Young
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.9
    • /
    • pp.705-709
    • /
    • 2009
  • In this paper, we propose 3d face modeling using two orthogonal views of 2D face images and automatically facial feature extraction. Th proposed technique consists of 2 parts, personalization of 3d face model and texture mapping.

Image-based 3D Face Modeling (영상기반 3차원 얼굴 모델링)

  • 민경필;전준철;박구락
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.169-171
    • /
    • 2003
  • 현실감 있는 얼굴 모델을 생성하기 위한 방법은 70년대부터 계속되었지만, 얼굴 구조의 복잡성, 색상과 텍스처의 다양한 분포, 잔주름과 같은 미세한 부분을 표현하기 어렵다는 정들로 인해 아직까지도 계속 연구되어지고 있다. 본 논문은 기존의 하드웨어 의존적인 3차원 얼굴 모델을 생성 방법이 아닌 2차원 얼굴 영상만으로 얼굴 모델을 생성하는 방법을 제시한다. 연구 수행 단계는 크게 얼굴 영역 검출 과정과 얼굴 모델링 과정으로 나뉘어지며, 얼굴 영역 검출을 위해 정규화된 TS 색상값과 얼굴의 피부색에 대한 평균과 공분산을 이용한 마할라노비스 거리 측정법을 이용한다. 얼굴 모델링 과정에서는 2차원 영상으로부터 3차원 정보를 추출한 뒤 일반 얼굴 모델에 변형을 주어 모델을 생성한다. 보다 현실감 있는 모델을 생성하기 위해 텍스쳐 매핑 기법을 추가한다. 본 연구를 통해 생성되는 얼굴 모델은 아바타 생성, 화상회의, 인증 시스템과 같은 분야에 적용 가능하며, 입력 영상에 대한 제약점을 줄이고 또한 사람의 손이 거치지 않고 전체적으로 자동화되어 처리할 수 있는 시스템을 제안한다.

  • PDF

Real-time Expression Control of Vision Based 3 Dimensional Face Model (비전 기반 3차원 얼굴 모델의 실시간 표정 제어)

  • 김정기;민경필;전준철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.748-750
    • /
    • 2004
  • 본 논문은 연속적으로 입력되는 2차원 얼굴 영상에서 얼굴의 특징 영역들을 추출하여 3차원 얼굴 모델의 표정을 실시간으로 제어하는 방법에 관한 연구이다. 2차원 얼굴 영상에서 얼굴을 추출하기 위해 Hue, Saturation 색상 값을 사용하며, 두 가지 색상 값을 이용하여 피부색과 배경색을 분리함으로써 얼굴 영역을 추출 할 수 있다. 추출 된 얼굴에서 특징 영역인 눈 코, 입술 영역 등의 일지를 각각의 영역에 적합한 추출 방법을 이용하여 추출한 뒤, 프레임 별로 영역들의 움직임을 비교함으로써 영역의 움직임 정보를 획득 할 수 있다. 이 정보를 3차원 얼굴 모델에 적용하여 2차원 동영상에서 획득된 대상의 얼굴의 표정을 3차원 얼굴 모델에 실시간으로 표현 할 수 있도록 한다.

  • PDF

3D Facial Synthesis and Animation for Facial Motion Estimation (얼굴의 움직임 추적에 따른 3차원 얼굴 합성 및 애니메이션)

  • Park, Do-Young;Shim, Youn-Sook;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.6
    • /
    • pp.618-631
    • /
    • 2000
  • In this paper, we suggest the method of 3D facial synthesis using the motion of 2D facial images. We use the optical flow-based method for estimation of motion. We extract parameterized motion vectors using optical flow between two adjacent image sequences in order to estimate the facial features and the facial motion in 2D image sequences. Then, we combine parameters of the parameterized motion vectors and estimate facial motion information. We use the parameterized vector model according to the facial features. Our motion vector models are eye area, lip-eyebrow area, and face area. Combining 2D facial motion information with 3D facial model action unit, we synthesize the 3D facial model.

  • PDF

An Automatic Matching between Video Frames and 3D Facial Model (동영상과 3차원 얼굴 모델이 자동 정합)

  • Lee, Jung;Kim, Chang-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04b
    • /
    • pp.613-615
    • /
    • 2001
  • 본 논문은 동영상 내의 얼굴을 특정인 얼굴로 자동 변환 및 정합하는 기술을 제안한다. 얼굴에 나타난 동작이나 표정은 높은 자유도로 인하여 기존에 사용되어온 2차원적이고 고정된 물체 위주의 동영상 정합 기술로는 자연스러운 결과물을 얻기가 어렵다. 본 논문에서는 입력 받은 정면 유사방향의 사진으로부터 3차원 얼굴 모델을 복원한다. 각 프레임에 등장한 얼굴의 3차원 방향을 추출하여 복원한 3차원 얼굴 모델에 적용한 후 대체할 얼굴 영역에 저합시킨다. 정합 과정 시 비디오 프레임 내의 조명효과와 얼굴색 등을 분석하고 3차원 얼굴 모델에 블렌딩하여 비디오 프레임과 자연스럽게 정합할 수 있도록 한다.

  • PDF