• Title/Summary/Keyword: 2차원 얼굴 영상

Search Result 135, Processing Time 0.021 seconds

Face Texture Generation using an Image Alignment Algorithm based on Variable-Sized Blocks of Cylindrical Prototype Model (실린더형 원형모델의 가변적 블록크기를 기반으로 하는 영상정렬 알고리즘을 이용한 얼굴 텍스쳐 생성)

  • Lee, Joong-Jae;Choi, Hyung-Il
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.11
    • /
    • pp.855-863
    • /
    • 2001
  • We propose an image alignment algorithm based on variable-sized blocks of cylindrical prototype model to generate a face texture for a realistic 3D face model. This is a block matching algorithm which aligns 2D images of a 3D cylindrical model using th correlation between them. While matching blocks, it does not use same sized blocks with considering a curvature of 3D model. And we make a texture of aligned images using a technique of image mosaic. For this purpose, we stitch them with assigning linear weights according to the overlapped region and using the cross-dissolve technique.

  • PDF

Optimal Face Detection using Independent Component (독립성분분석을 이용한 최적의 얼굴 검출)

  • 박윤원;이필규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.496-498
    • /
    • 2002
  • 정보화 시대가 도래하고 급격히 발전해 감에 있어 모든 형태의 정보가 가장 중요한 가치로 평가되고있고 멀티미디어가 급속히 발달함으로 인해 산업 및 생활에서 정보 보안이 매우 중요한 관건이 되어 정보보안의 여러 형태 중의 한가지로서 얼굴인식은 최근 연구가 활발하게 이루어지고 있다. 얼굴인식은 신체의 일부를 직접 접촉하지 않으므로 사용자로 하여금 불편함이나 기계적 반감을 불러일으키지 않는 장점으로 그 비중은 커질 것으로 예상되고 있다. 영상에 있어서 많은 중요한 정보가 영상픽셀들간의 고차원적인 연관 속에 담겨져 있을 것이다. ICA(Independent Component Analysis)는 이러한 고차원적인 정보를 2차원적인 정보로부터 추출하는 것이 아니라 각각의 고차원적인 정보를 직접 얻을 수 있는 장점을 이용하고 있다. 본 논문에서는 얼굴인식시스템의 첫번째 관문인 배경화면으로부터의 얼굴영상을 구별해내는 데 있어 ICA를 적용하여 기저영상벡터공간(Source or Basis Image Space)을 구하고 그 공간에 테스트할 영상을 투영시켜 얻어진 벡터의 consine distance를 이용하여 얼굴영상을 추출하는 방법에 대해서 제안하였다.

  • PDF

Real-time Face Recognition System Using the LDA (LDA를 이용한 실시간 얼굴인식 시스템 구현)

  • 박윤재;김형민;고현주;전명근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.655-657
    • /
    • 2004
  • 본 논문에서는 생체인식분야로 얼굴인식이 실제 시스템에서는 어느 정도의 인식률을 가질 수 있으며, 또한 얼굴 인식에서 많이 쓰이는 Fisherface에 Wavelet Transform으로 얼굴인식에서 단점인 대량의 데이터 핸들링을 극복하면서 인식률을 높일 수 있는 방법을 제안하였다. 실제로 원영상을 2차원 이산 웨이블릿 변환을 수행하면 4분의 1의 다운샘플링 된 저주파 영역만 뽑아 사용하므로 원영상을 이용한 Fisherface와 다름없는 높은 인식률을 보장하면서 데이터량을 줄여 얼굴인식의 데이터 부담을 줄일 수 있었다.

  • PDF

A Gaze Detection Technique Using a Monocular Camera System (단안 카메라 환경에서의 시선 위치 추적)

  • 박강령;김재희
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.10B
    • /
    • pp.1390-1398
    • /
    • 2001
  • 시선 위치 추적이란 사용자가 모니터 상의 어느 지점을 쳐다보고 있는 지를 파악해 내는 기술이다. 시선 위치를 파악하기 위해 본 논문에서는 2차원 카메라 영상으로부터 얼굴 영역 및 얼굴 특징점을 추출한다. 초기에 모니터상의 3 지점을 쳐다볼 때 얼굴 특징점들은 움직임의 변화를 나타내며, 이로부터 카메라 보정 및 매개변수 추정 방법을 이용하여 얼굴특징점의 3차원 위치를 추정한다. 이후 사용자가 모니터 상의 또 다른 지점을 쳐다볼 때 얼굴 특징점의 변화된 3차원 위치는 3차원 움직임 추정방법 및 아핀변환을 이용하여 구해낸다. 이로부터 변화된 얼굴 특징점 및 이러한 얼굴 특징점으로 구성된 얼굴평면이 구해지며, 이러한 평면의 법선으로부터 모니터 상의 시선위치를 구할 수 있다. 실험 결과 19인치 모니터를 사용하여 모니터와 사용자까지의 거리를 50∼70cm정도 유지하였을 때 약 2.08인치의 시선위치에러 성능을 얻었다. 이 결과는 Rikert의 논문에서 나타낸 시선위치추적 성능(5.08cm 에러)과 비슷한 결과를 나타낸다. 그러나 Rikert의 방법은 모니터와 사용자 얼굴까지의 거리는 항상 고정시켜야 한다는 단점이 있으며, 얼굴의 자연스러운 움직임(회전 및 이동)이 발생하는 경우 시선위치추적 에러가 증가되는 문제점이 있다. 동시에 그들의 방법은 사용자 얼굴의 뒤 배경에 복잡한 물체가 없는 것으로 제한조건을 두고 있으며 처리 시간이 상당히 오래 걸리는 문제점이 있다. 그러나 본 논문에서 제안하는 시선 위치 추적 방법은 배경이 복잡한 사무실 환경에서도 사용가능하며, 약 3초 이내의 처리 시간(200MHz Pentium PC)이 소요됨을 알 수 있었다.

  • PDF

Face Recognition Method by Using Infrared and Depth Images (적외선과 깊이 영상을 이용한 얼굴 인식 방법)

  • Lee, Dong-Seok;Han, Dae-Hyun;Kwon, Soon-Kak
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.23 no.2
    • /
    • pp.1-9
    • /
    • 2018
  • In this paper, we propose a face recognition method which is not sensitive to illumination change and prevents false recognition of photographs. The proposed method uses infrared and depth images at the same time, solves sensitivity of illumination change by infrared image, and prevents false recognition of two - dimensional image such as photograph by depth image. Face detection method using infrared and depth images simultaneously and feature extraction and matching method for face recognition are realized. Simulation results show that accuracy of face recognition is increased compared to conventional methods.

Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks (적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구)

  • Choi, Hee Jo;Park, Goo Man
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.11
    • /
    • pp.465-472
    • /
    • 2022
  • In this paper, the style synthesis network is trained to generate style-synthesized video through the style synthesis through training Stylegan and the video synthesis network for video synthesis. In order to improve the point that the gaze or expression does not transfer stably, 3D face restoration technology is applied to control important features such as the pose, gaze, and expression of the head using 3D face information. In addition, by training the discriminators for the dynamics, mouth shape, image, and gaze of the Head2head network, it is possible to create a stable style synthesis video that maintains more probabilities and consistency. Using the FaceForensic dataset and the MetFace dataset, it was confirmed that the performance was increased by converting one video into another video while maintaining the consistent movement of the target face, and generating natural data through video synthesis using 3D face information from the source video's face.

Pose Transformation of a Frontal Face Image by Invertible Meshwarp Algorithm (역전가능 메쉬워프 알고리즘에 의한 정면 얼굴 영상의 포즈 변형)

  • 오승택;전병환
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.1_2
    • /
    • pp.153-163
    • /
    • 2003
  • In this paper, we propose a new technique of image based rendering(IBR) for the pose transformation of a face by using only a frontal face image and its mesh without a three-dimensional model. To substitute the 3D geometric model, first, we make up a standard mesh set of a certain person for several face sides ; front. left, right, half-left and half-right sides. For the given person, we compose only the frontal mesh of the frontal face image to be transformed. The other mesh is automatically generated based on the standard mesh set. And then, the frontal face image is geometrically transformed to give different view by using Invertible Meshwarp Algorithm, which is improved to tolerate the overlap or inversion of neighbor vertexes in the mesh. The same warping algorithm is used to generate the opening or closing effect of both eyes and a mouth. To evaluate the transformation performance, we capture dynamic images from 10 persons rotating their heads horizontally. And we measure the location error of 14 main features between the corresponding original and transformed facial images. That is, the average difference is calculated between the distances from the center of both eyes to each feature point for the corresponding original and transformed images. As a result, the average error in feature location is about 7.0% of the distance from the center of both eyes to the center of a mouth.

A Realtime Expression Control for Realistic 3D Facial Animation (현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어)

  • Kim Jung-Gi;Min Kyong-Pil;Chun Jun-Chul;Choi Yong-Gil
    • Journal of Internet Computing and Services
    • /
    • v.7 no.2
    • /
    • pp.23-35
    • /
    • 2006
  • This work presents o novel method which extract facial region und features from motion picture automatically and controls the 3D facial expression in real time. To txtract facial region and facial feature points from each color frame of motion pictures a new nonparametric skin color model is proposed rather than using parametric skin color model. Conventionally used parametric skin color models, which presents facial distribution as gaussian-type, have lack of robustness for varying lighting conditions. Thus it needs additional work to extract exact facial region from face images. To resolve the limitation of current skin color model, we exploit the Hue-Tint chrominance components and represent the skin chrominance distribution as a linear function, which can reduce error for detecting facial region. Moreover, the minimal facial feature positions detected by the proposed skin model are adjusted by using edge information of the detected facial region along with the proportions of the face. To produce the realistic facial expression, we adopt Water's linear muscle model and apply the extended version of Water's muscles to variation of the facial features of the 3D face. The experiments show that the proposed approach efficiently detects facial feature points and naturally controls the facial expression of the 3D face model.

  • PDF

Automatic Mask Generation for 3D Makeup Simulation (3차원 메이크업 시뮬레이션을 위한 자동화된 마스크 생성)

  • Kim, Hyeon-Joong;Kim, Jeong-Sik;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.397-402
    • /
    • 2008
  • 본 논문에서는 햅틱 인터랙션 기반의 3차원 가상 얼굴 메이크업 시뮬레이션에서 메이크업 대상에 대한 정교한 페인팅을 적용하기 위한 자동화된 마스크 생성 방법을 개발한다. 본 연구에서는 메이크업 시뮬레이션 이전의 전처리 과정에서 마스크를 생성한다. 우선, 3차원 스캐너 장치로부터 사용자의 얼굴 텍스쳐 이미지와 3차원 기하 표면 모델을 획득한다. 획득된 얼굴 텍스쳐 이미지로부터 AdaBoost 알고리즘, Canny 경계선 검출 방법과 색 모델 변환 방법 등의 영상처리 알고리즘들을 적용하여 마스크 대상이 되는 주요 특정 영역(눈, 입술)들을 결정하고 얼굴 이미지로부터 2차원 마스크 영역을 결정한다. 이렇게 생성된 마스크 영역 이미지는 3차원 표면 기하 모델에 투영되어 최종적인 3차원 특징 영역의 마스크를 레이블링하는데 사용된다. 이러한 전처리 과정을 통하여 결정된 마스크는 햅틱 장치와 스테레오 디스플레이기반의 가상 인터페이스를 통해서 자연스러운 메이크업 시뮬레이션을 수행하는데 사용된다. 본 연구에서 개발한 방법은 사용자에게 전처리 과정에서의 어떠한 개입 없이 자동적으로 메이크업 대상이 되는 마스크 영역을 결정하여 정교하고 손쉬운 메이크업 페인팅 인터페이스를 제공한다.

  • PDF

Robust 3D Facial Landmark Detection Using Angular Partitioned Spin Images (각 분할 스핀 영상을 사용한 3차원 얼굴 특징점 검출 방법)

  • Kim, Dong-Hyun;Choi, Kang-Sun
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.5
    • /
    • pp.199-207
    • /
    • 2013
  • Spin images representing efficiently surface features of 3D mesh models have been used to detect facial landmark points. However, at a certain point, different normal direction can lead to quite different spin images. Moreover, since 3D points are projected to the 2D (${\alpha}-{\beta}$) space during spin image generation, surface features cannot be described clearly. In this paper, we present a method to detect 3D facial landmark using improved spin images by partitioning the search area with respect to angle. By generating sub-spin images for angular partitioned 3D spaces, more unique features describing corresponding surfaces can be obtained, and improve the performance of landmark detection. In order to generate spin images robust to inaccurate surface normal direction, we utilize on averaging surface normal with its neighboring normal vectors. The experimental results show that the proposed method increases the accuracy in landmark detection by about 34% over a conventional method.