• Title/Summary/Keyword: 얼굴영상

Search Result 1,528, Processing Time 0.032 seconds

Face Detection for Intelligent Video Conference System (지능형 영상회의를 위한 얼굴검출)

  • Park, Jae-Hyeon;Park, Gyu-Sik;On, Seung-Yeop;Kim, Cheon-Guk
    • The KIPS Transactions:PartB
    • /
    • v.8B no.1
    • /
    • pp.20-27
    • /
    • 2001
  • 얼굴검출은 현재 많은 연구가 활발히 진행되고 있는 분야로 보안, 인식 등 다양한 응용분야를 갖는다. 본 논문은 카메라가 화자의 이동에 따라 이를 추적하여 회전하고 회의상황에 맞는 앵글을 유지하는 지능형 영상회의 시스템 개발의 기본요소인 화자검출의 선행단계로 얼굴검출에 대한 새로운 방법을 제안한다. RGB 색 공간의 입력영상을 YIQ 공간으로 변환한 후 IQ 성분은 피부영역검출에 Y 성분은 얼굴의 특성을 추출하는데 사용된다. 색 분포도를 이용하여 피부영역을 검출하고, 마스크를 누적 적용하여 잡음을 제거한 후 얼굴의 구조적인 특성과 명암의 분포를 이용하여 얼굴영역이 검출된다. 실험결과 다양한 배경의 영상에서 여러 명의 얼굴이 오류 없이 검출됨이 관찰되었다.

  • PDF

Eye Detection Based on Texture Information (텍스처 기반의 눈 검출 기법)

  • Park, Chan-Woo;Park, Hyun;Moon, Young-Shik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.315-318
    • /
    • 2007
  • 자동 얼굴 인식, 표정 인식과 같은 얼굴 영상과 관련된 다양한 연구 분야는 일반적으로 입력 얼굴 영상에 대한 정규화가 필요하다. 사람의 얼굴은 표정, 조명 등에 따라 다양한 형태변화가 있어 입력 영상 마다 정확한 대표 특징 점을 찾는 것은 어려운 문제이다. 특히 감고 있는 눈이나 작은 눈 등은 검출하기 어렵기 때문에 얼굴 관련 연구에서 성능을 저하시키는 주요한 원인이 되고 있다. 이에 다양한 변화에 강건한 눈 검출을 위하여 본 논문에서는 눈의 텍스처 정보를 이용한 눈 검출 방법을 제안한다. 얼굴 영역에서 눈의 텍스처가 갖는 특성을 정의하고 두 가지 형태의 Eye 필터를 정의하였다. 제안된 방법은 Adaboost 기반의 얼굴 영역 검출 단계, 조명 정규화 단계, Eye 필터를 이용한 눈 후보 영역 검출 단계, 눈 위치 점 검출 단계 등 총 4단계로 구성된다. 실험 결과들은 제안된 방법이 얼굴의 자세, 표정, 조명 상태 등에 강건한 검출 결과를 보여주며 감은 눈 영상에서도 강건한 결과를 보여준다.

Real-time Expression Control of Vision Based 3 Dimensional Face Model (비전 기반 3차원 얼굴 모델의 실시간 표정 제어)

  • 김정기;민경필;전준철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.748-750
    • /
    • 2004
  • 본 논문은 연속적으로 입력되는 2차원 얼굴 영상에서 얼굴의 특징 영역들을 추출하여 3차원 얼굴 모델의 표정을 실시간으로 제어하는 방법에 관한 연구이다. 2차원 얼굴 영상에서 얼굴을 추출하기 위해 Hue, Saturation 색상 값을 사용하며, 두 가지 색상 값을 이용하여 피부색과 배경색을 분리함으로써 얼굴 영역을 추출 할 수 있다. 추출 된 얼굴에서 특징 영역인 눈 코, 입술 영역 등의 일지를 각각의 영역에 적합한 추출 방법을 이용하여 추출한 뒤, 프레임 별로 영역들의 움직임을 비교함으로써 영역의 움직임 정보를 획득 할 수 있다. 이 정보를 3차원 얼굴 모델에 적용하여 2차원 동영상에서 획득된 대상의 얼굴의 표정을 3차원 얼굴 모델에 실시간으로 표현 할 수 있도록 한다.

  • PDF

Real Time Implementation of Face Tracking System Using Color Information (색상 정보를 이용한 실시간 얼굴 추적 시스템 구현)

  • 김영운;이형지;정재호
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.151-154
    • /
    • 2001
  • 본 논문의 목적은 범용 USB 카메라 입력 영상으로부터 실시간으로 얼굴을 추적하는 시스템을 구현하는데 있다. 먼저 USB 카메라로부터 영상을 입력받은 후 2차원 RGB 컬러 모델링으로 추출한 살색 영역을 찾고 가로, 세로 프로젝선 정보를 이용하여 얼굴을 찾는다. 기존의 RGB 컬러 모델을 개선하여 빛에 강인한 모델링을 하였으며, 프로젝션 정보를 이용할 때 일어나는 에러를 최소화하기 위하여 누적 히스토그램 영역 결합 알고리즘을 제안하였다. 구현한 시스템은 움직임이 많은 영상에도 빠른 속도를 보였으며, 특히 영상의 움직임이적은 경우 카메라에서 영상을 보여 주는 것과 동시에 얼굴을 찾아내어, 연속적인 프레임을 처리할 수 있는 성능을 보였다.

  • PDF

Realization of 3D Virtual Face Using two Sheets of 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴의 구현)

  • 임낙현;서경호;김태효
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.2 no.4
    • /
    • pp.16-21
    • /
    • 2001
  • In this paper a virtual form of 3 dimensional face is synthesized from the two sheets of 2 dimensional photographs In this case two sheets of 2D face photographs, the front and the side photographs are used First of all a standard model for a general face is created and from this model the feature points which represents a construction of face are densely defined on part of ears. eyes, a nose and a lip but the other parts. for example, forehead, chin and hair are roughly determined because of flat region or the less individual points. Thereafter the side photograph is connected symmetrically on the left and right sides of the front image and it is gradually synthesized by use of affine transformation method. In order to remove the difference of color and brightness from the junction part, a linear interpolation method is used. As a result it is confirmed that the proposed model which general model of a face can be obtain the 3D virtual image of the individual face.

  • PDF

Face Detection and Recognition in MPEG Compressed Video (MPEG 압축 비디오 상에서의 얼굴 영역 추출 및 인식)

  • 여창욱;유명현
    • Korean Journal of Cognitive Science
    • /
    • v.11 no.2
    • /
    • pp.79-87
    • /
    • 2000
  • In this paper we present a face recognition and face detection algorithm in MPEG compressed video. The proposed method consists three stage of processing steps. The first step is to produce a spatially reduced DC image form MPEG compressed video for processing. And the second step is face detection on reduced DC image. Finally, the last step is face recognition on partially extracted compressed frames which contain the detected faces. The spatially reduced DC image is produced from two dimensional inverse DCT of the DC coefficient and the first two AC coefficients. The face detection is performed on DC image and face recognition is performed on one extracted frame per GOP by using the K-L transform. In order to evaluate the proposed method, we carried out experiments on video database. The experiment results show the proposed method is very efficient and helpful for target tasks.

  • PDF

Reconstruction of Partially Damaged face for Improving a Face Recognition Rate (얼굴 인식률 향상을 위한 손상된 얼굴 영역의 복원)

  • 최재영;황승호;김낙빈
    • Journal of Korea Multimedia Society
    • /
    • v.7 no.3
    • /
    • pp.308-318
    • /
    • 2004
  • A subject to recognize the damaged facial image is becoming an important issue in commercialization of automatic face recognition. The method to recognize a face on a damaged image is divided into two types. The one is to recognize remainders after removing the damaged information and the other is to recognize a total face after recovering the damaged information. On this paper, we present the reconstruction method by analyzing the main materials after extracting the damaged region through Kohonen network. The suggested algorithm in this paper estimates feature vectors of the damaged region using eigen-faces in PCA and then reconstructs the damaged image. This allows also the reconstruction under the untrained images. Through testing the artificial images where the eye and the mouth which have many effects to face recognition are damaged, the recognition rate of the proposed results showed similar results with the method which used Kohonen network, and improved about 11.8% more than symmetrical property method. Also, in case of the untrained image, our results improved about 14% more than that of the Kohonen method and about 7% more than that of the symmetrical property method.

  • PDF

Design and Implementation of a Real-Time Face Detection System (실시간 얼굴 검출 시스템 설계 및 구현)

  • Jung Sung-Tae;Lee Ho-Geun
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.8
    • /
    • pp.1057-1068
    • /
    • 2005
  • This paper proposes a real-time face detection system which detects multiple faces from low resolution video such as web-camera video. First, It finds face region candidates by using AdaBoost based object detection method which selects a small number of critical features from a larger set. Next, it generates reduced feature vector for each face region candidate by using principle component analysis. Finally, it classifies if the candidate is a face or non-face by using SVM(Support Vector Machine) based binary classification. According to experiment results, the proposed method achieves real-time face detection from low resolution video. Also, it reduces the false detection rate than existing methods by using PCA and SVM based face classification step.

  • PDF

Authenticating Corrupted Face Images Based on Noise Model (노이즈 모델에 기반한 훼손된 얼굴 영상의 인증)

  • 정호철;황본우;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.805-807
    • /
    • 2004
  • 본 논문에서는 노이즈 모델에 기반한 훼손된 얼굴 영상의 인증하는 방법을 제안한다. 제안된 방법은 먼저 학습 단계에서 노이즈 파라미터의 변화에 의해 훼손된 영상을 생성한다. 그 훼손된 영상과 노이즈 파라미터는 PCA에 의해 훼손된 영상과 노이즈 파라미터들의 선형 조합으로 표현된다. 테스트 단계에서는 훼손된 영상으로 LSM(Least-square minimization)방법을 적용하여 훼손된 영상의 노이즌 파라미터를 추정한다. 그리고 추정된 노이즈 파라미터를 가지고 원본 영상으로부터 합성된 영상을 생성하고, 그것을 테스트 영상과 인증한다. 실험 결과는 제안된 방법이 노이즈 파라미터를 정확하게 추정하여 얼굴 인증의 성능 개선 가능성을 보여준다.

  • PDF

Collaborative Local Active Appearance Models for Illuminated Face Images (조명얼굴 영상을 위한 협력적 지역 능동표현 모델)

  • Yang, Jun-Young;Ko, Jae-Pil;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.36 no.10
    • /
    • pp.816-824
    • /
    • 2009
  • In the face space, face images due to illumination and pose variations have a nonlinear distribution. Active Appearance Models (AAM) based on the linear model have limits to the nonlinear distribution of face images. In this paper, we assume that a few clusters of face images are given; we build local AAMs according to the clusters of face images, and then select a proper AAM model during the fitting phase. To solve the problem of updating fitting parameters among the models due to the model changing, we propose to build in advance relationships among the clusters in the parameter space from the training images. In addition, we suggest a gradual model changing to reduce improper model selections due to serious fitting failures. In our experiment, we apply the proposed model to Yale Face Database B and compare it with the previous method. The proposed method demonstrated successful fitting results with strongly illuminated face images of deep shadows.