• 제목/요약/키워드: face feature

검색결과 882건 처리시간 0.034초

실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법 (A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation)

  • 김웅기;전준철
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.117-124
    • /
    • 2013
  • 본 논문에서는 실시간으로 입력되는 비디오 영상으로부터 사용자의 얼굴 방향을 효율적으로 추정하는 새로운 방법을 제안하였다. 이를 위하여 입력 영상으로부터 외부조명의 변화에 덜 민감한 Haar-like 특성을 이용하여 얼굴영역의 검출을 수행하고 검출 된 얼굴영역 내에서 양쪽 눈, 코, 입 등의 주요 특성을 검출한다. 이 후 실시간으로 매 프레임마다 광류를 이용해 검출된 특징 점을 추적하게 되며, 추적된 특징 점을 이용해 얼굴의 방향성 추정한다. 일반적으로 광류를 이용한 특징 추적에서 발생할 수 있는 특징점의 좌표가 유실되어 잘못된 특징점을 추적하게 되는 상황을 방지하기 위하여 검출된 특징점의 템플릿 매칭(template matching)을 사용해 추적중인 특징점의 유효성을 실시간 판단하고, 그 결과에 따라 얼굴 특징 점들을 다시 검출하거나, 추적을 지속하여 얼굴의 방향성을 추정을 가능하게 한다. 탬플릿 매칭은 특징검출 단계에서 추출된 좌우 눈, 코끝 그리고 입의 위치 등 4가지 정보를 저장한 후 얼굴포즈 측정에 있어 광류에의해 추적중인 해당 특징점들 간의 유사도를 비교하여 유사도가 임계치를 벗어 날 경우 새로이 특징점을 찾아내는 작업을 수행하여 정보를 갱신한다. 제안된 방법을 통해 얼굴의 특성 추출을 위한 특성 검출과정과 검출된 특징을 지속적으로 보완하는 추적과정을 자동적으로 상호 결합하여 안정적으로 실시간에 얼굴 방향성 추정 할 수 있었다. 실험을 통하여 제안된 방법이 효과적으로 얼굴의 포즈를 측정할 수 있음을 입증하였다.

혼합형 특징점 추출을 이용한 얼굴 표정의 감성 인식 (Emotion Recognition of Facial Expression using the Hybrid Feature Extraction)

  • 변광섭;박창현;심귀보
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2004년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.132-134
    • /
    • 2004
  • Emotion recognition between human and human is done compositely using various features that are face, voice, gesture and etc. Among them, it is a face that emotion expression is revealed the most definitely. Human expresses and recognizes a emotion using complex and various features of the face. This paper proposes hybrid feature extraction for emotions recognition from facial expression. Hybrid feature extraction imitates emotion recognition system of human by combination of geometrical feature based extraction and color distributed histogram. That is, it can robustly perform emotion recognition by extracting many features of facial expression.

  • PDF

Face Recognition Based on the Combination of Enhanced Local Texture Feature and DBN under Complex Illumination Conditions

  • Li, Chen;Zhao, Shuai;Xiao, Ke;Wang, Yanjie
    • Journal of Information Processing Systems
    • /
    • 제14권1호
    • /
    • pp.191-204
    • /
    • 2018
  • To combat the adverse impact imposed by illumination variation in the face recognition process, an effective and feasible algorithm is proposed in this paper. Firstly, an enhanced local texture feature is presented by applying the central symmetric encode principle on the fused component images acquired from the wavelet decomposition. Then the proposed local texture features are combined with Deep Belief Network (DBN) to gain robust deep features of face images under severe illumination conditions. Abundant experiments with different test schemes are conducted on both CMU-PIE and Extended Yale-B databases which contain face images under various illumination condition. Compared with the DBN, LBP combined with DBN and CSLBP combined with DBN, our proposed method achieves the most satisfying recognition rate regardless of the database used, the test scheme adopted or the illumination condition encountered, especially for the face recognition under severe illumination variation.

효과적인 얼굴 인식을 위한 특징 분포 및 적응적 인식기 (Feature Variance and Adaptive classifier for Efficient Face Recognition)

  • ;남미영;이필규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.34-37
    • /
    • 2007
  • Face recognition is still a challenging problem in pattern recognition field which is affected by different factors such as facial expression, illumination, pose etc. The facial feature such as eyes, nose, and mouth constitute a complete face. Mouth feature of face is under the undesirable effect of facial expression as many factors contribute the low performance. We proposed a new approach for face recognition under facial expression applying two cascaded classifiers to improve recognition rate. All facial expression images are treated by general purpose classifier at first stage. All rejected images (applying threshold) are used for adaptation using GA for improvement in recognition rate. We apply Gabor Wavelet as a general classifier and Gabor wavelet with Genetic Algorithm for adaptation under expression variance to solve this issue. We have designed, implemented and demonstrated our proposed approach addressing this issue. FERET face image dataset have been chosen for training and testing and we have achieved a very good success.

얼굴 특징점들을 이용한 근사 정면 얼굴 영상 검출 (Approximate Front Face Image Detection Using Facial Feature Points)

  • 김수진;정용석;오정수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 춘계학술대회
    • /
    • pp.675-678
    • /
    • 2018
  • 얼굴은 사람을 확인할 수 있는 고유한 성질을 갖고 있어 얼굴 인식이 출입통제, 범죄자 검색, 방법용 CCTV 같은 보안 영역과 본인 인증 영역에 활발히 활용되고 있다. 정면 얼굴 영상은 가장 많은 얼굴 정보를 갖고 있어 얼굴 인식을 위해 가능한 정면 얼굴 영상을 취득하는 것이 필요하다. 본 연구에서 하르유사 특징을 이용한 Adaboost 알고리즘을 이용해 얼굴 영역이 검출되고 mean-shift 알고리즘을 이용해 얼굴을 추적한다. 그리고 얼굴 영역에서 눈과 입 같은 얼굴 요소들의 특징점들을 추출해 그들의 기하학적인 정보를 이용해 두 눈의 비와 얼굴의 회전 정도를 계산하고 실시간으로 근사 정면 얼굴 영상을 제시한다.

  • PDF

Facial Shape Recognition Using Self Organized Feature Map(SOFM)

  • Kim, Seung-Jae;Lee, Jung-Jae
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.104-112
    • /
    • 2019
  • This study proposed a robust detection algorithm. It detects face more stably with respect to changes in light and rotation forthe identification of a face shape. The proposed algorithm uses face shape asinput information in a single camera environment and divides only face area through preprocessing process. However, it is not easy to accurately recognize the face area that is sensitive to lighting changes and has a large degree of freedom, and the error range is large. In this paper, we separated the background and face area using the brightness difference of the two images to increase the recognition rate. The brightness difference between the two images means the difference between the images taken under the bright light and the images taken under the dark light. After separating only the face region, the face shape is recognized by using the self-organization feature map (SOFM) algorithm. SOFM first selects the first top neuron through the learning process. Second, the highest neuron is renewed by competing again between the highest neuron and neighboring neurons through the competition process. Third, the final top neuron is selected by repeating the learning process and the competition process. In addition, the competition will go through a three-step learning process to ensure that the top neurons are updated well among neurons. By using these SOFM neural network algorithms, we intend to implement a stable and robust real-time face shape recognition system in face shape recognition.

예측맵을 이용한 얼굴탐색의 가속화기법 (An Acceleration Method of Face Detection using Forecast Map)

  • 조경식;구자영
    • 한국컴퓨터정보학회논문지
    • /
    • 제8권2호
    • /
    • pp.31-36
    • /
    • 2003
  • 본 논문은 주성분 분석에 의한 특징 탐색 기법의 가속화 방법을 제안하고 있다. 특징 탐색이란 주어진 영상이 찾고자 하는 특징을 포함하고 있는지의 여부를 판단하고, 만일 그 특징이 포함되어 있다면 그 위치와 영역을 결정하는 방법이다. 탐색 대상으로 하는 얼굴 또는 특징의 위치와 스케일을 미리 알 수 없으므로 모든 위치에서 다양한 스케일의 특징에 대한 존재 가능성을 계산해야하는데 이것은 방대한 공간에서의 탐색문제이다. 본 논문에서는 다단계 예측맵과 윤곽선 예측맵을 이용함으로써 탐색공간을 축소하고 빠른 얼굴 및 특징 탐색을 가능케하는 방법을 제안하고 있다. 실험결과, 제안된 방법이 기존의 전역탐색방법에 비하여 계산량을 10%이하로 줄일 수 있었다.

  • PDF

사각형 특징 기반 분류기와 클래스 매칭을 이용한 실시간 얼굴 검출 및 인식 (Real Time Face Detection and Recognition using Rectangular Feature based Classifier and Class Matching Algorithm)

  • 김종민;강명아
    • 한국콘텐츠학회논문지
    • /
    • 제10권1호
    • /
    • pp.19-26
    • /
    • 2010
  • 본 논문은 사각형 특징 기반 분류기를 제안하여 실시간으로 얼굴 영역을 검출하며, 계산의 효율성과 검출 성능을 동시에 만족시키는 강인한 검출 알고리즘을 구현하고자 한다. 제안한 알고리즘은 특징 생성, 분류기 학습, 실시간 얼굴 영역 검출의 세 단계로 구성된다. 특징 생성은 제안된 5개의 사각형 특징으로 특징 집합을 구성하며, SAT(Summed-Area Tables)를 이용하여 특징 값을 효율적으로 계산한다. 분류기 학습은 AdaBoost 알고리즘을 이용하여, 분류기를 계층적으로 생성한다. 또한 중요한 얼굴 패턴은 다음 레벨에 반복적으로 적용함으로써 우수한 검출 성능을 가진다. 실시간 얼굴 영역 검출은 생성된 사각형 특징 기반 분류기를 통해, 빠르고 효율적으로 얼굴 영역을 찾아낸다. 또한 얼굴 영역을 검출한 영역을 인식의 입력 영상으로 사용하여 PCA와 KNN 알고리즘을 이용하여 기존의 매칭 방법인 Point to point 방법이 아닌 Class to Class 방식을 이용하여 인식률을 향상시켰다.

A Study on Preprocessing Improvement Method for Face Recognition

  • Lim, Yang-Koo;Chae, Duck-Jae;Rhee, Sang-Bum
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1782-1787
    • /
    • 2003
  • A face recognition is currently the field which many research have been processed actively. But many problems must be solved the previous problem. First, We must recognize the face of the object taking a location various lighting change and change of the camera into account. In this paper, we proposed that new method to find feature within fast and correct computation time after scanning PC camera and ID card picture. It converted RGB color space to YUV. A face skin color extracts which equalize a histogram of Y ingredient without the Luminance. After, the method use V' ingredient which transforms V ingredient of YUV and then find the face feature. The result of the experiment shows getting correct input face image from ID Card picture and camera.

  • PDF

에지 방향 지도와 영역 컬러 정보를 이용한 얼굴 추출 기법 (Face Detection Using Edge Orientation Map and Local Color Information)

  • 김재협;문영식
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2005년도 추계종합학술대회
    • /
    • pp.987-990
    • /
    • 2005
  • An important issue in the field of face recognitions and man-machine interfaces is an automatic detection of faces in visual scenes. it should be computationally fast enough to allow an online detection. In this paper we describe our ongoing work on face detection that models the face appearance by edge orientation and color distribution. We show that edge orientation is a powerful feature to describe objects like faces. We present a method for face region detection using edge orientation and a method for face feature detection using local color information. We demonstrate the capability of our detection method on an image database of 1877 images taken from more than 700 people. The variations in head size, lighting and background are considerable, and all images are taken using low-end cameras. Experimental results show that the proposed scheme achieves 94% detection rate with a resonable amount of computation time.

  • PDF