• Title/Summary/Keyword: 입 검출

Search Result 183, Processing Time 0.023 seconds

A Hybrid Approach of Efficient Facial Feature Detection and Tracking for Real-time Face Direction Estimation (실시간 얼굴 방향성 추정을 위한 효율적인 얼굴 특성 검출과 추적의 결합방법)

  • Kim, Woonggi;Chun, Junchul
    • Journal of Internet Computing and Services
    • /
    • v.14 no.6
    • /
    • pp.117-124
    • /
    • 2013
  • In this paper, we present a new method which efficiently estimates a face direction from a sequences of input video images in real time fashion. For this work, the proposed method performs detecting the facial region and major facial features such as both eyes, nose and mouth by using the Haar-like feature, which is relatively not sensitive against light variation, from the detected facial area. Then, it becomes able to track the feature points from every frame using optical flow in real time fashion, and determine the direction of the face based on the feature points tracked. Further, in order to prevent the erroneously recognizing the false positions of the facial features when if the coordinates of the features are lost during the tracking by using optical flow, the proposed method determines the validity of locations of the facial features using the template matching of detected facial features in real time. Depending on the correlation rate of re-considering the detection of the features by the template matching, the face direction estimation process is divided into detecting the facial features again or tracking features while determining the direction of the face. The template matching initially saves the location information of 4 facial features such as the left and right eye, the end of nose and mouse in facial feature detection phase and reevaluated these information when the similarity measure between the stored information and the traced facial information by optical flow is exceed a certain level of threshold by detecting the new facial features from the input image. The proposed approach automatically combines the phase of detecting facial features and the phase of tracking features reciprocally and enables to estimate face pose stably in a real-time fashion. From the experiment, we can prove that the proposed method efficiently estimates face direction.

Face Region Detection Algorithm using Fuzzy Inference (퍼지추론을 이용한 얼굴영역 검출 알고리즘)

  • Jung, Haing-Sup;Lee, Joo-Shin
    • Journal of Advanced Navigation Technology
    • /
    • v.13 no.5
    • /
    • pp.773-780
    • /
    • 2009
  • This study proposed a face region detection algorithm using fuzzy inference of pixel hue and intensity. The proposed algorithm is composed of light compensate and face detection. The light compensation process performs calibration for the change of light. The face detection process evaluates similarity by generating membership functions using as feature parameters hue and intensity calculated from 20 skin color models. From the extracted face region candidate, the eyes were detected with element C of color model CMY, and the mouth was detected with element Q of color model YIQ, the face region was detected based on the knowledge of an ordinary face. The result of experiment are conducted with frontal face color images of face as input images, the method detected the face region regardless of the position and size of face images.

  • PDF

3D Facial Model Expression Creation with Head Motion (얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성)

  • Kwon, Oh-Ryun;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

Face Detection Using Facial Features and Color Information on Long Distance (얼굴의 특징과 색상 정보를 이용한 원거리 얼굴 검출)

  • Han, Sang-Il;Park, Sung-Jin;Cha, Hyung-Tai
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2005.11a
    • /
    • pp.175-177
    • /
    • 2005
  • 원거리에서 촬영된 얼굴영상은 극히 적은 정보만을 가지고 있기 때문에 얼굴 검출에 어려움이 따른다. 본 논문에서는 이런 원거리에서 촬영된 영상에서도 얼굴을 검출하는 알고리즘을 제한한다. 정규화한 얼굴 영역 후보의 각 화소에 대한 명암차를 이용하여 얼굴 특정 후보를 검출하고, 얼굴의 대표적 특징 요소인 눈과 코, 입 요소를 추출하여 최종 얼굴영역 판별을 한다. 제한된 알고리즘을 다양한 얼굴 영상에 대해 실험을 실시한 결과, 많은 환경 변수 및 다양한 얼굴영상에서의 적응성을 확인할 수 있었다.

  • PDF

An Effective Face Detection for the Images with the Complex Backgrounds Using NTGST (복잡배경의 영상에서 NTGST를 이용한 효과적인 얼굴 검출)

  • 이재근;김종화;서경석;박은진;최흥문
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.147-150
    • /
    • 2001
  • 본 논문에서 는 NTGST(noise-tolerant generalized symmetry transform)[1]를 이용하여 복잡배경 영상으로부터 효과적으로 여러 얼굴을 검출할 수 있는 알고리즘을 제안하였다. 먼저 NTGST를 이용하여 얼굴이 존재할 가능성이 있는 관심영역(region of interest: ROI)을 찾고, 각각의 관심영역 내에서 얼굴의 주된 특징인 눈, 코, 입을 부각시킨 Fovea 영상으로부터 대칭변환의 국부 최대치(local maximum)를 구한다음, 이들간의 관계를 기하학적 상관 관계로 분석 확인함으로써 사람 얼굴만을 검출 하도록 하였다. 여러 얼굴을 포함하는 복잡한 배경 영상에 대해 제안한 알고리즘을 적용한 결과 89.7%의 검출율을 얻을 수 있었다.

  • PDF

Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition (딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계)

  • Shin, Dong-Wook;Moon, NamMee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

Face region detection algorithm of natural-image (자연 영상에서 얼굴영역 검출 알고리즘)

  • Lee, Joo-shin
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.7 no.1
    • /
    • pp.55-60
    • /
    • 2014
  • In this paper, we proposed a method for face region extraction by skin-color hue, saturation and facial feature extraction in natural images. The proposed algorithm is composed of lighting correction and face detection process. In the lighting correction step, performing correction function for a lighting change. The face detection process extracts the area of skin color by calculating Euclidian distances to the input images using as characteristic vectors color and chroma in 20 skin color sample images. Eye detection using C element in the CMY color model and mouth detection using Q element in the YIQ color model for extracted candidate areas. Face area detected based on human face knowledge for extracted candidate areas. When an experiment was conducted with 10 natural images of face as input images, the method showed a face detection rate of 100%.

Face Feature Extraction Method ThroughStereo Image's Matching Value (스테레오 영상의 정합값을 통한 얼굴특징 추출 방법)

  • Kim, Sang-Myung;Park, Chang-Han;Namkung, Jae-Chan
    • Journal of Korea Multimedia Society
    • /
    • v.8 no.4
    • /
    • pp.461-472
    • /
    • 2005
  • In this paper, we propose face feature extraction algorithm through stereo image's matching value. The proposed algorithm detected face region by change the RGB color space of skin color information to the YCbCr color space. Applying eye-template from extracted face region geometrical feature vector of feature about distance and lean, nose and mouth between eye extracted. And, Proposed method could do feature of eyes, nose and mouth through stereo image's matching as well as 2D feature information extract. In the experiment, the proposed algorithm shows the consistency rate of 73% in distance within about 1m and the consistency rate of 52%in distance since about 1m.

  • PDF

Improvement of Face Components Detection using Neck Removal (목 부분의 제거를 통한 얼굴 검출 향상 기법)

  • Yoon, Ga-Rim;Yoon, Yo-Sup;Kim, Young-Bong
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2004.11a
    • /
    • pp.321-326
    • /
    • 2004
  • Many researchers have been studied texturing the 3D face model with front and side pictures of ordinary person. It is very important to exactly detect the psition of eyes, nose, mouth of a human from the side pictures. Previous results first found the position of eye, nose, or mouth and then extract the other face components using their positional correlation. The detection results greatly depend on the correct extraction of the neck from the images. Therefore, we present a new algorithm that remove the neck completely and thus improve the detection rates of face components. To do this, we will use the RGB values and its differences.

  • PDF

Yawn Recognition Algorism for Prevention of Drowsy Driving (졸음운전 방지를 위한 하품 인식 알고리즘)

  • Yoon, Won-Jong;Lee, Jaesung
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2013.10a
    • /
    • pp.447-450
    • /
    • 2013
  • This paper proposes the way to prevent drowsy driving by recognizing drivers eyes and yawn using a front camera. The method uses the Viola-Jones algorithm to detect eyes area and mouth area from detection face region. In the eyes area, it uses the Hough transform to recognize eye circle in order to distinguish drowsy driving. In the mouth area, it determines whether for the driver to yawn through a sub-window testing by applying a HSV-filter and detecting skin color of the tongue. The test result shows that the recognition rate of yawn reaches up to 90%. It is expected that the method introduced in this paper might contribute to reduce the number of drowsy driving accidents.

  • PDF