• Title/Summary/Keyword: 얼굴요소검출

Search Result 94, Processing Time 0.026 seconds

A study on the Caricature Generation using Face Features (얼굴의 특징을 이용한 캐리커쳐 생성에 관한 연구)

  • Oh, S.H.;Lim, H.;Park, S.Y.;Kim, I.S.;Park, H.S.
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.623-626
    • /
    • 2000
  • 본 논문에서는 얼굴의 특징 추출을 이용해서 캐리커쳐를 자동으로 생성하는 알고리즘을 제안한다. 제안된 방법은 사진이나 카메라를 이용해서 입력된 영상으로부터 색상정보를 이용하여 얼굴영역을 검출하고 얼굴의 기하학적인 구조를 이용해서 유전자 알고리즘의 추정 파라미터를 설정하여 최적의 특징 점의 위치를 검출한다. 검출된 특징 점 위치를 이용하여 눈, 코, 입, 눈썹, 머리카락 등 얼굴의 특징이 되는 구성요소를 추출한다. 마지막으로 얼굴의 윤곽선을 구한 다음 추출된 얼굴의 구성요소들을 합성하여 간단하면서도 개인의 특징을 잘 반영할 수 있는 캐리커쳐를 생성한다.

  • PDF

A Real-Time Face Region Extraction Using Motion And Color Information (움직임과 색상 정보를 이용한 실시간 얼굴영역 검출에 관한 연구)

  • Park Sung-Jin;Han Sang-Il;Cha Hyung-Tai
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.04a
    • /
    • pp.441-445
    • /
    • 2005
  • 얼굴인식기술이 인증 및 보안을 위한 도구로 활용되고 있지만 입력영상의 상태 즉, 복잡한 배경과 조명환경에 따라 적용할 수 있는 범위가 제약적일 수밖에 없다. 본 논문에서는 이러한 제약을 최소화하기 위한 방법과 좀 더 정확한 얼굴 영역 검출을 위한 기법을 제시한다. 제안된 방법은 움직임에 기반 한 에지 차영상을 이용하여 얼굴 윤곽을 검출한 후 이를 X와 Y축의 프로파일을 이용하여 얼굴영역을 예측한다. 그리고 얼굴의 피부 색상 정보와 특징 구성요소인 눈, 코, 입 등의 특징적인 요소의 에지정보를 이용하여 수직적으로 이를 구분한 후 얼굴인지 아닌지를 판별한다. 제안된 알고리즘은 다양한 배경 및 조명등의 많은 환경적 요인에 따른 입력영상에서도 매우 안정적으로 적용됨을 실험을 통해 확인하였다.

  • PDF

Detection of Face-element for Facial Analysis (표정분석을 위한 얼굴 구성 요소 검출)

  • 이철희;문성룡
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.41 no.2
    • /
    • pp.131-136
    • /
    • 2004
  • According to development of media, various information is recorded in media, expression is one during interesting information. Because expression includes of relationship of human inside. Intention of inside is expressed by gesture, but expression has more information. And, expression can manufacture voluntarily, include plan of inside on the man. Also, expression has unique character in a person, have alliance that do division possibility. In this paper, to analyze expression of USB camera animation, wish to detect facial building block. Because characteristic point by person's expression change exists on face component. For component detection, in animation one frame with Capture, grasp facial position, and separate face area, and detect characteristic points of face component.

Detection of Facial Feature Regionsby Manipulation of DCT's Coefficients (DCT 계수를 이용한 얼굴 특징 영역의 검출)

  • Lee, Boo-Hyung;Ryu, Jang-Ryeol
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.8 no.2
    • /
    • pp.267-272
    • /
    • 2007
  • This paper proposes a new approach fur the detection of facial feature regions using the characteristic of DCT(discrete cosine transformation) thatconcentrates the energy of an image into lower frequency coefficients. Since the facial features are pertained to relatively high frequency in a face image, the inverse DCT after removing the DCT's coefficients corresponding to the lower frequencies generates the image where the facial feature regions are emphasized. Thus the facial regions can be easily segmented from the inversed image using any differential operator. In the segmented region, facial features can be found using face template. The proposed algorithm has been tested with the image MIT's CBCL DB and the Yale facedatabase B. The experimental results have shown superior performance under the variations of image size and lighting condition.

  • PDF

Face Region Detection Algorithm using Euclidean Distance of Color-Image (칼라 영상에서 유클리디안 거리를 이용한 얼굴영역 검출 알고리즘)

  • Jung, Haing-sup;Lee, Joo-shin
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.2 no.3
    • /
    • pp.79-86
    • /
    • 2009
  • This study proposed a method of detecting the facial area by calculating Euclidian distances among skin color elements and extracting the characteristics of the face. The proposed algorithm is composed of light calibration and face detection. The light calibration process performs calibration for the change of light. The face detection process extracts the area of skin color by calculating Euclidian distances to the input images using as characteristic vectors color and chroma in 20 skin color sample images. From the extracted facial area candidate, the eyes were detected in space C of color model CMY, and the mouth was detected in space Q of color model YIQ. From the extracted facial area candidate, the facial area was detected based on the knowledge of an ordinary face. When an experiment was conducted with 40 color images of face as input images, the method showed a face detection rate of 100%.

  • PDF

Wavelet Transform-based Face Detection for Real-time Applications (실시간 응용을 위한 웨이블릿 변환 기반의 얼굴 검출)

  • 송해진;고병철;변혜란
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.9
    • /
    • pp.829-842
    • /
    • 2003
  • In this Paper, we propose the new face detection and tracking method based on template matching for real-time applications such as, teleconference, telecommunication, front stage of surveillance system using face recognition, and video-phone applications. Since the main purpose of paper is to track a face regardless of various environments, we use template-based face tracking method. To generate robust face templates, we apply wavelet transform to the average face image and extract three types of wavelet template from transformed low-resolution average face. However template matching is generally sensitive to the change of illumination conditions, we apply Min-max normalization with histogram equalization according to the variation of intensity. Tracking method is also applied to reduce the computation time and predict precise face candidate region. Finally, facial components are also detected and from the relative distance of two eyes, we estimate the size of facial ellipse.

Tracking of Facial Feature Points related to Facial Expressions (표정변화에 따른 얼굴 표정요소의 특징점 추적)

  • 최명근;정현숙;신영숙;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.425-427
    • /
    • 2000
  • 얼굴 표정은 사람의 감정을 표현함과 동시에 그것을 이해할 수 있는 중요한 수단이다. 최근 이러한 얼굴 표정의 자동인식과 추적을 위한 연구가 많이 진행되고 있다. 본 연구에서는 대략적인 얼굴영역을 설정하여 얼굴의 표정을 나타내는 표정요소들을 찾아낸 후, 각 요소의 특징점을 추출하고 추적하는 방법을 제시한다. 제안하는 시스템의 개요는 입력영상의 첫 프레임에서 얼굴영역 및 특징점을 찾고, 연속되는 프레임에서 반복적으로 이를 추적한다. 특징점 추출과 추적에는 템플릿 매칭과 Canny 경계선 검출기, Gabor 웨이블릿 변환을 사용하였다.

  • PDF

Facial Region Detection using Neural Network and Geometrical Feature (신경회로망 및 기하학적 특징을 이용한 얼굴영역 검출)

  • 박상근;박영태
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.298-300
    • /
    • 2003
  • 동영상이나 정지영상에서 사람의 얼굴을 검출 및 인식을 하는 여러 가지 알고리즘이 소개되고 있다. 본 논문에서는 신경망(Neural Network)과 얼굴의 기하학적 특징 중에 하나인 눈과 입을 사용하여 얼굴 영역을 추출하는 방법을 사용한다 신경망은 얼굴 인식을 비롯한 여러 분야에서 쓰이는 좋은 방법 중의 하나 이지만 신경망이 가지고 있는 특성상 많은 오차를 가질 수 있기 때문에 얼굴을 구성하고 있는 요소인 눈과 입을 사용해서 오차를 제거하는 방법을 제안한다.

  • PDF

Improvement of Face Components Detection using Neck Removal (목 부분의 제거를 통한 얼굴 검출 향상 기법)

  • Yoon, Ga-Rim;Yoon, Yo-Sup;Kim, Young-Bong
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2004.11a
    • /
    • pp.321-326
    • /
    • 2004
  • Many researchers have been studied texturing the 3D face model with front and side pictures of ordinary person. It is very important to exactly detect the psition of eyes, nose, mouth of a human from the side pictures. Previous results first found the position of eye, nose, or mouth and then extract the other face components using their positional correlation. The detection results greatly depend on the correct extraction of the neck from the images. Therefore, we present a new algorithm that remove the neck completely and thus improve the detection rates of face components. To do this, we will use the RGB values and its differences.

  • PDF

인간-로봇 상호작용을 위한 자세변화에 대응 가능한 얼굴 검출 및 인식 방법

  • 이태근;박성기;김문상
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2004.05a
    • /
    • pp.27-27
    • /
    • 2004
  • 이 논문에서는 이동 로봇 플랫폼 위에 장착되는 비전 시스템을 이용하여 대상 사람의 얼굴위치를 검출, 사용자 인식을 수행하는 방법론을 제시한다. 본 연구에서 적용대상으로 하는 이동로봇은 실내에서 사용 가능한 홈 서비스 로봇(Hombot-2)으로 인간-로봇 상호작용 (human-robot interaction, HCI)이 중요한 기능 중에 하나이다. 로봇에 장착된 스테레오 비전 카메라에서 획득하게 되는 얼굴 영상은 임의로 움직이는 로봇 작업 반경 밖에 있는 사용자의 특성 상 얼굴 영상이 비교적 작게 얻어지고 정면얼굴에서 벗어난 가변적 얼굴 자세변화를 갖게 된다.(중략)

  • PDF