• Title/Summary/Keyword: 얼굴 모델

Search Result 602, Processing Time 0.024 seconds

Face Super-Resolution using Adversarial Distillation of Multi-Scale Facial Region Dictionary (다중 스케일 얼굴 영역 딕셔너리의 적대적 증류를 이용한 얼굴 초해상화)

  • Jo, Byungho;Park, In Kyu;Hong, Sungeun
    • Journal of Broadcast Engineering
    • /
    • v.26 no.5
    • /
    • pp.608-620
    • /
    • 2021
  • Recent deep learning-based face super-resolution (FSR) works showed significant performances by utilizing facial prior knowledge such as facial landmark and dictionary that reflects structural or semantic characteristics of the human face. However, most of these methods require additional processing time and memory. To solve this issue, this paper propose an efficient FSR models using knowledge distillation techniques. The intermediate features of teacher network which contains dictionary information based on major face regions are transferred to the student through adversarial multi-scale features distillation. Experimental results show that the proposed model is superior to other SR methods, and its effectiveness compare to teacher model.

Analysis and Synthesis of Facial Expression using Base Faces (기준얼굴을 이용한 얼굴표정 분석 및 합성)

  • Park, Moon-Ho;Ko, Hee-Dong;Byun, Hye-Ran
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.8
    • /
    • pp.827-833
    • /
    • 2000
  • Facial expression is an effective tool to express human emotion. In this paper, a facial expression analysis method based on the base faces and their blending ratio is proposed. The seven base faces were chosen as axes describing and analyzing arbitrary facial expression. We set up seven facial expressions such as, surprise, fear, anger, disgust, happiness, sadness, and expressionless as base faces. Facial expression was built by fitting generic 3D facial model to facial image. Two comparable methods, Genetic Algorithms and Simulated Annealing were used to search the blending ratio of base faces. The usefulness of the proposed method for facial expression analysis was proved by the facial expression synthesis results.

  • PDF

A Implementation of 3D Virtual Face using two 2D photographs (두 장의 2D 사진을 이용한 3D 가상 얼굴 구현)

  • 임낙현;서경호;김태효
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.12a
    • /
    • pp.117-120
    • /
    • 2000
  • 본 논문에서는 2매의 2차원 얼굴영상으로부터 이들을 합성하여 3차원 얼굴의 가상형상을 복원한다. 여기서 2매의 2차원 얼굴영상은 정면과 측면 영상을 사용한다. 우선 임의의 일반 얼굴에 대한 기준모델을 설정하고, 이 모델에서, 얼굴형상의 특징을 표현하는 귀, 2개의 눈, 코 및 입 부분에 집중적으로 특징점을 규정하고, 그 외에 이마 및 턱 부분에도 특징 점을 규정하여 그 위치좌표를 저장해 둔다. 그 후 정면영상의 좌 우측에 측면영상을 대칭적으로 접속하고 영상의 기하변환 방법을 적용하여 점차적으로 합성한다. 이때 나타나는 합성부분에 색상 및 명도의 차를 제거하기 위해 선형보간법을 적용하여 자연스런 3차원 가상얼굴을 구현하게 된다. 그 결과 불특정 얼굴형상도 3차원으로 구현할 수 있음을 확인하였다.

  • PDF

Music player using emotion classification of facial expressions (얼굴표정을 통한 감정 분류 및 음악재생 프로그램)

  • Yoon, Kyung-Seob;Lee, SangWon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.243-246
    • /
    • 2019
  • 본 논문에서는 감성과 힐링, 머신러닝이라는 주제를 바탕으로 딥러닝을 통한 사용자의 얼굴표정을 인식하고 그 얼굴표정을 기반으로 음악을 재생해주는 얼굴표정 기반의 음악재생 프로그램을 제안한다. 얼굴표정 기반 음악재생 프로그램은 딥러닝 기반의 음악 프로그램으로써, 이미지 인식 분야에서 뛰어난 성능을 보여주고 있는 CNN 모델을 기반으로 얼굴의 표정을 인식할 수 있도록 데이터 학습을 진행하였고, 학습된 모델을 이용하여 웹캠으로부터 사용자의 얼굴표정을 인식하는 것을 통해 사용자의 감정을 추측해낸다. 그 후, 해당 감정에 맞게 감정을 더 증폭시켜줄 수 있도록, 감정과 매칭되는 노래를 재생해주고, 이를 통해, 사용자의 감정이 힐링 및 완화될 수 있도록 도움을 준다.

  • PDF

Detection of Faces with Partial Occlusions using Statistical Face Model (통계적 얼굴 모델을 이용한 부분적으로 가려진 얼굴 검출)

  • Seo, Jeongin;Park, Hyeyoung
    • Journal of KIISE
    • /
    • v.41 no.11
    • /
    • pp.921-926
    • /
    • 2014
  • Face detection refers to the process extracting facial regions in an input image, which can improve speed and accuracy of recognition or authorization system, and has diverse applicability. Since conventional works have tried to detect faces based on the whole shape of faces, its detection performance can be degraded by occlusion made with accessories or parts of body. In this paper we propose a method combining local feature descriptors and probability modeling in order to detect partially occluded face effectively. In training stage, we represent an image as a set of local feature descriptors and estimate a statistical model for normal faces. When the test image is given, we find a region that is most similar to face using our face model constructed in training stage. According to experimental results with benchmark data set, we confirmed the effect of proposed method on detecting partially occluded face.

A Study on the Hair Line detection Using Feature Points Matching in Hair Beauty Fashion Design (헤어 뷰티 패션 디자인 선별을 위한 특징 점 정합을 이용한 헤어 라인 검출)

  • 송선희;나상동;배용근
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.5
    • /
    • pp.934-940
    • /
    • 2003
  • In this paper, hair beauty fashion design feature points detection system is proposed. A hair models and hair face is represented as a graph where the nodes are placed at facial feature points labeled by their Gabor features and the edges are describes their spatial relations. An innovative flexible feature matching is proposed to perform features correspondence between hair models and the input image. This matching hair model works like random diffusion process in the image space by employing the locally competitive and globally corporative mechanism. The system works nicely on the face images under complicated background. pose variations and distorted by accessories. We demonstrate the benefits of our approach by its implementation on the face identification system.

Detection of Facial Region using Multi-Channel Color Model (다채널 컬러 모델을 이용한 얼굴영역 검출)

  • Song, Sun-Hee;Suk, Kyung-Hyu;Kim, Chul-Young;Kim, Moon-Hwan;Jeoung, You-Sun;Bae, Chul-Soo;Ra, Sang-dong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.805-808
    • /
    • 2004
  • 본 논문에서는 컬러정보를 이용하여 외부 조명의 영향에 대응하면서 얼굴 후보영역을 추출하고, 추출된 후보 영역으로부터 다채널 스킨컬러 모델로 특정 정보를 추출하는 검출 기법을 제시한다. 외부 조명에 민감한 스킨컬러 특성을 고려해 색상정보와 광도를 분리할 수 있는 $YC_rC_b$ 색상모델을 이용하며, Green, Blue 채널의 정보를 Gaussian 확률밀도 모델로부터 $C_b-C_g$의 좁은 범위에 분포되어 있는 스킨컬러 영역 밀도를 모델링한다. 또한 얼굴영역에 Region Restricting과 임계값 반복 알고리즘을 사용하여 눈 영역 검출 과정을 보이고, 실시간 복합 얼굴 검출 시스템 조명방식에 의해 결과를 나타낸다.

  • PDF

A System for Recognizing Sunglasses and a Mask of an ATM User (현금 인출기 사용자의 선글라스 및 마스크 인식 시스템)

  • Lim, Dong-Ak;Ko, Jae-Pil
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.1
    • /
    • pp.34-43
    • /
    • 2008
  • This paper presents a system for recognizing sunglasses and a mask of an ATM (Automatic Teller Machine) user. The proposed system extracts firstly facial contour, then from this extraction results it estimates the regions of eyes and mouth. Finally, it recognizes sunglasses and a mouth using Histogram Indexing based on those regions. We adopt a face shape model to be able to extract facial contour and to estimate the regions of eyes and mouth when those regions are occluded by sunglasses and a mask. To improve the fitting accuracy of the shame model, we adopt 2-step face detection method and conduct fitting several times by varying the initial position of the model instance. To achieve a good performance of the face detection method based on a background model, we enable the system to automatically update the background model. In experiment, we present some experiments on setting parameters of the system with images taken from in our laboratory, and demonstrate the results of recognizing sunglasses and a mask.

  • PDF

A study on age estimation of facial images using various CNNs (Convolutional Neural Networks) (다양한 CNN 모델을 이용한 얼굴 영상의 나이 인식 연구)

  • Sung Eun Choi
    • Journal of Platform Technology
    • /
    • v.11 no.5
    • /
    • pp.16-22
    • /
    • 2023
  • There is a growing interest in facial age estimation because many applications require age estimation techniques from facial images. In order to estimate the exact age of a face, a technique for extracting aging features from a face image and classifying the age according to the extracted features is required. Recently, the performance of various CNN-based deep learning models has been greatly improved in the image recognition field, and various CNN-based deep learning models are being used to improve performance in the field of facial age estimation. In this paper, age estimation performance was compared by learning facial features based on various CNN-based models such as AlexNet, VGG-16, VGG-19, ResNet-18, ResNet-34, ResNet-50, ResNet-101, ResNet-152. As a result of experiment, it was confirmed that the performance of the facial age estimation models using ResNet-34 was the best.

  • PDF

Synthesis of Realistic Facial Expression using a Nonlinear Model for Skin Color Change (비선형 피부색 변화 모델을 이용한 실감적인 표정 합성)

  • Lee Jeong-Ho;Park Hyun;Moon Young-Shik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.121-123
    • /
    • 2006
  • 얼굴의 표정은 얼굴의 구성요소 같은 기하학적 정보와 조명이나 주름 같은 세부적인 정보들로 표현된다. 얼굴 표정은 기하학적 변형만으로는 실감적인 표정을 생성하기 힘들기 때문에 기하학적 변형과 더불어 텍스쳐 같은 세부적인 정보도 함께 변형해야만 실감적인 표현을 할 수 있다. 표정비율이미지 (Expression Ratio Image)같은 얼굴 텍스처의 세부적인 정보를 변형하기 위한 기존 방법들은 조명에 따른 피부색의 변화를 정확히 표현할 수 없는 단점이 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해 서로 다른 조명 조건에서도 실감적인 표정 텍스처 정보를 적용할 수 있는 비선형 피부색 모델 기반의 표정 합성 방법을 제안한다. 제안된 방법은 동적 외양 모델을 이용한 자동적인 얼굴 특징 추출과 와핑을 통한 표정 변형 단계, 비선형 피부색 변화 모델을 이용한 표정 생성 단계, Euclidean Distance Transform (EDT)에 의해 계산된 혼합 비율을 사용한 원본 얼굴 영상과 생성된 표정의 합성 등 총 3 단계로 구성된다. 실험결과는 제안된 방법이 다양한 조명조건에서도 자연스럽고 실감적인 표정을 표현한다는 것을 보인다.

  • PDF