• 제목/요약/키워드: Facial components

검색결과 133건 처리시간 0.023초

3D 얼굴 모델의 코믹한 감정 표현 (A Comic Emotional Expression for 3D Facial Model)

  • 고광훈;김상운
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1999년도 추계종합학술대회 논문집
    • /
    • pp.536-539
    • /
    • 1999
  • In this paper we propose a 3D emotional expression method using a comic model for effective sign-language communications. Until now we have investigated to produce more realistic facial and emotional expression. When representing only emotional expression, however, a comic expression could be better than the real picture of a face. The comic face is a comic-style expression model in which almost components except the necessary parts like eyebrows, eyes, nose and mouth are discarded. We represent emotional expression using Action Units(AU) of Facial Action Coding System(FACS). Experimental results show a possibility that the proposed method could be used efficiently for sign-language image communications.

  • PDF

개인아바타 자동 생성을 위한 얼굴 구성요소의 추출에 관한 연구 (A Study on Face Component Extraction for Automatic Generation of Personal Avatar)

  • 최재영;황승호;양영규;황보택근
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.93-102
    • /
    • 2005
  • 최근 네티즌들은 사이버 공간에서 자신의 정체성을 나타내기 위해 가상 캐릭터 '아바타(Avatar)'를 많이 이용하고 있으며, 더 나아가 사용자들은 좀 더 자신과 닮은 아바타를 요구하고 있다. 본 논문은 자동 아바타 생성의 기반기술인 얼굴 영역과 구성요소의 추출에 대한 연구로써 얼굴 구성 요소의 추출은 ACM과 에지의 정보를 이용하였다. 또한 얼굴 영역의 추출은 얼굴 영역의 면적 변화량을 ACM의 외부에너지로 사용하여 저해상도의 사진에서 발생하는 조명과 화질의 열화에 의한 영향을 감소시킬 수 있었다. 본 연구의 결과로 얼굴영역 추출 성공률은 $92{\%}$로 나타났으며, 얼굴 구성 요소의 추출은 $83.4{\%}$의 성공률을 보였다. 본 논문은 향후 자동 아바타 생성 시스템에서 얼굴 영역과 얼굴 구성요소를 정확하게 추출함으로써 패턴 부위별 특징처리가 가능하게 될 것으로 예상된다.

  • PDF

Targeted presurgical decompensation in patients with yaw-dependent facial asymmetry

  • Kim, Kyung-A;Lee, Ji-Won;Park, Jeong-Ho;Kim, Byoung-Ho;Ahn, Hyo-Won;Kim, Su-Jung
    • 대한치과교정학회지
    • /
    • 제47권3호
    • /
    • pp.195-206
    • /
    • 2017
  • Facial asymmetry can be classified into the rolling-dominant type (R-type), translation-dominant type (T-type), yawing-dominant type (Y-type), and atypical type (A-type) based on the distorted skeletal components that cause canting, translation, and yawing of the maxilla and/or mandible. Each facial asymmetry type represents dentoalveolar compensations in three dimensions that correspond to the main skeletal discrepancies. To obtain sufficient surgical correction, it is necessary to analyze the main skeletal discrepancies contributing to the facial asymmetry and then the skeletal-dental relationships in the maxilla and mandible separately. Particularly in cases of facial asymmetry accompanied by mandibular yawing, it is not simple to establish pre-surgical goals of tooth movement since chin deviation and posterior gonial prominence can be either aggravated or compromised according to the direction of mandibular yawing. Thus, strategic dentoalveolar decompensations targeting the real basal skeletal discrepancies should be performed during presurgical orthodontic treatment to allow for sufficient skeletal correction with stability. In this report, we document targeted decompensation of two asymmetry patients focusing on more complicated yaw-dependent types than others: Y-type and A-type. This may suggest a clinical guideline on the targeted decompensation in patient with different types of facial asymmetries.

흰쥐 안면신경핵 세포의 전기생리학적 및 형태학적 특성 (ELECTROPHYSIOLOGICAL AND MORPHOLOGICAL CHARACTERISTICS OF FACIAL NUCLEUS IN RAT)

  • 최병주;조진화;배용철;김영진
    • 대한소아치과학회지
    • /
    • 제27권3호
    • /
    • pp.400-409
    • /
    • 2000
  • 흰쥐의 안면신경핵을 구성하는 신경세포들의 시냅스 연결 양태 및 세포막 특성을 규명하기 위해 in vivo 필드전위 및 세포 내 전위 측정법을 이용하여 전기생리적 반응을 관찰하였다. 말초 안면신경 분지를 역행성으로 전기자극시 자극세기에 비례하여 전위의 크기가 증가되었고 필드 전위의 양태는 두 가지 반응으로 나타났는데 전기자극 직후 1ms 부근에서 정점을 나타내는 양태와 이와 더불어 $7\sim8ms$ 부근에서 후기 정점을 동반하는 양태가 있었다. 안면신경핵은 염색시 내측, 배외측, 중간측 및 외측등 4부분의 소핵으로 구분되었다. Neurobiotin으로 채워진 단일 신경세포를 형태학적으로 재구축하였는데 세포체는 추체형태를 나타내었고 주 수상돌기는 모든 방향으로 뻗어져 있었고 각 수상돌기의 영역은 해당 소핵 내에 한정되어 있었다. 일련의 과분극 전류 $(-1.2\sim+1.2nA)$를 세포내에 가하였을 때 동반되는 세포내 전위변화를 입력저항 값으로 계산하였을 때 그 기울기가 직선형으로 나타났다. 탈분극 전류를 세포내 주입시 지속적인 활동성 전위가 나타났으며 전류의 크기에 비례하여 각 전위의 개수가 증가하였고 spike-빈도 적응 현상이 나타났다. 그러나 시간 의존성 내향성 정류현상은 관찰되지 않았고 anodal break excitation이 나타났다. 이상의 실험결과로 보아 안면신경핵을 구성하고 있는 세포들 사이의 시냅스는 다양한 형태로 존재할 가능성이 있다고 사료되며 이들 시냅스간의 변화를 통하여 안면 신경마비, 반쪽 안면 경련, hypoglossal-facial anastomosis등에서 나타날 수 있는 임상적 신경성 증상 기전을 설명할 수 있을 것으로 여겨진다.

  • PDF

업데이트된 피부색을 이용한 얼굴 추적 시스템 (Face Tracking System Using Updated Skin Color)

  • 안경희;김종호
    • 한국멀티미디어학회논문지
    • /
    • 제18권5호
    • /
    • pp.610-619
    • /
    • 2015
  • *In this paper, we propose a real-time face tracking system using an adaptive face detector and a tracking algorithm. An image is divided into the regions of background and face candidate by a real-time updated skin color identifying system in order to accurately detect facial features. The facial characteristics are extracted using the five types of simple Haar-like features. The extracted features are reinterpreted by Principal Component Analysis (PCA), and the interpreted principal components are processed by Support Vector Machine (SVM) that classifies into facial and non-facial areas. The movement of the face is traced by Kalman filter and Mean shift, which use the static information of the detected faces and the differences between previous and current frames. The proposed system identifies the initial skin color and updates it through a real-time color detecting system. A similar background color can be removed by updating the skin color. Also, the performance increases up to 20% when the background color is reduced in comparison to extracting features from the entire region. The increased detection rate and speed are acquired by the usage of Kalman filter and Mean shift.

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

작업기억 부담이 부적 얼굴정서 처리에 미치는 영향: ERP 연구 (Effects of Working Memory Load on Negative Facial Emotion Processing: an ERP study)

  • 박태진;김정희
    • 인지과학
    • /
    • 제29권1호
    • /
    • pp.39-59
    • /
    • 2018
  • 작업기억 부담이 부적 얼굴정서 처리에 미치는 영향을 밝히기 위해, N-back 과제 수행 도중 제시된 부적 얼굴표정에 의해 유발된 ERP성분들을 조사하였다. 한 개씩 순차적으로 제시되는 시각적 사물그림들에 대한 기억을 유지하고 갱신하도록 요구하면서(N-back 과제) 이 사물그림들이 제시되는 사이에 공포표정 또는 중립표정의 얼굴자극을 하나씩 제시하였는데, 작업기억 부담을 0-back 조건(저부담)과 2-back 조건(고부담)으로 조작하였다. N-back과제 수행반응을 분석한 결과, 고부담조건에 비해 저부담조건에서 더 빠르고 정확한 반응이 관찰되었다. 얼굴자극에 의해 유발된 ERP 평균진폭을 분석한 결과, 후두영역에서 측정한 P1 진폭에서는 정서가효과는 유의미하지 않았고 작업기억 부담효과만 유의미하였다(고부담 > 저부담). 후측 후두-측두 영역에서 측정한 N170 진폭에서 얼굴 정서가효과는 전반적으로는 유의미하였지만(부정 > 중립) 세부적으로는 작업기억부담과 반구에 따라 다르게 나타났는데, 정서가효과가 좌반구에서는 저부담조건의 경우에만, 우반구에서는 두 부담조건 모두에서 관찰되었다. 결국, 얼굴표정의 부적 정서가가 N170에 미치는 영향이 좌반구에서는 작업기억 부담에 의해 조절되었지만 우반구에서는 그렇지 않았다. 이러한 결과는, 부적 얼굴 표정의 초기 정서처리가 작업기억의 유지 및 조작 부담이 큰 경우 좌반구에서는 약화되거나 일어나지 않을 수 있는 반면, 우반구에서는 작업기억 부담의 크기에 관계없이 일어남을 보여주는 것으로써, 부적 얼굴정서 처리의 우반구 편재를 시사한다.

Extended Center-Symmetric Pattern과 2D-PCA를 이용한 얼굴인식 (Face Recognition using Extended Center-Symmetric Pattern and 2D-PCA)

  • 이현구;김동주
    • 디지털산업정보학회논문지
    • /
    • 제9권2호
    • /
    • pp.111-119
    • /
    • 2013
  • Face recognition has recently become one of the most popular research areas in the fields of computer vision, machine learning, and pattern recognition because it spans numerous applications, such as access control, surveillance, security, credit-card verification, and criminal identification. In this paper, we propose a simple descriptor called an ECSP(Extended Center-Symmetric Pattern) for illumination-robust face recognition. The ECSP operator encodes the texture information of a local face region by emphasizing diagonal components of a previous CS-LBP(Center-Symmetric Local Binary Pattern). Here, the diagonal components are emphasized because facial textures along the diagonal direction contain much more information than those of other directions. The facial texture information of the ECSP operator is then used as the input image of an image covariance-based feature extraction algorithm such as 2D-PCA(Two-Dimensional Principal Component Analysis). Performance evaluation of the proposed approach was carried out using various binary pattern operators and recognition algorithms on the Yale B database. The experimental results demonstrated that the proposed approach achieved better recognition accuracy than other approaches, and we confirmed that the proposed approach is effective against illumination variation.

분포맵에 기반한 얼굴 영역 검출 (Face Detection Based on Distribution Map)

  • 조한수
    • 한국멀티미디어학회논문지
    • /
    • 제9권1호
    • /
    • pp.11-22
    • /
    • 2006
  • 얼굴 검출은 개인 인증이나 보안 등 그 응용분야가 다양하여 활발히 연구가 진행되고 있다. 본 논문에서는 분포맵에 기반한 얼굴 검출의 새로운 방법을 제안한다. 제안한 방법은 먼저, 빈도수를 고려한 피부색 분포맵을 입력 영상에 적용하여 일차적으로 얼굴 후보영역을 구하고, 이 영역에서 눈동자색 분포맵을 이용하여 눈후보영역을 결정함으로써 얼굴 구성 요소를 탐색하는 탐색공간을 축소한다. 결정된 눈 후보영역에서 가중치가 있는 윈도우를 이용하여 휘도성분과 색상성분의 상관값을 특징벡터로 한 템플릿 정합 방법으로 눈 후보점을 검출한다. 최종적으로 각 눈 후보점 쌍에 대하여 눈과 입의 위치관계 정보와 입을 인식하는 평가함수를 이용하여 얼굴을 검출하였다. 실험 결과, 제안된 방법은 좋은 성능을 보였다.

  • PDF

음악요법을 이용한 노인의 우울증 완화 로봇 'BOOGI'의 콘텐츠 개발 (Development of Content for the Robot that Relieves Depression in the Elderly Using Music Therapy)

  • 정유화;정성원
    • 한국콘텐츠학회논문지
    • /
    • 제15권2호
    • /
    • pp.74-85
    • /
    • 2015
  • 타악기가 주는 긍정적인 효과가 우울증을 겪는 노인에게 자아 존중감의 증가 및 우울증의 감소를 유도할 수 있다는 사실을 바탕으로 음악 요법을 로봇에 접목하여 노인들이 음악을 직접 연주할 수 있게 하는 타악기 로봇의 콘텐츠가 개발되었다. 노인의 우울증 완화를 위한 음악치료 로봇의 콘텐츠로써, 노인과 로봇의 상호작용 요소가 도출되었다. 회상을 자극할 수 있는 노래가 선정되었고 노래의 연주에 따른 타악기의 타격에 대한 점수체계가 개발되었다. 또한 상호작용 요소 중 노인들의 감성적 자극요인이 될 수 있는 로봇 표정 요소가 디자인되었다. 표정은 무표정, 기쁨, 아주기쁨으로 구분되며 타악기의 연주 참여도에 따라 실시간으로 변화하여 적극적 참여를 유도하게 된다. 노인이 로봇에서 나오는 음악을 따라 연주하고 참여도의 정도에 따라 노인과 로봇이 상호작용할 수 있다면 단순한 음악 게임기가 아닌 우울증을 완화시킬 수 있는 로봇으로서의 효과가 극대화 될 수 있을 것으로 기대한다.