• 제목/요약/키워드: facial image

검색결과 829건 처리시간 0.023초

이미지 시퀀스 얼굴표정 기반 감정인식을 위한 가중 소프트 투표 분류 방법 (Weighted Soft Voting Classification for Emotion Recognition from Facial Expressions on Image Sequences)

  • 김경태;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제20권8호
    • /
    • pp.1175-1186
    • /
    • 2017
  • Human emotion recognition is one of the promising applications in the era of artificial super intelligence. Thus far, facial expression traits are considered to be the most widely used information cues for realizing automated emotion recognition. This paper proposes a novel facial expression recognition (FER) method that works well for recognizing emotion from image sequences. To this end, we develop the so-called weighted soft voting classification (WSVC) algorithm. In the proposed WSVC, a number of classifiers are first constructed using different and multiple feature representations. In next, multiple classifiers are used for generating the recognition result (namely, soft voting) of each face image within a face sequence, yielding multiple soft voting outputs. Finally, these soft voting outputs are combined through using a weighted combination to decide the emotion class (e.g., anger) of a given face sequence. The weights for combination are effectively determined by measuring the quality of each face image, namely "peak expression intensity" and "frontal-pose degree". To test the proposed WSVC, CK+ FER database was used to perform extensive and comparative experimentations. The feasibility of our WSVC algorithm has been successfully demonstrated by comparing recently developed FER algorithms.

Motion Pattern Detection for Dynamic Facial Expression Understanding

  • Mizoguchi, Hiroshi;Hiramatsu, Seiyo;Hiraoka, Kazuyuki;Tanaka, Masaru;Shigehara, Takaomi;Mishima, Taketoshi
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1760-1763
    • /
    • 2002
  • In this paper the authors present their attempt io realize a motion pattern detector that finds specified sequence of image from input motion image. The detector is intended to be used for time-varying facial expression understanding. Needless to say, facial expression understanding by machine is crucial and enriches quality of human machine interaction. Among various facial expressions, like blinking, there must be such expressions that can not be recognized if input expression image is static. Still image of blinking can not be distinguished from sleeping. In this paper, the authors discuss implementation of their motion pattern detector and describe experiments using the detector. Experimental results confirm the feasibility of the idea behind the implemented detector.

  • PDF

얼굴 영상에서 유전자 알고리즘 기반 형판정합을 이용한 눈동자 검출 (Detection of Pupil using Template Matching Based on Genetic Algorithm in Facial Images)

  • 이찬희;장경식
    • 한국정보통신학회논문지
    • /
    • 제13권7호
    • /
    • pp.1429-1436
    • /
    • 2009
  • 본 논문에서는 다양한 조명하에서의 단일 얼굴 영상에 대해 유전자 알고리즘과 형판 정합을 이용하여 빠르게 눈동자를 검출하는 방법을 제안한다. 유전 알고리즘을 이용한 기존의 눈동자 검출 방법은 초기 개체군의 위치에 민감하여 낮은 눈 검출율을 보이며, 도한 그 결과가 일관적이지 않은 문제점을 갖는다. 이와 같은 문제점을 해결화기 위해 얼굴영상에서 지역적 최소치를 추출하고 형판과 가장 높은 적합도를 가지는 개체들로 초기 개체군을 생성 하였다. 각각의 개체는 형판의 기하학적 변환 정보로 구성되며, 형판 정합에 의해 눈동자가 검출된다. 실험을 통하여 본 논문에서 제안한 눈 후보 검출을 통하여 단일 영상에서도 눈 검출의 정확도와 높은 검출률을 확인하였다.

심박수 측정을 위한 안면 얼굴 영상 데이터 수집 시스템 설계 (Design of Facial Image Data Collection System for Heart Rate Measurement)

  • 장승주
    • 한국정보통신학회논문지
    • /
    • 제25권7호
    • /
    • pp.971-976
    • /
    • 2021
  • 본 논문은 심박수 측정을 위한 안면 얼굴 영상 데이터 수집 시스템을 설계한다. 본 논문의 설계 내용은 웹 카메라를 이용하여 사용자 얼굴 영상 정보들을 수집하고, 수집된 사용자 얼굴 영상 정보들을 이용하여 심박수를 측정하는 기능이다. 웹 카메라를 이용한 비접촉식 심박수 측정으로 인하여 오차가 발생할 가능성이 있다. 따라서 본 논문에서는 심박수 측정시 얼굴 영상 데이터 분류를 통해서 오차가 발생한 경우와 정상적인 경우를 구별하여 심박수 프로그램 오차 수정에 이용할 수 있도록 하고자 한다. 오차가 발생된 경우의 자료를 이용하여 오차를 줄이기 위한 목적으로 사용할 수 있도록 한다. 본 논문에서 제안하고 설계한 내용에 대해서 실험을 수행하였다. 실험 결과 본 논문에서 설계한 내용이 정상적으로 동작됨을 확인할 수 있었다.

Feature Extraction Based on GRFs for Facial Expression Recognition

  • Yoon, Myoong-Young
    • 한국산업정보학회논문지
    • /
    • 제7권3호
    • /
    • pp.23-31
    • /
    • 2002
  • 본 논문에서는 화상자료의 특성인 이웃 화소간의 종속성을 표현하는데 적합한 깁스분포를 바탕으로 얼굴 표정을 인식을 위한 특징벡터를 추출하는 새로운 방법을 제안하였다. 추출된 특징벡터는 얼굴 이미지의 크기, 위치, 회전에 대하여 불변한 특성을 갖는다. 얼굴 표정을 인식하기 위한 알고리즘은 특징벡터 추출하는 과정과 패턴을 인식하는 두 과정으로 나뉘어진다. 특징벡터는 얼굴 화상에 대하여 추정된 깁스분포를 바탕으로 수정된 2-D 조건부 모멘트로 구성된다. 얼굴 표정인식 과정에서는 패턴인식에 널리 사용되는 이산형 HMM를 사용한다. 제안된 방법에 대한 성능평가를 위하여 4가지의 얼굴 표정 인식 실험을 Workstation에서 실험한 결과, 제안된 얼굴 표정 인식 방법이 95% 이상의 성능을 보여주었다.

  • PDF

Multi-Channel 피부색 모델을 이용한 얼굴영역추출과 효율적인 특징벡터를 이용한 얼굴 인식 (The Facial Area Extraction Using Multi-Channel Skin Color Model and The Facial Recognition Using Efficient Feature Vectors)

  • 최광미;김형균
    • 한국정보통신학회논문지
    • /
    • 제9권7호
    • /
    • pp.1513-1517
    • /
    • 2005
  • 본 논문에서는 얼굴영역을 검출하기위해 얼굴 피부색을 보다 효과적으로 모델링하기 위한 피부색 특성을 고려하여 밝기 성분을 제거한 Red, Blue, Green 채널을 모두 사용하는 Hue, Cb, Cg의 M배i-Channel 피부색 모델을 사용한다. 얼굴영역을 분리한 영상에 Harr 웨이블릿을 이용한 에지영상 추출과 얼굴영역의 특징벡터를 구하기 위하여 26개의 특징벡터를 사용한 효율적인 고차 국소 자동 상관함수를 사용하였다. 계산된 특징벡터는 BP 신경망의 학습을 통하여 얼굴인식을 위한 데이터로 사용된다. 시뮬레이션을 통해 제안된 알고리즘에 의한 인식률향상과 속도 향상을 입증한다.

영역 분할과 판단 요소를 이용한 표정 인식 알고리즘 (A facial expressions recognition algorithm using image area segmentation and face element)

  • 이계정;정지용;황보현;최명렬
    • 디지털융복합연구
    • /
    • 제12권12호
    • /
    • pp.243-248
    • /
    • 2014
  • 본 논문에서는 사람 얼굴의 표정을 인식하기 위하여 판단 요소를 선정하고 판단 요소의 변화 상태를 파악하여 표정을 인식하는 방법을 제안한다. 판단 요소를 선정하기 위하여 이미지 영역 분할 방법을 사용하며, 판단 요소의 변화율을 이용하여 표정을 판단한다. 표정을 판단하기 위하여 90명의 표정을 데이터베이스화하여 비교하였고, 4개의 표정(웃음, 화남, 짜증, 슬픔)을 인식하는 방법을 제안한다. 제안한 방법은 시뮬레이션을 실시하여 판단 요소 검출 성공률과 표정 인식률을 통해 검증한다.

Multiscale Adaptive Local Directional Texture Pattern for Facial Expression Recognition

  • Zhang, Zhengyan;Yan, Jingjie;Lu, Guanming;Li, Haibo;Sun, Ning;Ge, Qi
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권9호
    • /
    • pp.4549-4566
    • /
    • 2017
  • This work presents a novel facial descriptor, which is named as multiscale adaptive local directional texture pattern (MALDTP) and employed for expression recognition. We apply an adaptive threshold value to encode facial image in different scales, and concatenate a series of histograms based on the MALDTP to generate facial descriptor in term of Gabor filters. In addition, some dedicated experiments were conducted to evaluate the performance of the MALDTP method in a person-independent way. The experimental results demonstrate that our proposed method achieves higher recognition rate than local directional texture pattern (LDTP). Moreover, the MALDTP method has lower computational complexity, fewer storage space and higher classification accuracy than local Gabor binary pattern histogram sequence (LGBPHS) method. In a nutshell, the proposed MALDTP method can not only avoid choosing the threshold by experience but also contain much more structural and contrast information of facial image than LDTP.

한국인 표준 얼굴 표정 이미지의 감성 인식 정확률 (The Accuracy of Recognizing Emotion From Korean Standard Facial Expression)

  • 이우리;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제14권9호
    • /
    • pp.476-483
    • /
    • 2014
  • 본 논문은 국내 표정 연구에 적합한 얼굴 표정 이미지를 제작하는 것에 목적을 두었다. 이를 위해서 1980년대 태생의 한국인의 표준 형상에 FACS-Action Unit을 결합하여, KSFI(Korean Standard Facial Image) AU set를 제작하였다. KSFI의 객관성을 확보하기 위해 6가지 기본 감성(슬픔, 행복, 혐오, 공포, 화남, 놀람) 이미지를 제작하여, 감성 별 인식 정확률과 얼굴 요소의 감성인식 기여도를 평가하였다. 실험 결과, 정확률이 높은 행복, 놀람, 슬픔, 분노의 이미지의 경우 주로 눈과 입의 얼굴 요소를 통해 감성을 판단하였다. 이러한 연구 결과를 통해 본 연구에서는 표정 이미지의 AU 변경할 수 있는 KSFI 콘텐츠를 제안하였다. 향후 KSFI가 감성 인식률 향상에 기여할 수 있는 학습 콘텐츠로서의 역할을 할 수 있을 것으로 사료된다.

얼굴뼈 골절의 진단과 치료에 64채널 3D VCT와 Conventional 3D CT의 비교 (Comparison of 64 Channel 3 Dimensional Volume CT with Conventional 3D CT in the Diagnosis and Treatment of Facial Bone Fractures)

  • 정종명;김종환;홍인표;최치훈
    • Archives of Plastic Surgery
    • /
    • 제34권5호
    • /
    • pp.605-610
    • /
    • 2007
  • Purpose: Facial trauma is increasing along with increasing popularity in sports, and increasing exposure to crimes or traffic accidents. Compared to the 3D CT of 1990s, the latest CT has made significant improvement thus resulting in higher accuracy of diagnosis. The objective of this study is to compare 64 channel 3 dimensional volume CT(3D VCT) with conventional 3D CT in the diagnosis and treatment of facial bone fractures. Methods: 45 patients with facial trauma were examined by 3D VCT from Jan. 2006 to Feb. 2007. 64 channel 3D VCT which consists of 64 detectors produce axial images of 0.625 mm slice and it scans 175 mm per second. These images are transformed into 3 dimensional image using software Rapidia 2.8. The axial image is reconstructed into 3 dimensional image by volume rendering method. The image is also reconstructed into coronal or sagittal image by multiplanar reformatting method. Results: Contrasting to the previous 3D CT which formulates 3D images by taking axial images of 1-2 mm, 64 channel 3D VCT takes 0.625 mm thin axial images to obtain full images without definite step ladder appearance. 64 channel 3D VCT is effective in diagnosis of thin linear bone fracture, depth and degree of fracture deviation. Conclusion: In its expense and speed, 3D VCT is superior to conventional 3D CT. Owing to its ability to reconstruct full images regardless of the direction using 2 times higher resolution power and 4 times higher speed of the previous 3D CT, 3D VCT allows for accurate evaluation of the exact site and deviation of fine fractures.