• 제목/요약/키워드: facial emotion processing

검색결과 33건 처리시간 0.032초

컨볼루셔널 신경망과 케스케이드 안면 특징점 검출기를 이용한 얼굴의 특징점 분류 (Facial Point Classifier using Convolution Neural Network and Cascade Facial Point Detector)

  • 유제훈;고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.241-246
    • /
    • 2016
  • Nowadays many people have an interest in facial expression and the behavior of people. These are human-robot interaction (HRI) researchers utilize digital image processing, pattern recognition and machine learning for their studies. Facial feature point detector algorithms are very important for face recognition, gaze tracking, expression, and emotion recognition. In this paper, a cascade facial feature point detector is used for finding facial feature points such as the eyes, nose and mouth. However, the detector has difficulty extracting the feature points from several images, because images have different conditions such as size, color, brightness, etc. Therefore, in this paper, we propose an algorithm using a modified cascade facial feature point detector using a convolutional neural network. The structure of the convolution neural network is based on LeNet-5 of Yann LeCun. For input data of the convolutional neural network, outputs from a cascade facial feature point detector that have color and gray images were used. The images were resized to $32{\times}32$. In addition, the gray images were made into the YUV format. The gray and color images are the basis for the convolution neural network. Then, we classified about 1,200 testing images that show subjects. This research found that the proposed method is more accurate than a cascade facial feature point detector, because the algorithm provides modified results from the cascade facial feature point detector.

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

얼굴 표정 시각자극에 따른 사상 체질별 유발뇌파 예비연구 (A Pilot Study on Evoked Potentials by Visual Stimulation of Facial Emotion in Different Sasang Constitution Types)

  • 황동욱;김근호;이유정;이재철;김명근;김종열
    • 사상체질의학회지
    • /
    • 제22권1호
    • /
    • pp.41-48
    • /
    • 2010
  • 1. Objective There has been a few trials to diagnose Sasang Constitution by using EEG, but has not been studied intensively. For the purpose of practical diagnosis, the characteristics of EEG for each constitution should be studied first. Recently it has been shown that Sasang Constitution might be related to harm avoidance and novelty seeking in temperament and character profiles. Based on this finding, we propose a visual stimulation method to evoke a EEG response which may discriminate difference between constitutional groups. Through the experiment with this method, we tried to reveal the characteristics of EEG of each constitutional groups by the method of event-related potentials. 2. Methods: We used facial visual stimulation to verify the characteristics of EEG for each constitutional groups. To reveal characteristic in sensitivity and latency of response, we added several levels of noise to facial images. 6 male subjects(2 Taeeumin, 2 Soyangin, 2 Soeumin) participated in this study. All subjects are healthy 20's. To remove artifacts and slow modulation, we removed EOG contaminated data and renormalization is applied. To extract stimulation related components, normalized event-related potential method was used. 3. Results: From Oz channels, it is verified that facial image processing components are extracted. For lower level noise, components related to the visual stimulation were clearly shown in Oz, Pz, and Cz channels. Pz and Cz channels show differences among 3 constitutional groups in maximum around 200 msec. Especially moderate level of noise looks appropriate for diagnosis. 4. Conclusion: We verified that the visual stimulation with facial emotion might be a good candidate to evoke the differences between constitutional groups in EEG response. The differences shown in the experiment may imply that the process of emotion has distinct tendencies in latencies and sensitivity for each consitutional group. And this distinction might be related to the temperament profile of consitutional groups.

딥러닝기반 감정인식에서 데이터 불균형이 미치는 영향 분석 (Effect Analysis of Data Imbalance for Emotion Recognition Based on Deep Learning)

  • 노하진;임유진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권8호
    • /
    • pp.235-242
    • /
    • 2023
  • 최근 들어 영유아를 대상으로 한 비대면 상담이 증가함에 따라 감정인식 보조 도구로 CNN기반 딥러닝 모델을 많이 사용하고 있다. 하지만 대부분의 감정인식 모델은 성인 데이터 위주로 학습되어 있어 영유아 및 청소년을 대상으로 적용하기에는 성능상의 제약이 있다. 본 논문에서는 이러한 성능제약의 원인을 분석하기 위하여 XAI 기법 중 하나인 LIME 기법을 통해 성인 대비 영유아와 청소년의 감정인식을 위한 얼굴 표정의 특징을 분석한다. 뿐만 아니라 남녀 집단에도 동일한 실험을 수행함으로써 성별 간 얼굴 표정의 특징을 분석한다. 그 결과로 연령대별 실험 결과와 성별별 실험 결과를 CNN 모델의 사전 훈련 데이터셋의 데이터 분포를 바탕으로 설명하고 균형 있는 학습 데이터의 중요성을 강조한다.

긍정적, 부정적 정서 자극에 의해 유발된 P3 (P3 Elicited by the Positive and Negative Emotional Stimuli)

  • 안석균;이수정;남궁기;이창일;이은;김태훈;노규식;최혜원;박준모
    • 정신신체의학
    • /
    • 제9권2호
    • /
    • pp.143-152
    • /
    • 2001
  • 연구목적: 정상인에서 표정 자극에 의해 유발된 P3가 긍정적, 부정적 정서 범주에 따라 서로 다른지 여부를 알아보고자 하였다. 대상 및 방법: 정상인 12명을 대상으로 표정 사진에 의해 유발된 사건 관련 전위인 P3를 측정하였다. 모든 연구 대상에게 고빈도로 제시되는 비표적 바둑판 모양의 체크보드 자극으로부터 저빈도로 제시되는 표적 정서 자극에 대해 느끼고, 반응하도록 지시하였다. 결과: 정상인에서 부정적 정서 자극에 의해 유발된 P3의 진폭이 긍정적 자극에 의한 경우 보다 유의하게 더 컸다. 결론: 표정 자극에 의해 유발된 P3는 긍정적, 부정적 정서 처리의 정신생리적 지표로서 활용될 가능성이 시사된다.

  • PDF

감정 인식을 위해 CNN을 사용한 최적화된 패치 특징 추출 (Optimized patch feature extraction using CNN for emotion recognition)

  • 하이더 이르판;김애라;이귀상;김수형
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.510-512
    • /
    • 2023
  • In order to enhance a model's capability for detecting facial expressions, this research suggests a pipeline that makes use of the GradCAM component. The patching module and the pseudo-labeling module make up the pipeline. The patching component takes the original face image and divides it into four equal parts. These parts are then each input into a 2Dconvolutional layer to produce a feature vector. Each picture segment is assigned a weight token using GradCAM in the pseudo-labeling module, and this token is then merged with the feature vector using principal component analysis. A convolutional neural network based on transfer learning technique is then utilized to extract the deep features. This technique applied on a public dataset MMI and achieved a validation accuracy of 96.06% which is showing the effectiveness of our method.

영유아와 청소년의 얼굴표정기반 감정인식 성능분석 (Performance Comparison of Emotion Recognition using Facial Expressions of Infants and Adolescents)

  • 노하진;임유진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.700-702
    • /
    • 2022
  • 코로나 바이러스-19 감염증 상황이 지속됨에 따라 영유아 비대면 상담이 증가하였다. 비대면이라는 제한된 환경에서, 보다 정확한 상담을 위해 영유아의 감정을 예측하는 보조도구로써 CNN 학습모델을 이용한 감정분석 결과를 활용할 수 있다. 하지만, 대부분의 감정분석 CNN 모델은 성인 데이터를 위주로 학습이 진행되므로 영유아의 감정인식률은 상대적으로 낮다. 본 논문에서는 영유아와 청소년 데이터의 감정분석 정확도 차이의 원인을 XAI 기법 중 하나인 LIME을 사용해 시각화하여 분석하고, 분석 결과를 근거로 영유아 데이터에 대한 감정인식 성능을 향상시킬 수 있는 방법을 제안한다.

암묵 데이터를 활용한 인문학 인풋값과 다중 모달리티의 가중치 할당 방법에 관한 연구 (A Study on the Weight Allocation Method of Humanist Input Value and Multiplex Modality using Tacit Data)

  • 이원태;강장묵
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권4호
    • /
    • pp.157-163
    • /
    • 2014
  • 이용자의 감성은 그 어느 때보다 기업, 정부 그리고 개인 간의 소통에서 중요한 변수로 인식된다. 특히 수많은 연구에서 이용자의 감성을 파악하는 방법으로 음성 톤, 속도, 얼굴 표정, 몸의 이동 방향과 속도, 제스쳐 등이 사용된다. 다중 모달리티는 단일의 모달리티보다 정확도가 높은 반면 멀티 센싱에 따른 인식률 한계와 데이터 처리 부하 그리고 센싱된 값을 추론하는 우수한 알고리즘이 요구된다. 즉 다중 모달리티는 각 모달리티의 개념, 속성이 상이하여 인간의 감성값이라는 표준화된 값으로 전환하는데 오류가 발생할 수 있다. 이 문제를 해결하기 위해 다중 모발리티 중관계망 분석, 문맥 파악, 디지털 필터 등의 기술을 이용하여 이용자에게 우선 순위를 갖는 감성 표현 모달리티를 추출할 필요가 있다. 특정 상황에 우선 순위를 갖는 모달리티와 그 주변을 에워싼 다른 모발리티를 암묵 값으로 처리하면 감성 인식에 있어 컴퓨터 자원의 소비 대비 견고한 시스템을 구성할 수 있다. 본 연구 결과, 암묵 데이터를 활용하여 다중 모발리티 중 가중치를 어떻게 부여할지에 대하여 제안하였다.

동작 인식을 통한 인터랙티브 애니메이션 (Interactive Animation by Action Recognition)

  • 황지연;임양미;박지완;장성갑
    • 한국콘텐츠학회논문지
    • /
    • 제6권12호
    • /
    • pp.269-277
    • /
    • 2006
  • 본 연구는 인간의 과장적 제스처 중, 팔에 대한 키 프레임을 추출하여 팔 동작(제스처)과 만화적 감정 표현 애니메이션과의 매칭을 위한 인터렉티브 시스템 구현을 목적으로 한다. 실시간 애니메이션 구현을 위하여 필요한 요소는 표정 변화에 따른 수많은 프레임 제작이다. 따라서, 애니메이션 제작에 따르는 시간 을 최소화하기 위해 3D 어플리케이션을 이용한 얼굴 감정 표현의 변형과정을 소개한다. 두 번째는 3D 어플리케이션에서 만들어진 많은 프레임들을 동작과 매칭하는 방법을 소개한다. 팔의 동작 변화에 따른 과장된 표정의 이미지 시퀀스를 매칭 시킴으로서 관객의 동작이 작품의 시동점이 되어 기존의 초상화가 과장된 움직임을 가칠 수 있게 함으로서 직접적으로 초상화와 의사소통을 하는듯한 느낌을 갖도록 했다.

  • PDF

감성 상호작용을 갖는 교육용 휴머노이드 로봇 D2 개발 (Design and implement of the Educational Humanoid Robot D2 for Emotional Interaction System)

  • 김도우;정기철;박원성
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 제38회 하계학술대회
    • /
    • pp.1777-1778
    • /
    • 2007
  • In this paper, We design and implement a humanoid robot, With Educational purpose, which can collaborate and communicate with human. We present an affective human-robot communication system for a humanoid robot, D2, which we designed to communicate with a human through dialogue. D2 communicates with humans by understanding and expressing emotion using facial expressions, voice, gestures and posture. Interaction between a human and a robot is made possible through our affective communication framework. The framework enables a robot to catch the emotional status of the user and to respond appropriately. As a result, the robot can engage in a natural dialogue with a human. According to the aim to be interacted with a human for voice, gestures and posture, the developed Educational humanoid robot consists of upper body, two arms, wheeled mobile platform and control hardware including vision and speech capability and various control boards such as motion control boards, signal processing board proceeding several types of sensors. Using the Educational humanoid robot D2, we have presented the successful demonstrations which consist of manipulation task with two arms, tracking objects using the vision system, and communication with human by the emotional interface, the synthesized speeches, and the recognition of speech commands.

  • PDF