• 제목/요약/키워드: Multi-Dimensional emotion recognition

검색결과 5건 처리시간 0.019초

상담 챗봇의 다차원 감정 인식 모델 (Multi-Dimensional Emotion Recognition Model of Counseling Chatbot)

  • 임명진;이명호;신주현
    • 스마트미디어저널
    • /
    • 제10권4호
    • /
    • pp.21-27
    • /
    • 2021
  • 최근 COVID-19로 인한 코로나 블루로 상담의 중요성이 높아지고 있다. 또한 비대면 서비스의 증가로 상담 매체에 변화를 준 챗봇에 관한 연구들이 활발하게 진행되고 있다. 챗봇을 통한 비대면 상담에서는 내담자의 감정을 정확하게 파악하는 것이 가장 중요하다. 하지만 내담자가 작성한 문장만으로 감정을 인식하는 데는 한계가 있으므로 더 정확한 감정 인식을 위해서는 문장에 내제되어있는 차원 감정을 인식하는 것이 필요하다. 따라서 본 논문에서는 상담 챗봇의 감정 인식 개선을 위해 원본 데이터를 데이터의 특성에 맞게 보정한 후 Word2Vec 모델을 학습하여 생성된 벡터와 문장 VAD(Valence, Arousal, Dominance)를 딥러닝 알고리즘으로 학습한 다차원 감정 인식 모델을 제안한다. 제안한 모델의 유용성 검증 방법으로 3가지 딥러닝 모델을 비교 실험한 결과로 Attention 모델을 사용했을 때 R-squared가 0.8484로 가장 좋은 성능을 보인다.

준 지도학습과 여러 개의 딥 뉴럴 네트워크를 사용한 멀티 모달 기반 감정 인식 알고리즘 (Multi-modal Emotion Recognition using Semi-supervised Learning and Multiple Neural Networks in the Wild)

  • 김대하;송병철
    • 방송공학회논문지
    • /
    • 제23권3호
    • /
    • pp.351-360
    • /
    • 2018
  • 인간 감정 인식은 컴퓨터 비전 및 인공 지능 영역에서 지속적인 관심을 받는 연구 주제이다. 본 논문에서는 wild 환경에서 이미지, 얼굴 특징점 및 음성신호로 구성된 multi-modal 신호를 기반으로 여러 신경망을 통해 인간의 감정을 분류하는 방법을 제안한다. 제안 방법은 다음과 같은 특징을 갖는다. 첫째, multi task learning과 비디오의 시공간 특성을 이용한 준 감독 학습을 사용함으로써 영상 기반 네트워크의 학습 성능을 크게 향상시켰다. 둘째, 얼굴의 1 차원 랜드 마크 정보를 2 차원 영상으로 변환하는 모델을 새로 제안하였고, 이를 바탕으로 한 CNN-LSTM 네트워크를 제안하여 감정 인식을 향상시켰다. 셋째, 특정 감정에 오디오 신호가 매우 효과적이라는 관측을 기반으로 특정 감정에 robust한 오디오 심층 학습 메커니즘을 제안한다. 마지막으로 소위 적응적 감정 융합 (emotion adaptive fusion)을 적용하여 여러 네트워크의 시너지 효과를 극대화한다. 제안 네트워크는 기존의 지도 학습과 반 지도학습 네트워크를 적절히 융합하여 감정 분류 성능을 향상시켰다. EmotiW2017 대회에서 주어진 테스트 셋에 대한 5번째 시도에서, 제안 방법은 57.12 %의 분류 정확도를 달성하였다.

Active Shape Model과 통계적 패턴인식기를 이용한 얼굴 영상 기반 감정인식 (Video-based Facial Emotion Recognition using Active Shape Models and Statistical Pattern Recognizers)

  • 장길진;조아라;박정식;서용호
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권3호
    • /
    • pp.139-146
    • /
    • 2014
  • 본 논문에서는 얼굴 영상으로부터 자동으로 사람의 감정을 인식하는 효과적인 방법을 제안한다. 얼굴 표정으로부터 감정을 파악하기 위해서는 카메라로부터 얼굴영상을 입력받고, ASM (active shape model)을 이용하여 얼굴의 영역 및 얼굴의 주요 특징점을 추출한다. 추출한 특징점으로부터 각 장면별로 49차의 크기 및 변이에 강인한 특징벡터를 추출한 후, 통계기반 패턴분류 방법을 사용하여 얼굴표정을 인식하였다. 사용된 패턴분류기는 Naive Bayes, 다중계층 신경회로망(MLP; multi-layer perceptron), 그리고 SVM (support vector machine)이며, 이중 SVM을 이용하였을 때 가장 높은 최종 성능을 얻을 수 있었으며, 6개의 감정분류에서 50.8%, 3개의 감정분류에서 78.0%의 인식결과를 보였다.

쾌 및 각성차원 기반 얼굴 표정인식 (Facial expression recognition based on pleasure and arousal dimensions)

  • 신영숙;최광남
    • 인지과학
    • /
    • 제14권4호
    • /
    • pp.33-42
    • /
    • 2003
  • 본 논문은 내적상태의 차원모형을 기반으로 한 얼굴 표정인식을 위한 새로운 시스템을 제시한다. 얼굴표정 정보는 3단계로 추출된다. 1단계에서는 Gabor 웨이브렛 표상이 얼굴 요소들의 경계선을 추출한다. 2단계에서는 중립얼굴상에서 얼굴표정의 성긴 특징들이 FCM 군집화 알고리즘을 사용하여 추출된다. 3단계에서는 표정영상에서 동적인 모델을 사용하여 성긴 특징들이 추출된다. 마지막으로 다층 퍼셉트론을 사용하여 내적상태의 차원모델에 기반한 얼굴표정 인식을 보인다. 정서의 이차원 구조는 기본 정서와 관련된 얼굴표정의 인식 뿐만 아니라 다양한 정서의 표정들로 인식할 수 있음을 제시한다.

  • PDF

Multi-Time Window Feature Extraction Technique for Anger Detection in Gait Data

  • Beom Kwon;Taegeun Oh
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.41-51
    • /
    • 2023
  • 본 논문에서는 보행자의 걸음걸이로부터 분노 감정 검출을 위한 다중 시간 윈도 특징 추출 기술을 제안한다. 기존의 걸음걸이 기반 감정인식 기술에서는 보행자의 보폭, 한 보폭에 걸리는 시간, 보행 속력, 목과 흉부의 전방 기울기 각도(Forward Tilt Angle)를 계산하고, 전체 구간에 대해서 최솟값, 평균값, 최댓값을 계산해서 이를 특징으로 활용하였다. 하지만 이때 각 특징은 보행 전체 구간에 걸쳐 항상 균일하게 변화가 발생하는 것이 아니라, 때로는 지역적으로 변화가 발생한다. 이에 본 연구에서는 장기부터 중기 그리고 단기까지 즉, 전역적인 특징과 지역적인 특징을 모두 추출할 수 있는 다중 시간 윈도 특징 추출(Multi-Time Window Feature Extraction) 기술을 제안한다. 또한, 제안하는 특징 추출 기술을 통해 각 구간에서 추출된 특징들을 효과적으로 학습할 수 있는 앙상블 모델을 제안한다. 제안하는 앙상블 모델(Ensemble Model)은 복수의 분류기로 구성되며, 각 분류기는 서로 다른 다중 시간 윈도에서 추출된 특징으로 학습된다. 제안하는 특징 추출 기술과 앙상블 모델의 효과를 검증하기 위해 일반인에게 공개된 3차원 걸음걸이 데이터 세트를 사용하여 시험 평가를 수행했다. 그 결과, 4가지 성능 평가지표에 대해서 제안하는 앙상블 모델이 기존의 특징 추출 기술로 학습된 머신러닝(Machine Learning) 모델들과 비교하여 최고의 성능을 달성하는 것을 입증하였다.