• 제목/요약/키워드: Emotion recognition system

검색결과 220건 처리시간 0.025초

이종 음성 DB 환경에 강인한 감성 분류 체계에 대한 연구 (A Study on Robust Emotion Classification Structure Between Heterogeneous Speech Databases)

  • 윤원중;박규식
    • 한국음향학회지
    • /
    • 제28권5호
    • /
    • pp.477-482
    • /
    • 2009
  • 고객센터 (call-center)와 같은 기업환경의 감성인식 시스템은 감성 훈련용 음성과 불특정 고객들의 질의 음성간의 녹취 환경차이로 인해 상당한 시스템 성능 저하와 불안정성을 겪게 된다. 본 논문에서는 이러한 문제점을 극복하기 위해 기존의 전통적인 평상/화남 감성 분류체계를 남 녀 성별에 따른 감성별 특성 변화를 적용하여 2단계 분류체계로 확장하였다. 실험 결과, 제안한 방법은 녹취 환경 차이로 인한 시스템 불안정성을 해소할 수 있을 뿐 아니라 약 25% 가까운 인식 성능 개선을 가져올 수 있었다.

A Survey on Image Emotion Recognition

  • Zhao, Guangzhe;Yang, Hanting;Tu, Bing;Zhang, Lei
    • Journal of Information Processing Systems
    • /
    • 제17권6호
    • /
    • pp.1138-1156
    • /
    • 2021
  • Emotional semantics are the highest level of semantics that can be extracted from an image. Constructing a system that can automatically recognize the emotional semantics from images will be significant for marketing, smart healthcare, and deep human-computer interaction. To understand the direction of image emotion recognition as well as the general research methods, we summarize the current development trends and shed light on potential future research. The primary contributions of this paper are as follows. We investigate the color, texture, shape and contour features used for emotional semantics extraction. We establish two models that map images into emotional space and introduce in detail the various processes in the image emotional semantic recognition framework. We also discuss important datasets and useful applications in the field such as garment image and image retrieval. We conclude with a brief discussion about future research trends.

감정 적응을 이용한 감정 인식 학습 방법 (A Training Method for Emotion Recognition using Emotional Adaptation)

  • 김원구
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.998-1003
    • /
    • 2020
  • 본 논문에서는 기존 감정 인식 시스템의 성능 향상을 위하여 감정 적응을 사용한 감정 학습 방법이 제안되었다. 감정 적응을 위하여 적은 개수의 학습 감정 음성과 감정 적응 방식을 사용하여 감정이 없는 음성 모델로부터 감정 음성 모델이 생성되었다. 이러한 방법은 기존 방법보다 적은 개수의 감정 음성을 사용하여도 우수한 성능을 나타내었다. 학습을 위하여 충분한 감정 음성을 얻는 것은 쉽지 않기 때문에 적은 개수의 감정 음성을 사용하는 것은 실제 상황에서 매우 실용적이다. 4가지 감정이 포함된 한국어 데이터베이스를 사용한 실험 결과에서 감정 적응을 이용한 제안된 방법이 기존 방법보다 우수한 성능을 나타내었다.

이미지의 색채 감성속성을 이용한 대표감성크기 정량화 알고리즘 (Represented by the Color Image Emotion Emotional Attributes of Size, Quantification Algorithm)

  • 이연란
    • 만화애니메이션 연구
    • /
    • 통권39호
    • /
    • pp.393-412
    • /
    • 2015
  • 사람의 이미지를 보고 느끼는 감성인식은 환경, 개인적 성향에 따라 다양하게 변화한다. 그리하여 이미지 감성인식을 숫자로 제어하려는 감성컴퓨터 연구에 집중되고 있다. 그렇지만 기존의 감성컴퓨팅 모형은 숫자화된 객관적이고, 명확한 측정이 미흡한 상황이다. 따라서 이미지 감성인식을 감성컴퓨팅을 통해 정량화하고, 객관적인 평가 방식의 연구가 필요한 상황이다. 이에 본 논문은 이미지 감성인식을 계산 방식에 따라 숫자화한 정량화로 감성크기를 표현했다. 그리하여 이미지 감성인식의 주요한 속성인 색채를 구성인자로 적용한다. 또한 디지털 색채 감성컴퓨팅을 적용하여 계산하는데 연구의 중점을 두었다. 이미지 색채 감성컴퓨팅 연구방식은 감성속성인 색상, 명도, 채도에 중요도에 따른 가중치를 감성점수에 반영한다. 그리고 감성점수를 이미지 감성계산식에 적용하여 쾌정도(X축), 긴장도(Y축)를 숫자 방식으로 계산한다. 거기에 쾌정도(X축), 긴장도(Y축)의 교차하는 위치점을 이미지 감성좌표의 감성점으로 위치한다. 이미지 색채 감성좌표는 러셀의 핵심 효과(Core Affect)를 적용하여 16가지 주요대표감성을 기반으로 한다. 이미지 감성점은 기준의 위치에서 대표감성크기와 감성상관관계를 숫자화하고, 이미지 감성을 정량화한다. 그리하여 이미지 감성인식은 숫자 크기로 비교한다. 감성점수의 대소에 따라 감성이 변화함을 증명한다. 비교 방식은 이미지 감성인식을 16개 대표감성과 연관된 감성의 상위 5위로 구분하고, 집중된 대표감성크기를 비교 분석한다. 향후 감성컴퓨팅 방식이 사람의 감성인식과 더 유사할 수 있도록 감성계산식의 연구가 필요하다.

감성인식과 핵심어인식 기술을 이용한 고객센터 자동 모니터링 시스템에 대한 연구 (A Study on the Automatic Monitoring System for the Contact Center Using Emotion Recognition and Keyword Spotting Method)

  • 윤원중;김태홍;박규식
    • 인터넷정보학회논문지
    • /
    • 제13권3호
    • /
    • pp.107-114
    • /
    • 2012
  • 본 논문에서는 고객의 불만관리 및 상담원의 상담품질 관리를 위한 고객센터 자동 모니터링 시스템에 대한 연구를 진행하였다. 제안된 시스템에서는 평상/화남의 2가지 감성에 대한 음성 감성인식 기술과 핵심어인식 기술을 사용하여 상담내역에 대한 보다 정확한 모니터링이 가능하고, 욕설, 성희롱 등의 언어폭력을 일삼는 고객에 대한 전문상담 및 관리가 가능하다. 서로 다른 환경에서 구축된 이종 음성 DB를 이용하여 불특정 고객들의 질의 음성에 안정적으로 동작할 수 있는 알고리즘을 개발하였으며, 실제 고객센터 상담내역 데이터를 이용하여 성능을 검증하였다.

한국인 표준 얼굴 표정 이미지의 감성 인식 정확률 (The Accuracy of Recognizing Emotion From Korean Standard Facial Expression)

  • 이우리;황민철
    • 한국콘텐츠학회논문지
    • /
    • 제14권9호
    • /
    • pp.476-483
    • /
    • 2014
  • 본 논문은 국내 표정 연구에 적합한 얼굴 표정 이미지를 제작하는 것에 목적을 두었다. 이를 위해서 1980년대 태생의 한국인의 표준 형상에 FACS-Action Unit을 결합하여, KSFI(Korean Standard Facial Image) AU set를 제작하였다. KSFI의 객관성을 확보하기 위해 6가지 기본 감성(슬픔, 행복, 혐오, 공포, 화남, 놀람) 이미지를 제작하여, 감성 별 인식 정확률과 얼굴 요소의 감성인식 기여도를 평가하였다. 실험 결과, 정확률이 높은 행복, 놀람, 슬픔, 분노의 이미지의 경우 주로 눈과 입의 얼굴 요소를 통해 감성을 판단하였다. 이러한 연구 결과를 통해 본 연구에서는 표정 이미지의 AU 변경할 수 있는 KSFI 콘텐츠를 제안하였다. 향후 KSFI가 감성 인식률 향상에 기여할 수 있는 학습 콘텐츠로서의 역할을 할 수 있을 것으로 사료된다.

성별 구분을 통한 음성 감성인식 성능 향상에 대한 연구 (A Study on The Improvement of Emotion Recognition by Gender Discrimination)

  • 조윤호;박규식
    • 대한전자공학회논문지SP
    • /
    • 제45권4호
    • /
    • pp.107-114
    • /
    • 2008
  • 본 논문은 남/여 성별에 기반해 음성을 평상, 기쁨, 슬픔, 화남의 4가지 감성 상태로 분류하는 감성인식 시스템을 구축하였다. 제안된 시스템은 입력 음성으로부터 1차적으로 남/여 성별을 분류하고, 분류된 성별을 기반으로 남/여 각기 최적의 특징벡터 열을 적용하여 감성인식을 수행함으로써 감성인식 성공률을 향상시켰다. 또한 음성인식에서 주로 사용되는 ZCPA(Zero Crossings with Peak Amplitudes)를 감성인식용 특징벡터로 사용하여 성능을 향상시켰으며, 남/여 각각의 특징 벡터 열을 최적화하기 위해 SFS(Sequential Forward Selection) 기법을 사용하였다. 감성 패턴 분류기로는 k-NN과 SVM을 비교하여 실험하였다. 실험결과 제안 시스템은 4가지 감성상태에 대해 약 85.3%의 높은 감성 인식 성공률을 달성할 수 있어 향후 감성을 인식하는 콜센터, 휴머노이드형 로봇이나 유비쿼터스(Ubiquitous) 환경 등 다양한 분야에서 감성인식 정보를 유용하게 사용될 수 있을 것으로 기대된다.

감정에 강인한 음성 인식을 위한 음성 파라메터 (Speech Parameters for the Robust Emotional Speech Recognition)

  • 김원구
    • 제어로봇시스템학회논문지
    • /
    • 제16권12호
    • /
    • pp.1137-1142
    • /
    • 2010
  • This paper studied the speech parameters less affected by the human emotion for the development of the robust speech recognition system. For this purpose, the effect of emotion on the speech recognition system and robust speech parameters of speech recognition system were studied using speech database containing various emotions. In this study, mel-cepstral coefficient, delta-cepstral coefficient, RASTA mel-cepstral coefficient and frequency warped mel-cepstral coefficient were used as feature parameters. And CMS (Cepstral Mean Subtraction) method were used as a signal bias removal technique. Experimental results showed that the HMM based speaker independent word recognizer using vocal tract length normalized mel-cepstral coefficient, its derivatives and CMS as a signal bias removal showed the best performance of 0.78% word error rate. This corresponds to about a 50% word error reduction as compare to the performance of baseline system using mel-cepstral coefficient, its derivatives and CMS.

Harmony Search 알고리즘 기반 HMM 구조 최적화에 의한 얼굴 정서 인식 시스템 개발 (Development of Facial Emotion Recognition System Based on Optimization of HMM Structure by using Harmony Search Algorithm)

  • 고광은;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제21권3호
    • /
    • pp.395-400
    • /
    • 2011
  • 본 논문에서는 얼굴 표정에서 나타나는 동적인 정서상태 변화를 고려한 얼굴 영상 기반 정서 인식 연구를 제안한다. 본 연구는 얼굴 영상 기반 정서적 특징 검출 및 분석 단계와 정서 상태 분류/인식 단계로 구분할 수 있다. 세부 연구의 구성 중 첫 번째는 Facial Action Units (FAUs)과 결합한 Active Shape Model (ASM)을 이용하여 정서 특징 영역 검출 및 분석기법의 제안이며, 두 번째는 시간에 따른 정서 상태의 동적 변화를 고려한 정확한 인식을 위하여 Hidden Markov Model(HMM) 형태의 Dynamic Bayesian Network를 사용한 정서 상태 분류 및 인식기법의 제안이다. 또한, 최적의 정서적 상태 분류를 위한 HMM의 파라미터 학습 시 Harmony Search (HS) 알고리즘을 이용한 휴리스틱 최적화 과정을 적용하였으며, 이를 통하여 동적 얼굴 영상 변화를 기반으로 하는 정서 상태 인식 시스템을 구성하고 그 성능의 향상을 도모하였다.

Emotion Recognition in Arabic Speech from Saudi Dialect Corpus Using Machine Learning and Deep Learning Algorithms

  • Hanaa Alamri;Hanan S. Alshanbari
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.9-16
    • /
    • 2023
  • Speech can actively elicit feelings and attitudes by using words. It is important for researchers to identify the emotional content contained in speech signals as well as the sort of emotion that resulted from the speech that was made. In this study, we studied the emotion recognition system using a database in Arabic, especially in the Saudi dialect, the database is from a YouTube channel called Telfaz11, The four emotions that were examined were anger, happiness, sadness, and neutral. In our experiments, we extracted features from audio signals, such as Mel Frequency Cepstral Coefficient (MFCC) and Zero-Crossing Rate (ZCR), then we classified emotions using many classification algorithms such as machine learning algorithms (Support Vector Machine (SVM) and K-Nearest Neighbor (KNN)) and deep learning algorithms such as (Convolution Neural Network (CNN) and Long Short-Term Memory (LSTM)). Our Experiments showed that the MFCC feature extraction method and CNN model obtained the best accuracy result with 95%, proving the effectiveness of this classification system in recognizing Arabic spoken emotions.