• 제목/요약/키워드: Emotion detection

검색결과 115건 처리시간 0.217초

자동 감성 인식을 위한 비교사-교사 분류기의 복합 설계 (Design of Hybrid Unsupervised-Supervised Classifier for Automatic Emotion Recognition)

  • 이지은;유선국
    • 전기학회논문지
    • /
    • 제63권9호
    • /
    • pp.1294-1299
    • /
    • 2014
  • The emotion is deeply affected by human behavior and cognitive process, so it is important to do research about the emotion. However, the emotion is ambiguous to clarify because of different ways of life pattern depending on each individual characteristics. To solve this problem, we use not only physiological signal for objective analysis but also hybrid unsupervised-supervised learning classifier for automatic emotion detection. The hybrid emotion classifier is composed of K-means, genetic algorithm and support vector machine. We acquire four different kinds of physiological signal including electroencephalography(EEG), electrocardiography(ECG), galvanic skin response(GSR) and skin temperature(SKT) as well as we use 15 features extracted to be used for hybrid emotion classifier. As a result, hybrid emotion classifier(80.6%) shows better performance than SVM(31.3%).

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

가상현실환경에서 멀미 측정을 위한 생리신호 분석 (Practical BioSignal analysis for Nausea detection in VR environment)

  • Park, M.J.;Kim, H.T.;Park, K.S.
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2002년도 추계학술대회 논문집
    • /
    • pp.267-268
    • /
    • 2002
  • We developed nausea, caused by disorder of autonomic nervous system, detection system using bio-signal analysis and artificial neural network in virtual reality enironment. We used 16 bio-signals, 9 EEGs, EOG, ECG, SKT, PPG, GSR, RSP, EGC, which has own analysis methods. We estimated nausea level by artificial neural network.

  • PDF

감정 인지를 위한 음성 및 텍스트 데이터 퓨전: 다중 모달 딥 러닝 접근법 (Speech and Textual Data Fusion for Emotion Detection: A Multimodal Deep Learning Approach)

  • 에드워드 카야디;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.526-527
    • /
    • 2023
  • Speech emotion recognition(SER) is one of the interesting topics in the machine learning field. By developing multi-modal speech emotion recognition system, we can get numerous benefits. This paper explain about fusing BERT as the text recognizer and CNN as the speech recognizer to built a multi-modal SER system.

1/f-LIKE FREQUENCY FLUCTUATION IN FRONTAL ALPHA WAVE AS AN INDICATOR OF EMOTION

  • Yoshida, Tomoyuki
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2000년도 춘계 학술대회 및 국제 감성공학 심포지움 논문집 Proceeding of the 2000 Spring Conference of KOSES and International Sensibility Ergonomics Symposium
    • /
    • pp.99-103
    • /
    • 2000
  • There are two approaches in the study of emotion in the physiological psychology. The first is to clarify the brain mechanism of emotion, and the second is to evaluate objectively emotions using physiological responses along with our feeling experience. The method presented here belongs to the second one. Our method is based on the "level-crossing point detection" method. which involves the analysis of frequency fluctuations of EEG and is characterized by estimation of emotionality using coefficients of slopes in the log-power spectra of frequency fluctuation in alpha waves on both the left and right frontal lobe. In this paper we introduce a new theory of estimation on an individual's emotional state by using our non-invasive and easy measurement apparatus.

  • PDF

Classification of Three Different Emotion by Physiological Parameters

  • Jang, Eun-Hye;Park, Byoung-Jun;Kim, Sang-Hyeob;Sohn, Jin-Hun
    • 대한인간공학회지
    • /
    • 제31권2호
    • /
    • pp.271-279
    • /
    • 2012
  • Objective: This study classified three different emotional states(boredom, pain, and surprise) using physiological signals. Background: Emotion recognition studies have tried to recognize human emotion by using physiological signals. It is important for emotion recognition to apply on human-computer interaction system for emotion detection. Method: 122 college students participated in this experiment. Three different emotional stimuli were presented to participants and physiological signals, i.e., EDA(Electrodermal Activity), SKT(Skin Temperature), PPG(Photoplethysmogram), and ECG (Electrocardiogram) were measured for 1 minute as baseline and for 1~1.5 minutes during emotional state. The obtained signals were analyzed for 30 seconds from the baseline and the emotional state and 27 features were extracted from these signals. Statistical analysis for emotion classification were done by DFA(discriminant function analysis) (SPSS 15.0) by using the difference values subtracting baseline values from the emotional state. Results: The result showed that physiological responses during emotional states were significantly differed as compared to during baseline. Also, an accuracy rate of emotion classification was 84.7%. Conclusion: Our study have identified that emotions were classified by various physiological signals. However, future study is needed to obtain additional signals from other modalities such as facial expression, face temperature, or voice to improve classification rate and to examine the stability and reliability of this result compare with accuracy of emotion classification using other algorithms. Application: This could help emotion recognition studies lead to better chance to recognize various human emotions by using physiological signals as well as is able to be applied on human-computer interaction system for emotion recognition. Also, it can be useful in developing an emotion theory, or profiling emotion-specific physiological responses as well as establishing the basis for emotion recognition system in human-computer interaction.

스마트 전시환경에서 순차적 인공신경망에 기반한 감정인식 모델 (Emotion Detection Model based on Sequential Neural Networks in Smart Exhibition Environment)

  • 정민규;최일영;김재경
    • 지능정보연구
    • /
    • 제23권1호
    • /
    • pp.109-126
    • /
    • 2017
  • 최근 지능형 서비스를 제공하기 위해 감정을 인식하기 위한 많은 연구가 진행되고 있다. 특히, 전시 분야에서 관중에게 개인화된 서비스를 제공하기 위해 얼굴표정을 이용한 감정인식 연구가 수행되고 있다. 그러나 얼굴표정은 시간에 따라 변함에도 불구하고 기존연구는 특정시점의 얼굴표정 데이터를 이용한 문제점이 있다. 따라서 본 연구에서는 전시물을 관람하는 동안 관중의 얼굴표정의 변화로부터 감정을 인식하기 위한 예측 모델을 제안하였다. 이를 위하여 본 연구에서는 시계열 데이터를 이용하여 감정예측에 적합한 순차적 인공신경망 모델을 구축하였다. 제안된 모델의 유용성을 평가하기 위하여 일반적인 표준인공신경망 모델과 제안된 모델의 성능을 비교하였다. 시험결과 시계열성을 고려한 제안된 모델의 예측이 더 뛰어남으로 보였다.

BCI에서 EEG 기반 효율적인 감정 분류를 위한 LSTM 하이퍼파라미터 최적화 (LSTM Hyperparameter Optimization for an EEG-Based Efficient Emotion Classification in BCI)

  • ;;임창균
    • 한국전자통신학회논문지
    • /
    • 제14권6호
    • /
    • pp.1171-1180
    • /
    • 2019
  • 감정은 인간의 상호 작용에서 중요한 역할을 하는 심리 생리학적 과정이다. 감성 컴퓨팅은 감정을 이해하고 조절할 수 있는 인간 인지 인공 지능의 개발하는데 중점을 둔다. 우울증, 자폐증, 주의력 결핍 과잉 행동 장애 및 게임 중독과 같은 정신 질환이 감정과 관련되어 있기 때문에 이러한 분야의 연구가 중요하다. 감정 인식에 대한 노력에도 불구하고, 비정상적인 EEG 신호로부터의 감정 검출은 여전히 높은 수준의 추상화를 요구하기에 정교한 학습 알고리즘이 필요하다. 이 논문에서는 EEG 기반으로 효율적인 감정 분류를 위해 LSTM을 위한 최적의 하이퍼파라미터를 파악하고자 다양한 실험을 수행하여 이를 분석한 결과를 제시하였다.

비전 방식을 이용한 감정인식 로봇 개발 (Development of an Emotion Recognition Robot using a Vision Method)

  • 신영근;박상성;김정년;서광규;장동식
    • 산업공학
    • /
    • 제19권3호
    • /
    • pp.174-180
    • /
    • 2006
  • This paper deals with the robot system of recognizing human's expression from a detected human's face and then showing human's emotion. A face detection method is as follows. First, change RGB color space to CIElab color space. Second, extract skin candidate territory. Third, detect a face through facial geometrical interrelation by face filter. Then, the position of eyes, a nose and a mouth which are used as the preliminary data of expression, he uses eyebrows, eyes and a mouth. In this paper, the change of eyebrows and are sent to a robot through serial communication. Then the robot operates a motor that is installed and shows human's expression. Experimental results on 10 Persons show 78.15% accuracy.