• 제목/요약/키워드: emotion engineering

검색결과 789건 처리시간 0.025초

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

Emotion Recognition Implementation with Multimodalities of Face, Voice and EEG

  • Udurume, Miracle;Caliwag, Angela;Lim, Wansu;Kim, Gwigon
    • Journal of information and communication convergence engineering
    • /
    • 제20권3호
    • /
    • pp.174-180
    • /
    • 2022
  • Emotion recognition is an essential component of complete interaction between human and machine. The issues related to emotion recognition are a result of the different types of emotions expressed in several forms such as visual, sound, and physiological signal. Recent advancements in the field show that combined modalities, such as visual, voice and electroencephalography signals, lead to better result compared to the use of single modalities separately. Previous studies have explored the use of multiple modalities for accurate predictions of emotion; however the number of studies regarding real-time implementation is limited because of the difficulty in simultaneously implementing multiple modalities of emotion recognition. In this study, we proposed an emotion recognition system for real-time emotion recognition implementation. Our model was built with a multithreading block that enables the implementation of each modality using separate threads for continuous synchronization. First, we separately achieved emotion recognition for each modality before enabling the use of the multithreaded system. To verify the correctness of the results, we compared the performance accuracy of unimodal and multimodal emotion recognitions in real-time. The experimental results showed real-time user emotion recognition of the proposed model. In addition, the effectiveness of the multimodalities for emotion recognition was observed. Our multimodal model was able to obtain an accuracy of 80.1% as compared to the unimodality, which obtained accuracies of 70.9, 54.3, and 63.1%.

Use of Word Clustering to Improve Emotion Recognition from Short Text

  • Yuan, Shuai;Huang, Huan;Wu, Linjing
    • Journal of Computing Science and Engineering
    • /
    • 제10권4호
    • /
    • pp.103-110
    • /
    • 2016
  • Emotion recognition is an important component of affective computing, and is significant in the implementation of natural and friendly human-computer interaction. An effective approach to recognizing emotion from text is based on a machine learning technique, which deals with emotion recognition as a classification problem. However, in emotion recognition, the texts involved are usually very short, leaving a very large, sparse feature space, which decreases the performance of emotion classification. This paper proposes to resolve the problem of feature sparseness, and largely improve the emotion recognition performance from short texts by doing the following: representing short texts with word cluster features, offering a novel word clustering algorithm, and using a new feature weighting scheme. Emotion classification experiments were performed with different features and weighting schemes on a publicly available dataset. The experimental results suggest that the word cluster features and the proposed weighting scheme can partly resolve problems with feature sparseness and emotion recognition performance.

자동 감성 인식을 위한 비교사-교사 분류기의 복합 설계 (Design of Hybrid Unsupervised-Supervised Classifier for Automatic Emotion Recognition)

  • 이지은;유선국
    • 전기학회논문지
    • /
    • 제63권9호
    • /
    • pp.1294-1299
    • /
    • 2014
  • The emotion is deeply affected by human behavior and cognitive process, so it is important to do research about the emotion. However, the emotion is ambiguous to clarify because of different ways of life pattern depending on each individual characteristics. To solve this problem, we use not only physiological signal for objective analysis but also hybrid unsupervised-supervised learning classifier for automatic emotion detection. The hybrid emotion classifier is composed of K-means, genetic algorithm and support vector machine. We acquire four different kinds of physiological signal including electroencephalography(EEG), electrocardiography(ECG), galvanic skin response(GSR) and skin temperature(SKT) as well as we use 15 features extracted to be used for hybrid emotion classifier. As a result, hybrid emotion classifier(80.6%) shows better performance than SVM(31.3%).

다중 생체신호를 이용한 신경망 기반 전산화 감정해석 (Neural-network based Computerized Emotion Analysis using Multiple Biological Signals)

  • 이지은;김병남;유선국
    • 감성과학
    • /
    • 제20권2호
    • /
    • pp.161-170
    • /
    • 2017
  • 감정은 학습능력, 행동, 판단력 등 삶의 많은 부분에 영향을 끼치므로 인간의 본질을 이해하는 데 중요한 역할을 한다. 그러나 감정은 개인이 느끼는 강도가 다르며, 시각 영상 자극을 통해 감정을 유도하는 경우 감정이 지속적으로 유지되지 않는다. 이러한 문제점을 극복하기 위하여 총 4가지 감정자극(행복, 슬픔, 공포, 보통) 시 생체신호(뇌전도, 맥파, 피부전도도, 피부 온도)를 획득하고, 이로부터 특징을 추출하여 분류기의 입력으로 사용하였다. 감정 패턴을 확률적으로 해석하여 다른 공간으로 매핑시켜주는 역할을 하는 Restricted Boltzmann Machine (RBM)과 Multilayer Neural Network (MNN)의 은닉층 노드를 이용하여 비선형적인 성질의 감정을 구별하는 Deep Belief Network (DBN) 감정 패턴 분류기를 설계하였다. 그 결과, DBN의 정확도(약 94%)는 오류 역전파 알고리즘의 정확도(약 40%)보다 높은 정확도를 가지며 감정 패턴 분류기로서 우수성을 가짐을 확인하였다. 이는 향후 인지과학 및 HCI 분야 등에서 활용 가능할 것으로 사료된다.

공과대학생의 정서조절전략이 대인관계 갈등대처전략에 미치는 영향 (The Influence of Engineering Students' Emotional Regulation Strategies on Interpersonal Conflict Coping Strategies)

  • 최정아
    • 공학교육연구
    • /
    • 제27권1호
    • /
    • pp.50-62
    • /
    • 2024
  • This study examined how emotion regulation strategies specifically function in the interpersonal conflict coping strategies of engineering students. For this purpose, a interpersonal conflict coping strategies and emotion regulation strategies scale was used for 548 engineering students. Multiple regression analysis was conducted. Among the emotion regulation strategies, the "return to body" strategy was related to understanding, validation, focusing, and the "stop action" strategy. In particular, the "stop action" strategy was closely related only to the "return to body" strategy. Among interpersonal conflict coping strategies, the dominating strategy used both positive emotion regulation strategies, such as high refocus on planning, and negative emotion regulation strategies, such as other-blame. Additionally, among negative conflict coping strategies, it was confirmed that both aggression and negative emotional expression, which seem to have similar attributes, share a common feature of having high difficulty in emotional clarity. However, in the case of negative emotional expression, it is characterized by a lack of putting into perspective and high other-blame. On the other hand, the agression strategy seemed to have different characteristics, such as high self-blame and low return to body. By investigating the relationship between interpersonal conflict coping strategies and specific emotion regulation strategies, this study provides implications for education and intervention on which specific emotion regulation strategies need to be cultivated for engineering students to improve their interpersonal conflict resolution capabilities.

사용자의 위치정보와 감성정보를 이용한 RESTful방식의 감성공유 시스템 (Emotion sharing system of RESTful-based using emotion information and location information of the users)

  • 정준호;김동근
    • 한국정보통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.162-168
    • /
    • 2014
  • 본 연구에서는 사용자의 감성정보와 감성을 공유한 장소에 대한 위치정보를 이용하여 사용자의 위치에 따른 감성변화를 사용자간에 공유 할 수 있는 감성공유 시스템을 제안한다. 시스템은 감성 모바일 스마트폰 앱과 감성공유서버로 구성된다. 감성 스마트폰 앱은 공유하고자 하는 원격지의 사용자의 위치와 감성상태를 Google Map API를 이용한 지도서비스를 통해 표현한다. 감성공유서버는 모바일 외에 다양한 플렛폼간의 감성공유가 가능하도록 RESTful방식을 이용하여 구현 되었다. 감성공유서버에서 교환되는 감성정보는 XML형식으로 저장된다. 제안하는 감성공유 시스템을 이용하여 이동하는 사용자의 위치에 따른 감성변화가 지도서비스를 통해 공유 가능함을 확인 하였다.

색채 감성에 대한 심혈관 변수 관계성에 대한 연구 (A Study on the Relationship between Color and Cardiovascular Parameters)

  • 조아영;우진철;이현우;조영호;황민철
    • 감성과학
    • /
    • 제20권4호
    • /
    • pp.127-134
    • /
    • 2017
  • 시각 정보 중 색채는 인간의 감성을 일으키는 중요한 요소이다. 그러므로 감성을 유발하거나 예측하기 위해서 색의 효과를 확인하는 것은 중요하다. 본 연구는 색채에 따른 감성의 차이를 확인하고자 색채 자극에 따른 심혈관 반응을 측정하였다. 색채 자극은 Red, Green, Blue, Cyan, Mangenta, Yellow의 6가지 색상으로 구성된 이미지들을 사용하였다. 실험에 참여한 대학생 26명(남자 13명)은 Electrocardiogram (ECG) 센서를 착용하고 모니터에 제시된 각 자극을 본 후 주관감성을 평가하였다. 색채 자극에 따른 심혈관 반응 데이터는 Kruskal-wallis 검정과 Mann-Whitney 검정을 수행하여 분석하였다. 그 결과 Coherence ratio가 Green과 Magenta (p=.004), Red (p=.006), Yellow (p=.004) 색상에서 유의한 차이가 있었다. 본 연구는 색상에 따른 유효한 심혈관 반응 변수와 감성의 차이를 확인하였으며 이러한 차이는 쾌-불쾌의 감성과 관련이 있었다. 본 연구는 녹색이 쾌의 감성을 유발하고 적색이 불쾌의 감성을 유발할 수 있음을 보인 실증적인 연구로써 의의가 있다.

Emotion Recognition Method Based on Multimodal Sensor Fusion Algorithm

  • Moon, Byung-Hyun;Sim, Kwee-Bo
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제8권2호
    • /
    • pp.105-110
    • /
    • 2008
  • Human being recognizes emotion fusing information of the other speech signal, expression, gesture and bio-signal. Computer needs technologies that being recognized as human do using combined information. In this paper, we recognized five emotions (normal, happiness, anger, surprise, sadness) through speech signal and facial image, and we propose to method that fusing into emotion for emotion recognition result is applying to multimodal method. Speech signal and facial image does emotion recognition using Principal Component Analysis (PCA) method. And multimodal is fusing into emotion result applying fuzzy membership function. With our experiments, our average emotion recognition rate was 63% by using speech signals, and was 53.4% by using facial images. That is, we know that speech signal offers a better emotion recognition rate than the facial image. We proposed decision fusion method using S-type membership function to heighten the emotion recognition rate. Result of emotion recognition through proposed method, average recognized rate is 70.4%. We could know that decision fusion method offers a better emotion recognition rate than the facial image or speech signal.

캐릭터 성격에 따른 동일 감정 표현의 다양화를 위한 감정 조정 방안 (Emotion Adjustment Method for Diverse Expressions of Same Emotion Depending on Each Character's Characteristics)

  • 이창숙;엄기현;조경은
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.37-47
    • /
    • 2010
  • 감정은 언어 이외에 인간이 자신의 의사를 전달할 수 있는 효과적인 수단이다. 언어와 더불어 감정을 표현함으로서 상대방에게 자신의 의사를 보다 잘 전달할 수 있다. 또한 동일한 감정의 각기 다른 표현은 개인의 성향을 가늠하는 척도로 이용되기도 한다. 따라서 가상 캐릭터의 감정 표현이 일률적이지 않으려면 성격 특성에 따라 동일 감정의 생성 및 소멸 폭을 조정해 주어야 한다. 본 논문에서는 각 감정에 영향을 주는 성격 특성을 정의하고, 이를 통해 감정을 증감 및 조정하는 방안을 제시한다. 본 논문에서는 세분화된 성격 특성이 의미하는 바와 감정을 나타내는 명사의 사전적 의미를 매치시켜 특정 감정이 어떤 성격 특성과 관계가 있는지를 정의하였다. 또한 성격 검사에서 얻어진 원점수를 활용하여, 각 감정의 증감 및 지속, 소멸을 위한 가중치를 정의한 후, 이를 토대로 감정을 조정하였다. 실제 사람의 성격 검사 데이터를 활용하여 동일한 감정을 조정한 결과, 성격 별로 다른 결과치가 나오는 것을 확인할 수 있었다. 본 연구는 5개의 차원과 30개의 하위 특성으로 이루어진 NEO-PI(NEO Personality Inventory)성인판을 이용하여 연구를 진행하였다.