• Title/Summary/Keyword: 감정 학습

Search Result 397, Processing Time 0.026 seconds

Emotion Recognition Based on Facial Expression by using Context-Sensitive Bayesian Classifier (상황에 민감한 베이지안 분류기를 이용한 얼굴 표정 기반의 감정 인식)

  • Kim, Jin-Ok
    • The KIPS Transactions:PartB
    • /
    • v.13B no.7 s.110
    • /
    • pp.653-662
    • /
    • 2006
  • In ubiquitous computing that is to build computing environments to provide proper services according to user's context, human being's emotion recognition based on facial expression is used as essential means of HCI in order to make man-machine interaction more efficient and to do user's context-awareness. This paper addresses a problem of rigidly basic emotion recognition in context-sensitive facial expressions through a new Bayesian classifier. The task for emotion recognition of facial expressions consists of two steps, where the extraction step of facial feature is based on a color-histogram method and the classification step employs a new Bayesian teaming algorithm in performing efficient training and test. New context-sensitive Bayesian learning algorithm of EADF(Extended Assumed-Density Filtering) is proposed to recognize more exact emotions as it utilizes different classifier complexities for different contexts. Experimental results show an expression classification accuracy of over 91% on the test database and achieve the error rate of 10.6% by modeling facial expression as hidden context.

Emotion Classification in Song Lyrics using the Emotion Ontology (감정 온톨로지를 활용한 노래 가사의 감정 분류)

  • Kim, Min-Ho;Kwon, Hyuk-Chul
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.340-343
    • /
    • 2011
  • 음악 감정 분류에 관한 기존의 연구들은 템포, 박자, 음정, 음표, 리듬 등과 같은 음악의 멜로디와 관련된 자질을 이용하여 음악 감정을 분류하였다. 그러나 노래(Song)와 같이 가사를 포함한 음악은 같은 스타일의 멜로디라도 가사의 내용에 따라 음악에 대하여 청자가 느끼는 감정이 크게 다르다. 본 논문에서는 감정 온톨로지를 활용하여 노래 가사를 감정에 따라 분류하는 방법에 대하여 제안한다. 기구축 된 감정 온톨로지를 바탕으로 네 가지 통사적 규칙을 적용하여 노래 가사로부터 감정 자질을 추출한다. 추출된 감정 자질을 이용하여 Naive Bayes, HMM, SVM과 같은 기계학습 기법을 이용하여 8개 감정 그룹에 대해 58.8%의 정확도를 보였다.

Parting Lyrics Emotion Classification using Word2Vec and LSTM (Word2Vec과 LSTM을 활용한 이별 가사 감정 분류)

  • Lim, Myung Jin;Park, Won Ho;Shin, Ju Hyun
    • Smart Media Journal
    • /
    • v.9 no.3
    • /
    • pp.90-97
    • /
    • 2020
  • With the development of the Internet and smartphones, digital sound sources are easily accessible, and accordingly, interest in music search and recommendation is increasing. As a method of recommending music, research using melodies such as pitch, tempo, and beat to classify genres or emotions is being conducted. However, since lyrics are becoming one of the means of expressing human emotions in music, the role of the lyrics is increasing, so a study of emotion classification based on lyrics is needed. Therefore, in this thesis, we analyze the emotions of the farewell lyrics in order to subdivide the farewell emotions based on the lyrics. After constructing an emotion dictionary by vectoriziong the similarity between words appearing in the parting lyrics through Word2Vec learning, we propose a method of classifying parting lyrics emotions using Word2Vec and LSTM, which classify lyrics by similar emotions by learning lyrics using LSTM.

Design and Implementation of Dynamic Emotion System for Affective Robots with personality (감성로봇의 성격을 고려한 동적인 감성시스템의 설계와 구현)

  • Lee, Yong-Woo;Kim, Jong-Bok;Suh, Il-Hong;Lee, Sang-Hoon
    • Proceedings of the KIEE Conference
    • /
    • 2006.10c
    • /
    • pp.276-278
    • /
    • 2006
  • 인간의 감성은 의사결정과 의사소통에 있어서 중요한 역할을 한다. 감성의 생성과 표현은 성격에 의해 영향을 받는다. 이와 같은 감성과 성격을 반영한 로봇은 보다 자연스러운 표현과 효율적인 의사소통을 할 수 있다. 본 논문은 상태방정식과 출력 방정식으로 구성된 성격을 고려한 감성 시스템을 제안한다. 상태방정식은 외부자극으로부터 감정을 생성하고, 출력방정식은 성격과 환경을 반영하여 감정의 표현 강도를 결정한다. 감성시스템에서 성격은 입력된 자극을 통한 성격 5요인이론에 언급된 5요인의 값을 변화시킴으로써 학습된다. 또한 고전적 학습방법으로 자극을 학습하여 감정의 형성에 영향을 주는 자극의 수를 증가시킨다.

  • PDF

An Empirical Comparison of Machine Learning Models for Classifying Emotions in Korean Twitter (한국어 트위터의 감정 분류를 위한 기계학습의 실증적 비교)

  • Lim, Joa-Sang;Kim, Jin-Man
    • Journal of Korea Multimedia Society
    • /
    • v.17 no.2
    • /
    • pp.232-239
    • /
    • 2014
  • As online texts have been rapidly growing, their automatic classification gains more interest with machine learning methods. Nevertheless, comparatively few research could be found, aiming for Korean texts. Evaluating them with statistical methods are also rare. This study took a sample of tweets and used machine learning methods to classify emotions with features of morphemes and n-grams. As a result, about 76% of emotions contained in tweets was correctly classified. Of the two methods compared in this study, Support Vector Machines were found more accurate than Na$\ddot{i}$ve Bayes. The linear model of SVM was not inferior to the non-linear one. Morphological features did not contribute to accuracy more than did the n-grams.

The effects of affective feedbacks according to the learner's emotions in e-Iearning (이러닝 학습자의 감정 상태에 따른 감성 피드백의 효과)

  • Lee, Seung-Mi;Song, Ki-Sang
    • The Journal of Korean Association of Computer Education
    • /
    • v.10 no.4
    • /
    • pp.125-133
    • /
    • 2007
  • Many researches have tried to introduce affective computing for Human-Computer Interaction (HCI). In the affective aspect, emotional memories significantly affect on people's cognitive processing activities. In this paper, to observe the effect of affective feedback for emotional state of learners in an e-learning environment, selected emotional feedback messages and delivery method are integrated into an e-learning system. Self reporting button for recognizing learner's emotional state are used for detecting learner's emotional states and the test results show that providing affective feedback to learner has positive effects in e-learning environment in terms of learner's academic achievements.

  • PDF

Understanding characteristics of Korean dance performance by image analysis (영상 분석을 통한 우리 춤동작의 특성 이해)

  • Uhm, Tae-Young;Park, Han-Hoon;Park, Jong-Il;Kim, Un-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.547-554
    • /
    • 2006
  • 우리 춤은 우리 고유의 정서를 담고 있는 종합예술이므로 우리 춤을 분석하고 이해하는 것은 큰 의미가 있다. 본 논문에서는 기존의 춤 동작의 정량적인 분석을 통한 감정인식 기술을 이용하여 우리 춤에 내포된 감정 패턴의 변화를 살펴본다. 먼저 한국 전통춤으로부터 무용전문가들의 정성적 분석에 기반하여 추출된 우리 춤사위를 정해진 각 감정별로 재구성하여 창작하고 창작된 우리 춤을 무용전문가가 시연한다. 이를 카메라를 이용하여 획득하고, 영상처리를 통해서 시연자의 실루엣을 뽑아낸 후, 정량적 특징량들을 추출한다. 이어 신경회로망을 이용하여 각 감정별 춤사위를 학습 시킨 후, 임의의 춤사위에 내포된 감정을 인식 한다. 본 논문에서는 정면, 좌, 우 세 시점에서 획득된 다시점 영상을 이용하여 학습시킴으로써 보다 안정적으로 동작하는 인식 시스템을 제안한다. 그리고, 시스템에 의해 인식된 감정 패턴과 변화의 정성적 의미를 이해하기 위해 무용전문가들에 의해 정립된 정성적 분석 결과와 비교, 분석한다. 이는 정성적인 분석에만 국한되던 우리 춤의 특성에 대한 이해를 객관적이고 정량화된 분석을 통한 이해의 차원으로 확장시키는 것으로, 우리 춤의 특성을 새롭게 정의하는 계기를 마련할 수 있다. 다양한 장르의 한국 전통춤 가운데 우리 춤을 대표할 수 있는 춤사위를 선정하고, 정성적/정량적으로 분석함으로써 우리 춤의 특성을 이해하기 위한 체계적인 틀을 제공하고자 한다.

  • PDF

Emotion Robust Speech Recognition using Speech Transformation (음성 변환을 사용한 감정 변화에 강인한 음성 인식)

  • Kim, Weon-Goo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.5
    • /
    • pp.683-687
    • /
    • 2010
  • This paper studied some methods which use frequency warping method that is the one of the speech transformation method to develope the robust speech recognition system for the emotional variation. For this purpose, the effect of emotional variations on the speech signal were studied using speech database containing various emotions and it is observed that speech spectrum is affected by the emotional variation and this effect is one of the reasons that makes the performance of the speech recognition system worse. In this paper, new training method that uses frequency warping in training process is presented to reduce the effect of emotional variation and the speech recognition system based on vocal tract length normalization method is developed to be compared with proposed system. Experimental results from the isolated word recognition using HMM showed that new training method reduced the error rate of the conventional recognition system using speech signal containing various emotions.

GAN-based Dance Performance Visual Background Generation Method using Emotion Analysis on Lyrics (가사의 감정 분석을 이용한 GAN 기반 댄스 공연 배경 생성 방법)

  • Yoon, Hyewon;Kwak, Jeonghoon;Sung, Yunsick
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.530-531
    • /
    • 2020
  • 최근 인공지능을 활용하여 예술 작품에 몰입할 수 있도록 무대 효과를 디자인하는 연구가 진행되고 있다. 무대 효과 중에서 무대 배경은 공연의 분위기를 형성한다. 춤의 장르별로 무대 배경에 사용되는 이미지를 생성하기 위해 소셜 미디어 기반 무대 배경 생성 시스템이 있다. 하지만 같은 장르 춤은 동일한 무대 배경 이미지가 제공되는 문제가 있다. 같은 장르의 춤이지만 노래의 분위기를 반영하여 차별된 무대 배경 이미지를 제공하는 것이 필요하다. 본 논문은 노래 가사의 감정을 활용하여 Generative Adversarial Network(GAN)을 통해 각 노래의 분위기를 고려한 무대 배경 이미지를 생성하는 방법을 제안한다. GAN은 노래에 포함된 단락별 감정 단어를 추출하여 스타일을 생성하도록 학습된다. 학습된 GAN은 노래 가사에 포함된 감정 단어를 활용하여 곡의 분위기를 반영한 무대 배경 이미지를 생성한다. 노래 가사를 고려하여 무대 배경 이미지를 생성함으로써 곡의 분위기가 고려된 무대 배경 이미지 생성이 가능하다.

Emotion Classification from Text based on Natural Language Processing (자연어 처리 기반 텍스트 감정 분류 모델)

  • Minju Kim;Hyojeong Jin;Junghoon Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.690-691
    • /
    • 2024
  • 본 논문에서는 특정 서비스군의 소비자 니즈를 신속히 파악하기 위하여 일기와 같은 자연언어 텍스트를 활용한 분류 모델을 개발한다. 목적에 맞는 감정상태군을 정의하여 필수적인 감정들로 통합한 후 주어진 데이터셋에서 해당 감정 컬럼을 추출하여 텍스트 형식을 통일한다. 파이썬의 Keras 라이브러리를 사용하여 임베딩 레이어, LSTM 레이어, 밀집 레이어 등으로 학습 네트워크를 구성한 후 추출된 텍스트로 학습한 결과는 15회의 이포크 수행으로 98%의 정확도에 도달한다.