• 제목/요약/키워드: Music Emotion

검색결과 213건 처리시간 0.021초

Listeners' Perception of Intended Emotions in Music

  • Chong, Hyun Ju;Jeong, Eunju;Kim, Soo Ji
    • International Journal of Contents
    • /
    • 제9권4호
    • /
    • pp.78-85
    • /
    • 2013
  • Music functions as a catalyst for various emotional experiences. Among the numerous genres of music, film music has been reported to induce strong emotional responses. However, the effectiveness of film music in evoking different types of emotions and its relationship in terms of which musical elements contribute to listeners' perception of intended emotion have been rarely investigated. The purpose of this study was to examine the congruence between the intended emotion and the perceived emotion of listeners in film music listening and to identify musical characteristics of film music that correspond with specific types of emotion. Additionally, the study aimed to investigate possible relationships between participants' identification responses and personal musical experience. A total of 147 college students listened to twelve 15-second music excerpts and identified the perceived emotion during music listening. The results showed a high degree of congruence between the intended emotion in film music and the participants' perceived emotion. Existence of tonality and modality were found to play an important role in listeners' perception of intended emotion. The findings suggest that identification of perceived emotion in film music excerpts was congruent regardless of individual differences. Specific music components that led to high congruence are further discussed.

음악 감성의 사용자 조절에 따른 음악의 특성 변형에 관한 연구 (A Study on the Variation of Music Characteristics based on User Controlled Music Emotion)

  • 응웬반로이;허빈;김동림;임영환
    • 한국콘텐츠학회논문지
    • /
    • 제17권3호
    • /
    • pp.421-430
    • /
    • 2017
  • 본 논문은 기존에 연구되었던 음악 감성 모델을 이용하여 음악의 감성을 판단하고 해당 감성 데이터를 사용자가 원하는 감도의 감성으로 변화 시켰을 때 그에 맞는 감성이 표현될 수 있도록 음악의 특성을 변화시키는 것에 대한 논문이다. 기존의 음악 감성 유형만을 판단하는 1차원적 음악 감성 모델을 이용하여 음악의 템포, 역동성, 진폭변화, 밝기, 잡음 등 5가지 요소의 가중치를 계산하여 실제적인 음악의 감성 데이터(X,Y)를 추출하였으며, 예측된 음악의 감성을 다른 감성 값(X',Y')으로 변형시킴으로써 대응되는 5가지 변형 요소의 데이터 계산이 가능하도록 하였다. 이는 밝은 분위기의 음악을 데이터 변형만으로 우울한 분위기의 음악으로 조절이 가능하다는 점에서 향후 음악 감성 변화에 대한 기초모델을 제시하였다.

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

Ranking Tag Pairs for Music Recommendation Using Acoustic Similarity

  • Lee, Jaesung;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제15권3호
    • /
    • pp.159-165
    • /
    • 2015
  • The need for the recognition of music emotion has become apparent in many music information retrieval applications. In addition to the large pool of techniques that have already been developed in machine learning and data mining, various emerging applications have led to a wealth of newly proposed techniques. In the music information retrieval community, many studies and applications have concentrated on tag-based music recommendation. The limitation of music emotion tags is the ambiguity caused by a single music tag covering too many subcategories. To overcome this, multiple tags can be used simultaneously to specify music clips more precisely. In this paper, we propose a novel technique to rank the proper tag combinations based on the acoustic similarity of music clips.

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

시각장애인의 정서 기반 음악-색채 연합에 대한 융복합적 연구 (A Convergence Study on Music-color Association Responses of People with Visual Impairment Mediated by Emotion)

  • 박혜영
    • 한국융합학회논문지
    • /
    • 제10권5호
    • /
    • pp.313-321
    • /
    • 2019
  • 본 연구의 목적은 음악-정서 척도와 음악-색 척도를 사용하여 시각장애인의 음악-색 연합 반응을 살펴보는 것이다. 참여자는 S시와 B시에 소재한 장애인복지관의 서비스를 이용하고 있는 시각장애인 60명(선천성 30명, 후천성 30명)이다. 이를 위해 음악으로 유도될 수 있는 기본 정서 유형 4가지, 행복, 슬픔, 분노, 두려움을 선정하고, 해당 정서를 유도하는 음악에 대한 음악-색 연합 반응을 자기보고식 척도를 사용하여 분석하였다. 그 결과 첫째, 정서 유형에 따른 음악-색 연합 반응에서 행복과 슬픔은 분명한 대조를 보인 반면, 분노와 두려움은 유사한 것으로 확인되었다. 둘째, 음악 정서 변인(정서가, 정서각성, 정서강도)에 따른 음악-색 연합 반응에서 정서가는 정서 유형별 반응과 일치하였고, 정서각성은 부정적인 정서가 높았으며, 정서강도는 행복/슬픔이 분노/두려움에 비해 높았다. 셋째, 장애발생 시기별(선천성, 후천성) 음악-색 연합에는 유의한 차이가 없었다. 이에 본 연구는 시각장애인의 음악-색 연합 반응을 살펴봄으로써, 음악-색 연합 반응이 정서를 매개로 연결 될 수 있음을 밝혔다는 점에서 의의가 있다.

Attention-based CNN-BiGRU for Bengali Music Emotion Classification

  • Subhasish Ghosh;Omar Faruk Riad
    • International Journal of Computer Science & Network Security
    • /
    • 제23권9호
    • /
    • pp.47-54
    • /
    • 2023
  • For Bengali music emotion classification, deep learning models, particularly CNN and RNN are frequently used. But previous researches had the flaws of low accuracy and overfitting problem. In this research, attention-based Conv1D and BiGRU model is designed for music emotion classification and comparative experimentation shows that the proposed model is classifying emotions more accurate. We have proposed a Conv1D and Bi-GRU with the attention-based model for emotion classification of our Bengali music dataset. The model integrates attention-based. Wav preprocessing makes use of MFCCs. To reduce the dimensionality of the feature space, contextual features were extracted from two Conv1D layers. In order to solve the overfitting problems, dropouts are utilized. Two bidirectional GRUs networks are used to update previous and future emotion representation of the output from the Conv1D layers. Two BiGRU layers are conntected to an attention mechanism to give various MFCC feature vectors more attention. Moreover, the attention mechanism has increased the accuracy of the proposed classification model. The vector is finally classified into four emotion classes: Angry, Happy, Relax, Sad; using a dense, fully connected layer with softmax activation. The proposed Conv1D+BiGRU+Attention model is efficient at classifying emotions in the Bengali music dataset than baseline methods. For our Bengali music dataset, the performance of our proposed model is 95%.

Music Similarity Search Based on Music Emotion Classification

  • Kim, Hyoung-Gook;Kim, Jang-Heon
    • The Journal of the Acoustical Society of Korea
    • /
    • 제26권3E호
    • /
    • pp.69-73
    • /
    • 2007
  • This paper presents an efficient algorithm to retrieve similar music files from a large archive of digital music database. Users are able to navigate and discover new music files which sound similar to a given query music file by searching for the archive. Since most of the methods for finding similar music files from a large database requires on computing the distance between a given query music file and every music file in the database, they are very time-consuming procedures. By measuring the acoustic distance between the pre-classified music files with the same type of emotion, the proposed method significantly speeds up the search process and increases the precision in comparison with the brute-force method.

소셜네트워크 기반 음악 추천시스템 (Social Network Based Music Recommendation System)

  • 박태수;정옥란
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.133-141
    • /
    • 2015
  • 소셜 네트워크를 비롯해 다양한 소셜 미디어 서비스들에서 대량의 멀티미디어 콘텐츠들이 공유되고 있다. 소셜 네트워크에는 사용자의 현재 상황과 관심사가 드러나기 때문에 이러한 특징들을 추천시스템에 적용한다면 만족도가 높은 개인화된 추천이 가능할 것이다. 또한 음악을 감정에 따라 분류하고 사용자의 소셜 네트워크를 분석해 사용자가 최근 느끼고 있는 감정이나 현재 상황에 대해 분석한 정보를 이용한다면 사용자의 음악을 추천할 때에 유용할 것이다. 본 논문에서는 음악을 분류하기 위한 감정 모델을 만들고, 감정모델에 따라 음악을 분류하여 소셜 네트워크에 나타나는 사용자의 현재 감정 상태를 추출하여 음악추천을 하는 방법을 제안하고 실험을 통해 제안한 방법의 유효성을 검증한다.