Emotion Transition Model based Music Classification Scheme for Music Recommendation

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법

  • 한병준 (고려대학교 전자전기공학과) ;
  • 황인준 (고려대학교 전기전자전파공학부)
  • Published : 2009.06.30

Abstract

So far, many researches have been done to retrieve music information using static classification descriptors such as genre and mood. Since static classification descriptors are based on diverse content-based musical features, they are effective in retrieving similar music in terms of such features. However, human emotion or mood transition triggered by music enables more effective and sophisticated query in music retrieval. So far, few works have been done to evaluate the effect of human mood transition by music. Using formal representation of such mood transitions, we can provide personalized service more effectively in the new applications such as music recommendation. In this paper, we first propose our Emotion State Transition Model (ESTM) for describing human mood transition by music and then describe a music classification and recommendation scheme based on the ESTM. In the experiment, diverse content-based features were extracted from music clips, dimensionally reduced by NMF (Non-negative Matrix Factorization, and classified by SVM (Support Vector Machine). In the performance analysis, we achieved average accuracy 67.54% and maximum accuracy 87.78%.

최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

Keywords

References

  1. MIREX 2008, http://www.music-ir.org/mirex/2008/index.php
  2. L. Lu, et al., "Automatic Mood Detection and Tracking of Music Audio Signals," IEEE Transactions on Audio, Speech, and Language Processing, vol.14, no.1, pp.5-18, 2006. https://doi.org/10.1109/TSA.2005.860344
  3. H. Xiang, et al., "An Experimentation on Creating a Mental State Transition Network," Proceedings of IEEE International Conference on Information Acquisition, pp.432-436, 2005.
  4. 한병준, 노승민, 황인준, "음악 무드 분류에서 음향 특성과 차원 감쇄 기법의 효과 연구," 한국컴퓨터 종합학술대회, vol.35, no.1(C), pp.406-411, 2008년.
  5. 박창호 등, "인지공학심리학: 인간-시스템 상호 작용의 이해," 시그마프레스, 2007.
  6. J.A. Russel, "A circumplex model of affect," Journal of Personality Social Psychology, vol.39, pp.1161-1178, 1980. https://doi.org/10.1037/h0077714
  7. R.E. Thayer, "The Biopsychology of Mood and Arousal," Oxford Univ. Press, 1989.
  8. S. Jun, S. Rho, B. Han, E. Hwang, "A Fuzzy Inference-based Music Emotion Recognition System," IEE International Conferences on Visual Information Engineering, 2008.
  9. Meinard Muller, "Information Retrieval for Music and Motion," Springer, 2007.
  10. L. R. Rabiner and B. H. Juang, "Fundamentals of Speech Recognition," Prentice Hall, 1993.
  11. M. Cord, P. Cunningham, "Machine Learning Techniques for Multimedia," Springer, 2008.
  12. A. Klapuri and M. Davy, "Signal Processing Methods for Music Transcription," Springer Science+Business Media LLC, 2006.
  13. D. Ellis and G. Poliner, "Identifying `Cover Songs' with Chroma Features and Dynamic Programming Beat Tracking," Proceedings of IEEE ICASSP 2007, vol.4, pp.1429-1432, 2007.
  14. Krumhansl C (1990) Cognitive Foundations of Musical Pitch. Oxford University Press.
  15. D.D.Lee and S.Seung, "Learning the parts of objects by non-negative matrix factorization," Nature vol.401, no.6755 pp.788-791, 1999. https://doi.org/10.1038/44565
  16. D.D.Lee and S.Seung, "Algorithms for Non-negative Matrix Factorization," Advances in Neural Information Processing System 13: Proc. of the 2000 Conference, pp.556-562. MIT Press, 2001.
  17. E. Allwein, et al., "Reducing Multiclass to Binary: A Unifying Approach for Margin Classifiers," Journal of Machine Learning Research, vol.1, pp.113-141, 2000. https://doi.org/10.1162/15324430152733133
  18. All Music Guide, http://www.allmusic.com/
  19. 뮤직인터페이스 멜론(melon), http://melon.com/
  20. C.-C. Chang and C.-J. Lin, "LIBSVM : a library for support vector machines," Software available at http://www.csie.ntu.edu.tw/~cjlin/libsvm of subordinate document. Access 30 Jun 2008.
  21. B. E. Boser, et al., "A training algorithm for optimal margin classifiers," In proc. of the Fifth Annual Workshop on Computational Learning Theory, pp.144-152, ACM Press, 1992.
  22. C. Cortes and V. Vapnik, "Support-vector network. Machine Learning," vol.20, 1995.
  23. B. Scholkopf, J.C. Platt et al., "Estimating the support of a high-dimensional distribution," Microsoft research corporation technical report MSR-TR-99-87, 1999.
  24. A. Holzapfel and Y. Stylianou, "Musical Genre Classification Using Nonnegative Matrix Factorization-Based Features," IEEE Trans. on ASLP, vol.16, no.2, pp.424-434, 2008.