DOI QR코드

DOI QR Code

Sound Signal Analysis Using the Time-Frequency Representations

시주파수 표현법을 이용한 소리신호의 분석

  • Received : 2019.09.05
  • Accepted : 2019.09.25
  • Published : 2019.09.30

Abstract

Time-frequency representations are methods to display the magnitude or energy density of a signal on the two dimensional plane of both time and frequency. They are useful in analyzing the characteristics of time-varying signals. Music is a typical time-varying signal, and it can be analyzed by time-frequency representations. Recently, it is popular to change the sound quality by attaching a safety sounder to an instrument. It is performed to improve perception subjectively by spending little cost and modifying sound quality. In time domain, it is difficult to notify the difference between music signals with and without the sounder. But, it is easy to find the difference in frequency domain or in time-frequency domain. In this paper, the music signal from a flute with sounder is analyzed both in the frequency domain and in the time-frequency domain. It is confirmed that the frequency components in the mid-frequency range of 500~2500 are reinforced.

시주파수 표현법은 시간과 주파수의 2차원 평면에 대하여 신호의 크기 혹은 에너지 밀도의 분포를 표현하는 방법이다. 이러한 기술은 시변 신호(Time-varying signal)의 특성 분석에 유용하다. 연주음은 대표적인 시변신호이며 특성 분석을 위하여 시주파수 표현법을 사용할 수 있다. 최근 악기에 사운더를 부착하여 음질을 변화시키는 작업이 주목 받고 있다. 비교적 저렴한 비용을 지불하고 음질을 변화시켜 주관적인 평가를 개선하려는 시도로 시행되고 있다. 이러한 연주신호는 시간영역에서는 사운더가 없는 악기 원형으로 연주한 경우와 차이점을 찾기가 어렵지만 주파수 영역, 그리고 시간-주파수 영역에서 분석하면 차이점을 쉽게 볼 수 있다. 본 논문에서는 사운더를 부착한 악기의 연주신호를 주파수 영역에서 분석하여 사운더의 효과를 확인하고 더 나아가 시주파수 표현법을 활용하여 사운더의 영향을 분석한다. 악기에 따라 사운더의 효과는 다르지만 대체로 인간의 주관적인 평가에 영향을 주는 중간주파수대에서 강화된 효과를 확인할 수 있다.

Keywords

References

  1. Y. Li and D. Wang, "Musical Sound Separation Using Pitch-based Labelling and Binary Time-Frequency Masking," pp.173-176, Proc. of ICASSP, 2008.
  2. Y. Li, J. woodruff, and D. Wang, "Monaural Musical Sound Sepration Based on Pitch and Common Amplitude Modulation," IEEE Trans. On Audio, Speech, and Language Processing, Vol.17, No.7, pp.1361-1371, 2009. DOI: 10.1109/TASL.2009.2020886
  3. Y. Uchida and S. Wada, "Melody and Bass Line Estimation Method using Audio Feature Database," Proc. of 2011 IEEE Int. Conf. on Sig. Proc., Comm. and Comp. (ICSPCC), 2011. DOI: 10.1109/ICSPCC.2011.6061662
  4. G. Yu and J. Slotine, "Audio Classification from Time-Frequency Texture," Proc. of ICASSP, pp.1677-1680, 2009. DOI: 10.1109/ICASSP.2009.4959924
  5. F. Yu and Y. Chen, "Musical Instrument Classification based on Improved Matching Pursuit with Instrument Specific Atoms," Proc. of the 4th Int. Congresson Advanced Applied Informatics, pp.506-510, 2015. DOI: 10.1109/IIAI-AAI.2015.208
  6. D. Giannoulis, D. Barchiesi, A. Klapuri and M. Plumbley, "On the Disjointness of Sources in Music Using Different Time-Frequency Representations," Proc. Of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, pp. 261-264, 2011. DOI: 10.1109/ASPAA.2011.6082321
  7. P. Guillemain and R. Kronland-Martinet, "Characterization of Acoustic Signals through Continuous Linear Time-Frequency Representations," Proc. of the IEEE, Vol.84, No.4, pp.561-585, 1996. DOI: 10.1109/5.488700
  8. L. F. Chaparro, Signals and Systems Using Matlab, Academic Press, 2015.
  9. F. Hlawatsch and G. F. Boudreaux-Bartels, "Linear and Quadratic Time-Frequency Representations," IEEE Signal Proc. Mag. Vol.9, No.2, pp.21-67, 1992. DOI: 10.1109/79.127284
  10. R. D. Ford, Introduction to Acoustics, Elsevier, 1970.

Cited by

  1. 변곡점 검출을 이용한 AM-FM 신호의 순간주파수 추정 vol.24, pp.4, 2020, https://doi.org/10.7471/ikeee.2020.24.4.1081