Acknowledgement
본 성과는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수앻된 연구(No. 2023R1A2C1006419)이며, 2023학년도 조선대학교 학술연구비의 지원을 받아 연구되었음.
References
- 오병훈, 홍광석, "이미지, 음성, 뇌파를 이용한 다차원 감성모델 기반 다중모달 복합감정인식 시스템," 한국정보처리학회 춘계학술발표대회 논문집, pp. 821-823, 동국대학교, 대한민국, 2016년 4월
- 홍택은, 김정인, 신주현, "인스타그램 이미지와 텍스트 분석을 통한 사용자 감정 분류," 스마트미디어저널, 제5권, 제1호, 61-燃쪽, 2016년 3월
- 임현택, 김수형, 이귀상, 양형정, "RoutingConvNet: 양방향 MFC C기반 경량 음성감정인식 모델, "스마트미디어저널, 제12권, 제5호, 28-35쪽, 2023년 12월
- N.Dave, "Feature Extraction Methods LPC PLP and MFCC in Speech Recognition," International Journal for Advance Research in Engineering and Technology, Vol. 1, pp. 1-5, Jul. 2013.
- Steven B.Davis, Paul Mermelstein, "Comparsion of parametric representations for monosyllabic word recognition in continuously spoken sentences," IEEE Transactions on Acoustics, Speech, and Signal Processing, Vol. 81, No. 9, pp.1215-1247, 1993.
- Likitha, M. S., et al., "Speech based human emotion recognition using MFCC," 2017 International Con-ference on Wireless Communications, Signal Proce-ssing and Networking (WiSPNET). IEEE, pp. 2257-2260, 2017.
- 박정준, "자기지도학습 기법을 통해 추출된 저대역 음성 특징벡터 기반 종단간 한국어 음성인식", 연세대학교 공학대학원 석사학위논문, 2022년 8월
- J. Seunghoon, "wav2vec 2.0-based Mispronunciation Detection Using Cross-lingual Fine-tuning," Domestic Master's Thesis Seoul National University Graduate School, 2022.
- S. Schneider, A. Baevski, R. Collobert, and M. Auli, "wav2vec: Unsupervised Pre-Training for Speech Recogni-tion," inProc. Interspeech 2019, pp. 3465-3469, 2019.
- A. Baevski, S. Schneider, and M. Auli, "Vq-Wav2vec: Self-supervisedlearning of discrete speech representations," inProc. Int. Corf. Learn.Represent., Sep. pp. 1 -12, 2019.
- A. Baevski, H. Zhou, A. Mohamed, and M. Auli, "Wav2vec 2.0: A frame-work for self-supervised learning of speech representations," Advances in neural information processing systems, pp. 12449-12460, 2020.
- 이명호, 임명진, 신주현, "텍스트와 음성의 앙상블을 통한 다중 감정인식 모델," 스마트미디어저널, 제11권, 제8호, 65-72쪽, 2022년 9월 https://doi.org/10.30693/SMJ.2022.11.8.65