DOI QR코드

DOI QR Code

EEG based Vowel Feature Extraction for Speech Recognition System using International Phonetic Alphabet

EEG기반 언어 인식 시스템을 위한 국제음성기호를 이용한 모음 특징 추출 연구

  • Lee, Tae-Ju (School of Electrical and Electronics Engineering, Chung-Ang University) ;
  • Sim, Kwee-Bo (School of Electrical and Electronics Engineering, Chung-Ang University)
  • 이태주 (중앙대학교 전자전기공학부) ;
  • 심귀보 (중앙대학교 전자전기공학부)
  • Received : 2013.09.01
  • Accepted : 2014.02.13
  • Published : 2014.02.25

Abstract

The researchs using brain-computer interface, the new interface system which connect human to macine, have been maded to implement the user-assistance devices for control of wheelchairs or input the characters. In recent researches, there are several trials to implement the speech recognitions system based on the brain wave and attempt to silent communication. In this paper, we studied how to extract features of vowel based on international phonetic alphabet (IPA), as a foundation step for implementing of speech recognition system based on electroencephalogram (EEG). We conducted the 2 step experiments with three healthy male subjects, and first step was speaking imagery with single vowel and second step was imagery with successive two vowels. We selected 32 channels, which include frontal lobe related to thinking and temporal lobe related to speech function, among acquired 64 channels. Eigen value of the signal was used for feature vector and support vector machine (SVM) was used for classification. As a result of first step, we should use over than 10th order of feature vector to analyze the EEG signal of speech and if we used 11th order feature vector, the highest average classification rate was 95.63 % in classification between /a/ and /o/, the lowest average classification rate was 86.85 % with /a/ and /u/. In the second step of the experiments, we studied the difference of speech imaginary signals between single and successive two vowels.

인간과 기계를 연결하는 새로운 인터페이스인 Brain-computer interface (BCI)를 이용해 휠체어를 제어하거나 단어를 입력하는 등, 사용자를 위한 다양한 장치를 개발하는 연구들이 진행되어 왔다. 특히 최근에는 뇌파를 이용한 음성인식을 구현하고 이를 통해 무음통신 등에 적용하려는 시도들이 있었다. 본 논문에서는 이러한 연구의 일환으로 electroencephalogram (EEG) 기반의 언어 인식 시스템을 개발하기 위한 기초 단계로서, 국제음성기호에 기반을 둔 모음들의 특징을 추출하는 방법에 대한 연구를 진행하였다. 실험은 건장한 세 명의 남성 피험자를 대상으로 진행되었으며, 한 개의 모음을 제시하는 첫 번째 실험 과정과 두 개의 연속된 모음을 제시하는 두 번째 실험 과정으로 두 단계에 나누어서 실험이 진행되었다. 습득된 64개의 채널중 선택적으로 32개의 채널만을 사용해 특징을 추출하였으며, 사고 활동과 관련된 전두엽과 언어활동에 관련된 측두엽을 기준으로 영역을 선택하였다. 알고리즘 적용을 위해서 특징으로는 신호의 고유 값을 사용하였고, support vector machine (SVM)을 이용하여 분류를 수행하였다. 실험 결과, 첫 번째 단계의 실험을 통해서, 언어의 뇌파를 분석하기 위해서는 10차원 이상의 특징 벡터를 사용해야 됨을 알게 되었고, 11차원의 특징 벡터를 사용할 경우, 평균분류율은 최고 95.63 %로 /a/와 /o/를 분류할 때 나타났고, 가장 낮은 분류율을 보이는 모음은 /a/와 /u/로 86.85 %였다. 두 번째 단계의 실험에서는 두 개 이상의 모음을 발음하는 것이 단일 모음 발음과 어떤 차이가 있는지 확인해 보았다.

Keywords

References

  1. J. R. Wolpaw, E. W. Wolpaw, "Brain-computer interfaces: something new under the sun," Brain-computer interfaces: principles and practice. Oxford University Press, Oxford, pp. 3-12, 2012.
  2. R. Bogue, "Brain-computer interfaces: control by thought," Industrial Robot: An International Journale, vol. 37, issue 2, pp. 126-132, 2010. https://doi.org/10.1108/01439911011018894
  3. K. Brigham, B. V. K. V. Kumar, "Imagined Speech Classification with EEG Signals for Silent Communication: A Preliminary Investigation into Synthetic Telepathy," Conf. Bioinf. and Biomed. Eng. 2010, pp. 1-4, 2010.
  4. N. Yhoshimura, A. Satsuma, C. S. DaSalla, T. Hanakawa, M. Sato, Y. Koike, "Usability of EEG Cortical Currents in Classification of Vowel Speech Imagery," Int. Conf. Virtual Rehabilitation 2011, pp. 1-2, 2011.
  5. X. Pei, J. Hill, G. Schalk, "Silent Communication: Toward Using Brain Signals," IEEE Pulse, vol. 3, issue 1, pp. 43-46, Jan. 2012.
  6. L. Bottou, C-. J. Lin, "Support Vector Machine Solvers," Large-Scale Kernel Machines, MIT Press, pp. 1-27, 2007.
  7. C. Guger, S. Daban, E. Sellers, C. Holzner, G. Krausz, R. Carabalona, F. Gramatica, G. Edlinger, "How many people are able to control a P300-based brain-computer interface (BCI)?," Neuroscience Letters, vol. 462, issue 1, pp. 94-98, Sep. 2009. https://doi.org/10.1016/j.neulet.2009.06.045
  8. A. Porbadnigk, M. Wester, J. P. Calliess, T. Schultz, "EEG-based Speech Recognition - Impact of Temporal Effects" 2nd International Conference on Bio-inspired Systems and Signal Processing (Biosignals 2009), 2009.

Cited by

  1. Vowel Classification of Imagined Speech in an Electroencephalogram using the Deep Belief Network vol.21, pp.1, 2015, https://doi.org/10.5302/J.ICROS.2015.14.0073
  2. Development of Efficient Encryption Scheme on Brain-Waves Using Five Phase Chaos Maps vol.16, pp.1, 2016, https://doi.org/10.5391/IJFIS.2016.16.1.59
  3. A Study on the Improving Method of Academic Effect based on Arduino sensors vol.26, pp.3, 2016, https://doi.org/10.5391/JKIIS.2016.26.3.226