• Title/Summary/Keyword: 음성추출

Search Result 982, Processing Time 0.028 seconds

Extraction and Analysis of Voice Information Feature of the MC According to Propensity of Broadcasting Program (방송 프로그램의 성향에 따른 진행자의 음성 정보 특징 추출 및 분석)

  • Kim, Bong-Hyun;Lee, Se-Hwan;Ka, Min-Kyoung;Cho, Dong-Uk
    • Proceedings of the KAIS Fall Conference
    • /
    • 2009.12a
    • /
    • pp.719-722
    • /
    • 2009
  • 방송 산업은 IT 기반의 통신, 디지털 기술 등과의 융합을 통해 급격한 발전을 이루고 있다. 그러나, 하드웨어적인 기술적 분야의 발전과는 달리 방송 프로그램의 특징에 따라 원활한 진행을 유도하고 있는 방송 진행자의 역할은 거의 변화가 없는 부분이다. 즉, 방송 프로그램의 성향에 따라 시청자의 관심을 유도할 수 있는 능력을 보유하고 있는 것이 방송 진행자의 자질이다. 따라서, 본 논문에서는 방송 진행자들이 방송 프로그램의 성향에 따라 표현하는 음성적 정보의 특징을 추출하고 이를 기반으로 상호간에 비교, 분석을 통해 방송 프로그램에 따른 진행자의 음성적 특징을 분석하였다. 이를 통해 방송 프로그램과 진행자의 음성간에 상호 유의적 연관성을 분석하고 방송 프로그램의 성공 여부를 판단할 수 있는 진행자의 음성 정보 특징을 도출하였다.

  • PDF

A study on the algorithm for speech recognition (음성인식을 위한 알고리즘에 관한 연구)

  • Kim, Sun-Chul;Lee, Jung-Woo;Cho, Kyu-Ok;Park, Jae-Gyun;Oh, Yong Taek
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.2255-2256
    • /
    • 2008
  • 음성인식 시스템을 설계함에 있어서는 대표적으로 사람의 성도 특성을 모방한 LPC(Linear Predict Cording)방식과 청각 특성을 고려한 MFCC(Mel-Frequency Cepstral Coefficients)방식이 있다. 본 논문에서는 MFCC를 통해 특징파라미터를 추출하고 해당 영역에서의 수행된 작업을 매틀랩 알고리즘을 이용하여 그래프로 시현하였다. MFCC 방식의 추출과정은 최초의 음성신호로부터 전처리과정을 통해 아날로그 신호를 디지털 신호로 변환하고, 잡음부분을 최소화하며, 음성 부분을 강조한다. 이 신호는 다시 Windowing을 통해 음성의 불연속을 제거해 주고, FFT를 통해 시간의 영역을 주파수의 영역으로 변환한다. 이 변환된 신호는 Filter Bank를 거쳐 다수의 복잡한 신호를 몇 개의 간단한 신호로 간소화 할 수 있으며, 마지막으로 Mel-cepstrum을 통해 최종적으로 특징 파라미터를 얻고자 하였다.

  • PDF

A Study on Multi-Pulse Speech Coding Method by Using Individual Pitch Information (개별 피치정보를 이용한 멀티펄스 음성부호화 방식에 관한 연구)

  • Lee, See-Woo
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.2
    • /
    • pp.59-64
    • /
    • 2006
  • In this paper, 1 propose a new method of Multi-Pulse Coding(IP-MPC) use individual pitch pulses in order to accommodate the changes in each pitch interval and reduce pitch errors. The extraction rate of individual pitch pulses was $85\%$ for female voice and $96\%$ for male voice respectively, 1 evaluate the MPC by using pitch information of autocorrelation method and the IP-MPC by using individual pitch pulses. As a result, 1 knew that synthesis speech of the IP-MPC was better in speech quality than synthesis speech of the MPC.

  • PDF

A Study on Speaker Adaptation of HMM in a Continous Speech Recognition System (HMM을 이용한 연속음성인식 시스템의 화자적응화에 관한 연구)

  • 김상범
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1995.06a
    • /
    • pp.100-104
    • /
    • 1995
  • 일반적으로 화자적응화는 이미 학습되어 있는 불특정 화자 모델을 표준모델로 하고 소량의 적응화용 발화로 추가적인 학습을 실시하여 특정화자 모델의 성능에 가깝게 하는 기술로서 연속음성 인식에 있어서 매우 중요하다. ML 추정법을 이용한 화자적응화는 카테고리마다 모델의 학습패턴들을 다수개 준비한 후 학습시에 일괄적으로 적용시켜 모델 파라메터를 추정 갱신하므로 추가되는 화자데이터에 대해 데이터를 모두 공급하여야 한다. 본 연구에서는 문발화 데이터의 음절단위를 자동추출한 후 추가되는 화자데이터가 주어질 때 마다 적응화할 수 있는 화자적응화 방법을 검토하였다. 이 방법은 문발화 데이터를 잘라내지 않고 음절 단위를 자동추출시켜 추가 데이터마다 최대 사후확률 추정법을 이용하여 적응화 시키는 것으로 수소의 데이터로서도 적응화를 가능하게 하는 것이다. 본 연구에서 사용되는 음성데이터는 신문사설에서 발췌한 연속음성 10문장을 사용하고, 이 음성 데이터중 6명분은 HMM 학습용으로 하고 나머지 3명분은 적응화용 및 평가용 데이터로 사용하였다. 6명의 화자를 DDCHMM으로 학습하고 나머지 3명분을 MAP법으로 적응화시켰다. 그 결과 적응전과 비교해 볼 때 약 32%의 인식율 향상을 얻을 수 있었다.

  • PDF

A Study on The Automatic Caption System for Hearing Impaired Person (청각장애인을 위한 자동 자막 시스템)

  • Park, Hyon-Gun;Lee, Hee-Suk;Lee, Sang-Moon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2010.07a
    • /
    • pp.335-336
    • /
    • 2010
  • 장애인도 비장애인과 정보접근 기회를 동일하게 가질 권리가 있다. 하지만 청각장애인은 의사소통 수단이나 정보획득의 수단으로부터 소외됨으로써 다양한 사회적 참여에서 배제되기 일쑤였다. 따라서 이 논문에서는 청각장애인을 위한 음성인식을 이용한 자동 자막 시스템을 제안한다. 이 논문에서 제안하는 시스템은 음성 특징 파라미터 추출과 DTW에 의한 음성인식을 통해 음성을 추출하여 화면에 자막으로 나타나게 하는 시스템이다.

  • PDF

Robust Feature Extraction Based on Image-based Approach for Visual Speech Recognition (시각 음성인식을 위한 영상 기반 접근방법에 기반한 강인한 시각 특징 파라미터의 추출 방법)

  • Gyu, Song-Min;Pham, Thanh Trung;Min, So-Hee;Kim, Jing-Young;Na, Seung-You;Hwang, Sung-Taek
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.3
    • /
    • pp.348-355
    • /
    • 2010
  • In spite of development in speech recognition technology, speech recognition under noisy environment is still a difficult task. To solve this problem, Researchers has been proposed different methods where they have been used visual information except audio information for visual speech recognition. However, visual information also has visual noises as well as the noises of audio information, and this visual noises cause degradation in visual speech recognition. Therefore, it is one the field of interest how to extract visual features parameter for enhancing visual speech recognition performance. In this paper, we propose a method for visual feature parameter extraction based on image-base approach for enhancing recognition performance of the HMM based visual speech recognizer. For experiments, we have constructed Audio-visual database which is consisted with 105 speackers and each speaker has uttered 62 words. We have applied histogram matching, lip folding, RASTA filtering, Liner Mask, DCT and PCA. The experimental results show that the recognition performance of our proposed method enhanced at about 21% than the baseline method.

Utilization of Syllabic Nuclei Location in Korean Speech Segmentation into Phonemic Units (음절핵의 위치정보를 이용한 우리말의 음소경계 추출)

  • 신옥근
    • The Journal of the Acoustical Society of Korea
    • /
    • v.19 no.5
    • /
    • pp.13-19
    • /
    • 2000
  • The blind segmentation method, which segments input speech data into recognition unit without any prior knowledge, plays an important role in continuous speech recognition system and corpus generation. As no prior knowledge is required, this method is rather simple to implement, but in general, it suffers from bad performance when compared to the knowledge-based segmentation method. In this paper, we introduce a method to improve the performance of a blind segmentation of Korean continuous speech by postprocessing the segment boundaries obtained from the blind segmentation. In the preprocessing stage, the candidate boundaries are extracted by a clustering technique based on the GLR(generalized likelihood ratio) distance measure. In the postprocessing stage, the final phoneme boundaries are selected from the candidates by utilizing a simple a priori knowledge on the syllabic structure of Korean, i.e., the maximum number of phonemes between any consecutive nuclei is limited. The experimental result was rather promising : the proposed method yields 25% reduction of insertion error rate compared that of the blind segmentation alone.

  • PDF

Robust Endpoint Detection and Energy Normalization (강인한 끝점 추출과 에너지 정규화)

  • 고기원;정원용
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2003.06a
    • /
    • pp.126-129
    • /
    • 2003
  • 자동 음성 인식(ASR) 시스템에, 끝점 추출과 에너지 정규화는 중요한 역할을 하게 된다 그러나 낮은 SNR이나 nonstationary 환경에서, 기존 방법은 끝점 추출과 에너지 정규화에 있어서 자주 실패하게 되며, ASR을 급격히 열화시키곤 한다. ASR을 수행하기 위해, 최적의 필터에 3상태 천이도를 사용하고, 필터는 정확성과 강인함을 확실히 하기 위해 여러 이론들을 이용하여 설계하였고 여러 가지 잡음이 있는 음성 신호환경에서 거의 일정한 응답을 주었다. 검출된 끝점은 곧바로 에너지 정규화에 적용된다. 실험 결과는 제안된 알고리즘이 낮은 SNR에서 에러율을 크게 감소시키고 있다는 것을 보여준다.

  • PDF

Speech Feature Extraction based on Spikegram for Phoneme Recognition (음소 인식을 위한 스파이크그램 기반의 음성 특성 추출 기술)

  • Han, Seokhyeon;Kim, Jaewon;An, Soonho;Shin, Seonghyeon;Park, Hochong
    • Journal of Broadcast Engineering
    • /
    • v.24 no.5
    • /
    • pp.735-742
    • /
    • 2019
  • In this paper, we propose a method of extracting speech features for phoneme recognition based on spikegram. The Fourier-transform-based features are widely used in phoneme recognition, but they are not extracted in a biologically plausible way and cannot have high temporal resolution due to the frame-based operation. For better phoneme recognition, therefore, it is desirable to have a new method of extracting speech features, which analyzes speech signal in high temporal resolution following the model of human auditory system. In this paper, we analyze speech signal based on a spikegram that models feature extraction and transmission in auditory system, and then propose a method of feature extraction from the spikegram for phoneme recognition. We evaluate the performance of proposed features by using a DNN-based phoneme recognizer and confirm that the proposed features provide better performance than the Fourier-transform-based features for short-length phonemes. From this result, we can verify the feasibility of new speech features extracted based on auditory model for phoneme recognition.

A New Speech Quality Measure for Speech Database Verification System (음성 인식용 데이터베이스 검증시스템을 위한 새로운 음성 인식 성능 지표)

  • Ji, Seung-eun;Kim, Wooil
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.20 no.3
    • /
    • pp.464-470
    • /
    • 2016
  • This paper presents a speech recognition database verification system using speech measures, and describes a speech measure extraction algorithm which is applied to this system. In our previous study, to produce an effective speech quality measure for the system, we propose a combination of various speech measures which are highly correlated with WER (Word Error Rate). The new combination of various types of speech quality measures in this study is more effective to predict the speech recognition performance compared to each speech measure alone. In this paper, we increase the system independency by employing GMM acoustic score instead of HMM score which is obtained by a secondary speech recognition system. The combination with GMM score shows a slightly lower correlation with WER compared to the combination with HMM score, however it presents a higher relative improvement in correlation with WER, which is calculated compared to the correlation of each speech measure alone.