• 제목/요약/키워드: cepstrum coefficients mean

검색결과 9건 처리시간 0.021초

남녀 성별인식을 위한 음성 특징벡터의 비교 (Comparison of Characteristic Vector of Speech for Gender Recognition of Male and Female)

  • 정병구;최재승
    • 한국정보통신학회논문지
    • /
    • 제16권7호
    • /
    • pp.1370-1376
    • /
    • 2012
  • 본 논문에서는 남성화자 혹은 여성화자인지를 구분하는 성별인식 알고리즘을 제안한다. 본 논문에서는 남성화자와 여성화자의 특징벡터를 분석하며, 이러한 남녀의 특징벡터를 이용하여 신경회로망에 의한 제안한 성별인식에 대한 인식실험을 수행한다. 신경회로망의 입력신호로 사용한 특징벡터로는 10차의 LPC 켑스트럼 계수, 12차의 LPC 켑스트럼 계수, 12차의 FFT 켑스트럼 및 1차의 RMS, 12차의 LPC 켑스트럼 및 8차의 FFT 스펙트럼들이다. 본 실험에서는 특히 12차의 LPC 켑스트럼 및 8차의 저역 FFT 스펙트럼의 특징벡터를 사용하여 20-20-2의 네트워크에 의하여 신경회로망이 학습되었다. 실험결과, 남성화자에 대하여 학습 시에는 평균 99.8%, 여성화자에 대해서는 평균 96.5%의 성별인식률이 구해졌다.

인지적 청각 특성을 이용한 고립 단어 전화 음성 인식 (Isolated-Word Speech Recognition in Telephone Environment Using Perceptual Auditory Characteristic)

  • 최형기;박기영;김종교
    • 대한전자공학회논문지TE
    • /
    • 제39권2호
    • /
    • pp.60-65
    • /
    • 2002
  • 본 논문에서는, 음성 인식률 향상을 위하여 청각 특성을 기반으로 한 GFCC(gammatone filter frequency cepstrum coefficients) 파라미터를 음성 특징 파라미터로 제안한다. 그리고 전화망을 통해 얻은 고립단어를 대상으로 인식실험을 수행하였다. 성능비교를 위하여 MFCC(mel frequency cepstrum coefficients)와 LPCC(linear predictive cepstrum coefficient)를 사용하여 인식 실험을 하였다. 또한, 각 파라미터에 대하여 전화망의 채널 왜곡 보상기법으로 CMS(cepstral mean subtraction)를 도입한 방법과 적용시키지 않은 방법으로 인식실험을 하였다. 실험 결과로서, GFCC를 사용하여 인식을 수행한 방법이 다른 파라미터를 사용한 방법에 비해 향상된 결과를 얻었다.

잡음 환경에서의 유도 전동기 고장 검출 및 분류를 위한 강인한 특징 벡터 추출에 관한 연구 (A Study on Robust Feature Vector Extraction for Fault Detection and Classification of Induction Motor in Noise Circumstance)

  • 황철희;강명수;김종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권12호
    • /
    • pp.187-196
    • /
    • 2011
  • 유도 전동기는 항공 산업, 자동차 산업 등의 산업 현장에서 중요한 역할을 하고 있으며, 이러한 유도 전동기의 고장으로 인한 피해를 최소화하기 위해 유도 전동기의 고장 검출 및 분류 시스템의 개발이 중요한 문제로 대두되고 있다. 이에 본 논문에서는 정상 및 각종 비정상 상태의 유도 전동기 진동 신호에 대해 부분 자기 상관(partial autocorrelation, PARCOR) 계수, 로그 스펙트럼 파워(log spectrum powers, LSP), 캡스트럼 계수의 평균값(cepstrum coefficients mean, CCM), 멜 주파수 캡스트럼 계수(mel-frequency cepstrum coefficient, MFCC)의 네 가지 특징 벡터를 신경 회로망의 입력으로 사용하여 유도 전동기의 고장을 검출하고 분류하였다. 고장 분류를 위한 최적의 특징 벡터를 찾기 위해 추출하는 특징의 수를 2에서 20으로 바꾸어 가며 분류 성능을 평가한 결과 CCM을 제외한 나머지의 경우 5~6의 특징만으로 분류 정확도가 거의 100%에 가까운 결과를 보였다. 또한 본 논문에서는 실제 산업 현장에서 진동 신호 취득 시 포함될 수 있는 잡음을 고려하여 취득한 신호에 백색 잡음(white Gaussian noise)을 인위적으로 추가하여 실험한 결과 LSP, PARCOR, MFCC 순으로 잡음 환경에 강인한 특징 벡터임을 확인할 수 있었다.

켑스트럼으로부터 변환된 로그 스펙트럼을 이용한 포먼트 평활화 켑스트럴 평균 차감법 (Formant-broadened CMS Using the Log-spectrum Transformed from the Cepstrum)

  • 김유진;정혜경;정재호
    • 한국음향학회지
    • /
    • 제21권4호
    • /
    • pp.361-373
    • /
    • 2002
  • 본 논문에서는 음성 인식과 화자 인식에서 채널 변이 정규화를 위해 널리 사용되는 전통적인 켑스트럴 평균차감법 (CMS: Cepstral Mean Subtraction)의 성능을 향상시키기 위한 정규화 방법을 제안한다. 기존의 켑스트럴 평균 차감법은 장구간 켑스트럼의 평균으로 채널 성분을 추정하므로 유성음의 포먼트에 의해 채널 성분이 편향되는 단점을 가진다. 제안된 포먼트 평활화 켑스트럴 평균 차감법 (FBCMS; Formant-broadened CMS)은 켑스트럼으로부터 변환된 로그 스펙트럼에서 포먼트 위치를 쉽게 찾을 수 있고, 포먼트는 전극점 모델로 표현되는 성도 전달 함수의 우세 극점에 대응된다는 사실에 근거한다. 따라서 제안된 방법은 켑스트럼으로부터 음성의 포먼트를 구하고, 이로부터 포먼트의 대역폭을 확장한 켑스트럼을 구한 후 평균함으로써 채널 켑스트럼 성분으로부터 우세 극점들의 영향을 제거한다. 전극점 모델의 우세 극점을 얻기 위해 다항식 인수분해 과정을 거치지 않으므로 연산량을 줄일 수 있으며 포먼트에 해당하는 우세 극점만으로 선택적으로 처리할 수 있다. 본 연구에서는 4가지의 모의 채널을 이용하여 전통적인 켑스트럴 평균 차감법, 극점 필터화 켑스트럴 평균 차감법 (Pole-filtered CMS) 그리고 제안된 방법의 비교실험을 수행하였다. 실제 채널 켑스트럼과 추정된 채널 켑스트럼과의 거리를 측정하는 실험에서 음성에 의한 편향을 완화시켜 실제 채널에 보다 가까운 평균 켑스트럼을 얻을 수 있음을 확인하였다. 또한 문장독립 화자 식별에서 제안된 방법은 전통적인 켑스트럴 평균 차감법보다 우세하고 극점 필터화 켑스트럴 평균 차감법 (Pole-filtered CU)과는 비슷한 결과를 보였다. 결과적으로 제안된 방법은 전통적인 켑스트럴 평균 차감법에 기반하여 효과적인 채널 정규화가 가능하다는 것을 보였다.

낮은 차원의 벡터 변환을 통한 음성 변환 (Voice conversion using low dimensional vector mapping)

  • 이기승;도원;윤대희
    • 전자공학회논문지S
    • /
    • 제35S권4호
    • /
    • pp.118-127
    • /
    • 1998
  • In this paper, we propose a voice personality transformation method which makes one person's voice sound like another person's voice. In order to transform the voice personality, vocal tract transfer function is used as a transformation parameter. Comparing with previous methods, the proposed method can obtain high-quality transformed speech with low computational complexity. Conversion between the vocal tract transfer functions is implemented by a linear mapping based on soft clustering. In this process, mean LPC cepstrum coefficients and mean removed LPC cepstrum modeled by the low dimensional vector are used as transformation parameters. To evaluate the performance of the proposed method, mapping rules are generated from 61 Korean words uttered by two male and one female speakers. These rules are then applied to 9 sentences uttered by the same persons, and objective evaluation and subjective listening tests for the transformed speech are performed.

  • PDF

직교 벡터 공간 변환을 이용한 음성 개성 변환 (Voice personality transformation using an orthogonal vector space conversion)

  • 이기승;박군종;윤대희
    • 전자공학회논문지B
    • /
    • 제33B권1호
    • /
    • pp.96-107
    • /
    • 1996
  • 본 논문에서는 직교 벡터 공간 변환을 이용한 새로운 음성 개성 변환 알고리즘을 제안하였다. 음성 개성 변환이란 임의 환자(source)가 가지고 있는 몇 개의 특징 변수를 다른 화자(target)의 특징 변수로 변환하는 기법이다. 본 논문에서는 LPC 켑스트럼 계수와 여기 신호의 스펙트럼, 그리고 피치 궤적을 변환하여 음성 개성변환을 구현하였다. LPC 켑스트럼 계수의 변환을 위해 직교 벡터 공간 변환 기법이 제안되었다. 이 기법은 KL(Karhunen-Loeve)변환을 이용한 principle component의 분리와 최소 자승 오차를 갖는 선형 좌표 변환을 통해 LPC 켑스트럼의 변환을 수행한다. 또한, 화자간의 운율적인 특징을 변환하기 위해 피치 궤적 변환 기법이 제안되었다. 피치 궤적 변환을 위하여 먼저 두 화자간의 기준 피치 패턴의 작성하고 기준 패턴간의 대응 관계를 추정한 후 이를 이용하여 source 화자의 피치 패턴이 target 피치 패턴으로 변환되도록 하였다. 컴퓨터를 이용한 모의 실험 결과 제안된 알고리즘은 객관적인 평가와 주관적인 평가에 있어서 우수한 성능을 나타내었다.

  • PDF

Hidden LMS 적응 필터링 알고리즘을 이용한 경쟁학습 화자검증 (Speaker Verification Using Hidden LMS Adaptive Filtering Algorithm and Competitive Learning Neural Network)

  • 조성원;김재민
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제51권2호
    • /
    • pp.69-77
    • /
    • 2002
  • Speaker verification can be classified in two categories, text-dependent speaker verification and text-independent speaker verification. In this paper, we discuss text-dependent speaker verification. Text-dependent speaker verification system determines whether the sound characteristics of the speaker are equal to those of the specific person or not. In this paper we obtain the speaker data using a sound card in various noisy conditions, apply a new Hidden LMS (Least Mean Square) adaptive algorithm to it, and extract LPC (Linear Predictive Coding)-cepstrum coefficients as feature vectors. Finally, we use a competitive learning neural network for speaker verification. The proposed hidden LMS adaptive filter using a neural network reduces noise and enhances features in various noisy conditions. We construct a separate neural network for each speaker, which makes it unnecessary to train the whole network for a new added speaker and makes the system expansion easy. We experimentally prove that the proposed method improves the speaker verification performance.

HMM기반 소음분석에 의한 엔진고장 진단기법 (Engine Fault Diagnosis Using Sound Source Analysis Based on Hidden Markov Model)

  • 레찬수;이종수
    • 한국통신학회논문지
    • /
    • 제39A권5호
    • /
    • pp.244-250
    • /
    • 2014
  • The Most Serious Engine Faults Are Those That Occur Within The Engine. Traditional Engine Fault Diagnosis Is Highly Dependent On The Engineer'S Technical Skills And Has A High Failure Rate. Neural Networks And Support Vector Machine Were Proposed For Use In A Diagnosis Model. In This Paper, Noisy Sound From Faulty Engines Was Represented By The Mel Frequency Cepstrum Coefficients, Zero Crossing Rate, Mean Square And Fundamental Frequency Features, Are Used In The Hidden Markov Model For Diagnosis. Our Experimental Results Indicate That The Proposed Method Performs The Diagnosis With A High Accuracy Rate Of About 98% For All Eight Fault Types.

청크 기반 시계열 음성의 감정 인식 연구 (A Study on Emotion Recognition of Chunk-Based Time Series Speech)

  • 신현삼;홍준기;홍성찬
    • 인터넷정보학회논문지
    • /
    • 제24권2호
    • /
    • pp.11-18
    • /
    • 2023
  • 최근 음성 감정 인식(Speech Emotion Recognition, SER)분야는 음성 특징과 모델링을 활용하여 인식률을 개선하기 위한 많은 연구가 진행되고 있다. 기존 음성 감정 인식의 정확도를 높이기 위한 모델링 연구 이외에도 음성 특징을 다양한 방법으로 활용하는 연구들이 진행되고 있다. 본 논문에서는 음성 감정이 시간 흐름과 연관이 있음을 착안하여 시계열 방식으로 음성파일을 시간 구간별로 분리한다. 파일 분리 이후, 음성 특징인 Mel, Chroma, zero-crossing rate (ZCR), root mean square (RMS), mel-frequency cepastral coefficients (MFCC)를 추출하여서 순차적 데이터 처리에 사용하는 순환형 신경망 모델에 적용하여 음성 데이터에서 감정을 분류하는 모델을 제안한다. 제안한 모델은 librosa를 사용하여 음성 특징들을 모든 파일에서 추출하여, 신경망 모델에 적용하였다. 시뮬레이션은 영어 데이터 셋인 Interactive Emotional Dyadic Motion Capture (IEMOCAP)을 이용하여 recurrent neural network (RNN), long short-term memory (LSTM) and gated recurrent unit(GRU)의 모델들의 성능을 비교 및 분석하였다.