• Title/Summary/Keyword: Speaker Classification

검색결과 62건 처리시간 0.021초

GMM-supervector를 사용한 SVM 기반 화자분류에 대한 연구 (A Study on SVM-Based Speaker Classification Using GMM-supervector)

  • 이경록
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.1022-1027
    • /
    • 2020
  • 본 논문에서는 GMM-supervector를 특징 파라미터로 하는 SVM 기반 화자 분류에 대해서 실험하였다. 실험을 위한 화자 클러스터를 생성하기 위해서 기존의 SNR 기반 가중치를 반영한 KL거리 기반 화자변화검출을 실행하였다. SVM 기반 화자 분류는 2단계로 이루어져있다. 1단계는 UBM과 화자 모델들간의 SVM 기반 분류를 시행하여 각 클러스터에 화자 정보를 인덱싱한 다음 화자별로 그룹핑한다. 2단계는 화자 클러스터 그룹에 UBM과 화자모델들간의 SVM 기반 분류를 시행한다. SVM의 커널 함수로는 Linear와 RBF를 사용하였다. 실험결과, 1단계에서는 Linear 커널이 화자 클러스터 148개, MDR 0, FAR 47.3, ER 50.7로 좋은 성능으로 보였다. 2단계 실험결과도 Linear 커널이 화자 클러스터 109개, MDR 1.3, FAR 28.4, ER 32.1로 좋은 성능을 보였다.

Japanese Vowel Sound Classification Using Fuzzy Inference System

  • Phitakwinai, Suwannee;Sawada, Hideyuki;Auephanwiriyakul, Sansanee;Theera-Umpon, Nipon
    • 한국융합학회논문지
    • /
    • 제5권1호
    • /
    • pp.35-41
    • /
    • 2014
  • An automatic speech recognition system is one of the popular research problems. There are many research groups working in this field for different language including Japanese. Japanese vowel recognition is one of important parts in the Japanese speech recognition system. The vowel classification system with the Mamdani fuzzy inference system was developed in this research. We tested our system on the blind test data set collected from one male native Japanese speaker and four male non-native Japanese speakers. All subjects in the blind test data set were not the same subjects in the training data set. We found out that the classification rate from the training data set is 95.0 %. In the speaker-independent experiments, the classification rate from the native speaker is around 70.0 %, whereas that from the non-native speakers is around 80.5 %.

양자화 된 범용 화자모델을 이용한 연속적 화자분류 (Sequential Speaker Classification Using Quantized Generic Speaker Models)

  • 권순일
    • 전자공학회논문지CI
    • /
    • 제44권1호
    • /
    • pp.26-32
    • /
    • 2007
  • 연속적 화자 분류에 있어서 분류 대상이 되는 화자에 대한 정보가 없거나 부족할 경우 정확한 연속적 분류가 어렵다. 이러한 문제를 해결하기 위해 표본 화자모델을 이용하는 방법이 제안되었는데, 이 방법을 이용하면 미리 준비된 화자의 데이터가 없이 화자모델 초기화와 화자분류가 가능해진다. 하지만 여전히 화자모델의 표본을 얻는 방법에 어려움이 따른다. 이 문제를 해결하기 위해 벡터 양자화에서 비롯된 화자 양자화를 제안한다. 유선전화 데이터를 이용한 실험에서 화자 양자화를 이용한 표본 화자모델 방법은 무작위 표본추출 방법을 이용할 경우 보다 25%의 성능 향상을 보였다.

모음 인식과 벡터 양자화를 이용한 화자 인식 (Speaker Identification Based on Vowel Classification and Vector Quantization)

  • 임창헌;이황수;은종관
    • 한국음향학회지
    • /
    • 제8권4호
    • /
    • pp.65-73
    • /
    • 1989
  • 본 연구에서는, VQ(vector quantization)와 모음 인식에 기초한 화자 인식 알고리즘을 제안하고, 기존의 VQ를 사용한 화자 인식 알고리즘과 성능을 비교하였다. 제안된 화자 인식 알고리즘은 모음 분리, 모음 인식 그리고 평균 distortion양을 계산하는 3개의 과정으로 구성되며, 이때 주어진 음성 신호로부터 모음 부분을 분리하기 위해 RMS 에너지, BTR(Back-to-Total cavity volume Ratio) 그리고 SFBR(Signed-Front-to-Back maximum area Ratio)이 라는 3개 의 Parameter를 사용하였다. 입력 음성 신호의 SNR이 20 dB이고 정확한 모음 분리가 수행되었을 때, 제안된 화자 인식 알고리즘의 성능이 기존의VQ를 사용한 화자 인식 알고리즘의 성능보다 대체로 좋았으며, 입력 신호가 전화선을 통과한 신호이고 잡음이 있는 경우에도 유사한 결과를 얻을 수 있었다

  • PDF

웹 기반의 화자확인시스템을 위한 문장선정에 관한 연구 (A Study on Text Choice for Web-Based Speaker Verification System)

  • 안기모;이재희;강철호
    • 한국음향학회지
    • /
    • 제19권6호
    • /
    • pp.34-40
    • /
    • 2000
  • 문장 종속형 화자 확인시스템을 구현하는데 있어 화자가 발음할 문장의 선정은 화자인식시스템의 성능을 좌우하는 중요한 사항이다. 본 연구에서는 한국어의 음가 분류방식을 이용하여 자음조합체계를 구축하고 이를 웹 기반 화자확인시스템에 적용하여 급격한 화자음성정보의 변화에 대응하는 동시에 최적의 인식성능을 낼 수 있는 자음조합방식을 도출하였다.

  • PDF

단일 레이블 분류를 이용한 종단 간 화자 분할 시스템 성능 향상에 관한 연구 (A study on end-to-end speaker diarization system using single-label classification)

  • 정재희;김우일
    • 한국음향학회지
    • /
    • 제42권6호
    • /
    • pp.536-543
    • /
    • 2023
  • 다수의 화자가 존재하는 음성에서 "누가 언제 발화했는가?"에 대해 레이블링하는 화자 분할은 발화 중첩 구간에 대한 레이블링과 화자 분할 모델의 최적화를 위해 심층 신경망 기반의 종단 간 방법에 대해 연구되었다. 대부분 심층 신경망 기반의 종단 간 화자 분할 시스템은 음성의 각 프레임에서 발화한 모든 화자의 레이블들을 추정하는 다중 레이블 분류 문제로 분할을 수행한다. 다중 레이블 기반의 화자 분할 시스템은 임계값을 어떤 값으로 설정하는지에 따라 모델의 성능이 많이 달라진다. 본 논문에서는 임계값 없이 화자 분할을 수행할 수 있도록 단일 레이블 분류를 이용한 화자 분할 시스템에 대해 연구하였다. 제안하는 화자 분할 시스템은 기존의 화자 레이블을 단일 레이블 형태로 변환하여 모델의 출력으로부터 레이블을 바로 추정한다. 훈련에서는 화자 레이블 순열을 고려하기 위해 Permutation Invariant Training(PIT) 손실함수와 교차 엔트로피 손실함수를 조합하여 사용하였다. 또한 심층 구조를 갖는 모델의 효과적인 학습을 위해 화자 분할 모델에 잔차 연결 구조를 추가하였다. 실험은 Librispeech 데이터베이스를 이용해 화자 2명에 대한 시뮬레이션 잡음 데이터를 생성하여 사용하였다. Diarization Error Rate(DER) 성능 평가 지수를 이용해 제안한 방법과 베이스라인 모델을 비교 평가했을 때, 제안한 방법이 임계값 없이 분할이 가능하며, 약 20.7 %만큼 향상된 성능을 보였다.

MCE 학습 알고리즘을 이용한 문장독립형 화자식별의 성능 개선 (Performance Improvement of a Text-Independent Speaker Identification System Using MCE Training)

  • 김태진;최재길;권철홍
    • 대한음성학회지:말소리
    • /
    • 제57호
    • /
    • pp.165-174
    • /
    • 2006
  • In this paper we use a training algorithm, MCE (Minimum Classification Error), to improve the performance of a text-independent speaker identification system. The MCE training scheme takes account of possible competing speaker hypotheses and tries to reduce the probability of incorrect hypotheses. Experiments performed on a small set speaker identification task show that the discriminant training method using MCE can reduce identification errors by up to 54% over a baseline system trained using Bayesian adaptation to derive GMM (Gaussian Mixture Models) speaker models from a UBM (Universal Background Model).

  • PDF

Dysarthric speaker identification with different degrees of dysarthria severity using deep belief networks

  • Farhadipour, Aref;Veisi, Hadi;Asgari, Mohammad;Keyvanrad, Mohammad Ali
    • ETRI Journal
    • /
    • 제40권5호
    • /
    • pp.643-652
    • /
    • 2018
  • Dysarthria is a degenerative disorder of the central nervous system that affects the control of articulation and pitch; therefore, it affects the uniqueness of sound produced by the speaker. Hence, dysarthric speaker recognition is a challenging task. In this paper, a feature-extraction method based on deep belief networks is presented for the task of identifying a speaker suffering from dysarthria. The effectiveness of the proposed method is demonstrated and compared with well-known Mel-frequency cepstral coefficient features. For classification purposes, the use of a multi-layer perceptron neural network is proposed with two structures. Our evaluations using the universal access speech database produced promising results and outperformed other baseline methods. In addition, speaker identification under both text-dependent and text-independent conditions are explored. The highest accuracy achieved using the proposed system is 97.3%.

정보이론 관점에서 음성 신호의 화자 특징 정보를 정량적으로 측정하는 방법에 관한 연구 (Quantitative Measure of Speaker Specific Information in Human Voice: From the Perspective of Information Theoretic Approach)

  • Kim Samuel;Seo Jung Tae;Kang Hong Goo
    • The Journal of the Acoustical Society of Korea
    • /
    • 제24권1E호
    • /
    • pp.16-20
    • /
    • 2005
  • A novel scheme to measure the speaker information in speech signal is proposed. We develope the theory of quantitative measurement of the speaker characteristics in the information theoretic point of view, and connect it to the classification error rate. Homomorphic analysis based features, such as mel frequency cepstral coefficient (MFCC), linear prediction cepstral coefficient (LPCC), and linear frequency cepstral coefficient (LFCC) are studied to measure speaker specific information contained in those feature sets by computing mutual information. Theories and experimental results provide us quantitative measure of speaker information in speech signal.

화자적응 신경망을 이용한 고립단어 인식 (Isolated Word Recognition Using a Speaker-Adaptive Neural Network)

  • 이기희;임인칠
    • 전자공학회논문지B
    • /
    • 제32B권5호
    • /
    • pp.765-776
    • /
    • 1995
  • This paper describes a speaker adaptation method to improve the recognition performance of MLP(multiLayer Perceptron) based HMM(Hidden Markov Model) speech recognizer. In this method, we use lst-order linear transformation network to fit data of a new speaker to the MLP. Transformation parameters are adjusted by back-propagating classification error to the transformation network while leaving the MLP classifier fixed. The recognition system is based on semicontinuous HMM's which use the MLP as a fuzzy vector quantizer. The experimental results show that rapid speaker adaptation resulting in high recognition performance can be accomplished by this method. Namely, for supervised adaptation, the error rate is signifecantly reduced from 9.2% for the baseline system to 5.6% after speaker adaptation. And for unsupervised adaptation, the error rate is reduced to 5.1%, without any information from new speakers.

  • PDF