• 제목/요약/키워드: Speech conversion

검색결과 99건 처리시간 0.027초

코퍼스 기반 무제한 단어 중국어 TTS (Corpus Based Unrestricted vocabulary Mandarin TTS)

  • ;하주홍;김병창;이근배
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2003년도 10월 학술대회지
    • /
    • pp.175-179
    • /
    • 2003
  • In order to produce a high quality (intelligibility and naturalness) synthesized speech, it is very important to get an accurate grapheme-to-phoneme conversion and prosody model. In this paper, we analyzed Chinese texts using a segmentation, POS tagging and unknown word recognition. We present a grapheme-to-phoneme conversion using a dictionary-based and rule-based method. We constructed a prosody model using a probabilistic method and a decision tree-based error correction method. According to the result from the above analysis, we can successfully select and concatenate exact synthesis unit of syllables from the Chinese Synthesis DB.

  • PDF

낮은 차원의 벡터 변환을 통한 음성 변환 (Voice conversion using low dimensional vector mapping)

  • 이기승;도원;윤대희
    • 전자공학회논문지S
    • /
    • 제35S권4호
    • /
    • pp.118-127
    • /
    • 1998
  • In this paper, we propose a voice personality transformation method which makes one person's voice sound like another person's voice. In order to transform the voice personality, vocal tract transfer function is used as a transformation parameter. Comparing with previous methods, the proposed method can obtain high-quality transformed speech with low computational complexity. Conversion between the vocal tract transfer functions is implemented by a linear mapping based on soft clustering. In this process, mean LPC cepstrum coefficients and mean removed LPC cepstrum modeled by the low dimensional vector are used as transformation parameters. To evaluate the performance of the proposed method, mapping rules are generated from 61 Korean words uttered by two male and one female speakers. These rules are then applied to 9 sentences uttered by the same persons, and objective evaluation and subjective listening tests for the transformed speech are performed.

  • PDF

문장-언어 변환을 위한 한국어 액센트에 관한 연구 (A Study on the Korean Accentuation Rule for the Korean text to speech conversion)

  • 진달복;김성곤
    • 한국정보통신학회논문지
    • /
    • 제8권4호
    • /
    • pp.804-806
    • /
    • 2004
  • 본 논문은 한국어 문서로부터 음성을 합성해 낼 때 액센트를 자동적으로 만듬으로써 보다 명료하고 자연스러운 회화음을 내기 위한 형식화된 액센트 규칙을 제안하는 데 그 목적이 있다. 이 규칙은 이호영님의 액센트 규칙으로부터 이끌어 낸 것으로서, 그 내용은 다음과 같다. (1) 첫 음절의 음운(rhyme)이 -v인 경우에는 그 다음 음절에 액센트가 온다. (2) 첫 음절의 음운(rhyme)이 -v가 아닌 경우에는 첫 음절에 액센트가 온다.

SMV와 G.723.1 음성부호화기를 위한 파라미터 직접 변환 방식의 상호부호화 알고리듬 (Transcoding Algorithm for SMV and G.723.1 Vocoders via Direct Parameter Transformation)

  • 서성호;장달원;이선일;유창동
    • 대한전자공학회논문지SP
    • /
    • 제40권6호
    • /
    • pp.61-70
    • /
    • 2003
  • 본 논문에서는 SMV와 G.723.1 음성부호화기를 위한 파라미터 직접 변환 방식의 상호부호화 알고리듬을 제안한다. 상호부호화를 위하여 부가적인 복호화, 부호화 과정을 거쳐야하는 Tandem 방식과 달리 제안된 방식에서는 양 음성부호화기가 음성을 부호화하는데 공통적으로 사용되는 파라미터들을 직접 변환한다. 제안된 알고리듬은 파라미터 복호화, LSP 변환, 피치 지연 변환, 여기신호 변환 그리고 비트율 결정으로 이루어진다. 제안된 알고리듬을 다양한 방법으로 평가해 본 결과 계산량과 지연시간을 줄이면서 tandem 방식과 동등한 수준의 음질을 구현함을 확인할 수 있었다.

Voice Frequency Synthesis using VAW-GAN based Amplitude Scaling for Emotion Transformation

  • Kwon, Hye-Jeong;Kim, Min-Jeong;Baek, Ji-Won;Chung, Kyungyong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.713-725
    • /
    • 2022
  • Mostly, artificial intelligence does not show any definite change in emotions. For this reason, it is hard to demonstrate empathy in communication with humans. If frequency modification is applied to neutral emotions, or if a different emotional frequency is added to them, it is possible to develop artificial intelligence with emotions. This study proposes the emotion conversion using the Generative Adversarial Network (GAN) based voice frequency synthesis. The proposed method extracts a frequency from speech data of twenty-four actors and actresses. In other words, it extracts voice features of their different emotions, preserves linguistic features, and converts emotions only. After that, it generates a frequency in variational auto-encoding Wasserstein generative adversarial network (VAW-GAN) in order to make prosody and preserve linguistic information. That makes it possible to learn speech features in parallel. Finally, it corrects a frequency by employing Amplitude Scaling. With the use of the spectral conversion of logarithmic scale, it is converted into a frequency in consideration of human hearing features. Accordingly, the proposed technique provides the emotion conversion of speeches in order to express emotions in line with artificially generated voices or speeches.

효과적인 2차 최적화 적용을 위한 Minibatch 단위 DNN 훈련 관점에서의 CNN 구현 (Implementation of CNN in the view of mini-batch DNN training for efficient second order optimization)

  • 송화전;정호영;박전규
    • 말소리와 음성과학
    • /
    • 제8권2호
    • /
    • pp.23-30
    • /
    • 2016
  • This paper describes some implementation schemes of CNN in view of mini-batch DNN training for efficient second order optimization. This uses same procedure updating parameters of DNN to train parameters of CNN by simply arranging an input image as a sequence of local patches, which is actually equivalent with mini-batch DNN training. Through this conversion, second order optimization providing higher performance can be simply conducted to train the parameters of CNN. In both results of image recognition on MNIST DB and syllable automatic speech recognition, our proposed scheme for CNN implementation shows better performance than one based on DNN.

Kernel PCA를 이용한 GMM 기반의 음성변환 (GMM Based Voice Conversion Using Kernel PCA)

  • 한준희;배재현;오영환
    • 대한음성학회지:말소리
    • /
    • 제67호
    • /
    • pp.167-180
    • /
    • 2008
  • This paper describes a novel spectral envelope conversion method based on Gaussian mixture model (GMM). The core of this paper is rearranging source feature vectors in input space to the transformed feature vectors in feature space for the better modeling of GMM of source and target features. The quality of statistical modeling is dependent on the distribution and the dimension of data. The proposed method transforms both of the distribution and dimension of data and gives us the chance to model the same data with different configuration. Because the converted feature vectors should be on the input space, only source feature vectors are rearranged in the feature space and target feature vectors remain unchanged for the joint pdf of source and target features using KPCA. The experimental result shows that the proposed method outperforms the conventional GMM-based conversion method in various training environment.

  • PDF

한국어 음가를 한글 표기로 변환하는 표준규칙 제정 (Establishment of the Korean Standard Vocal Sound into Character Conversion Rule)

  • 이계영;임재걸
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.51-64
    • /
    • 2004
  • 표기 체계인 한글을 한국어 음가로 변환하는 음운변동 규칙을 역으로 적용하여, 한국어 음가를 한국어를 표기하는 문자 체계인 한글로 전환시키는 규칙을 고안하는 것이 본 연구의 목표이다. 제정된 규칙은 한국어 음성인식에 있어서 매우 귀중한 역할을 담당한다. 일반적인 음성인식 기법은 수회의 학습과정을 통하여 추출된 음성의 표준패턴과 인식 대상으로 입력된 음성을 비교하여 가장 유사한 패턴을 찾는 방법을 사용한다. 이 때 표준 음성패턴이 띄어쓰기 단위의 어절이라면 수백만 개의 표준 패턴이 수록되어야 하므로 표준패턴을 위한 방대한 데이터베이스의 구축은 물론 표준패턴과의 비교 회수도 너무 많아져서 실용화가 불가능하다. 이에 대한 대안인 음절 단위 인식의 경우는 인식된 음가가 실제의 한글 표기와 맞지 않으므로, 인식된 결과를 출력할 때에 실제의 한글표기로 변환해 주어야 하는 과제를 안게 된다. 이 과제를 해결하는 과정, 즉 일련의 한국어 음가들을 일련의 한글 표기 문자로 바꾸어 주는 과정에서는 본 논문에서 제안한 표준 한국어 음가 - 표기 문자 변환 규칙을 적용할 수 있을 것이다. 본 논문에서는 새롭게 제안된 표준 한글 음가-표기 문자 변환 규칙을 사용하여 한국어 음가를 한글 표기로 변환하는 시스템을 구현하였다. 그리고, 고안된 규칙의 무결성을 보이기 위하여 표준 발음규칙 30항을 반영하는 데이터 집합을 이용하여 구현된 시스템을 시험하였으며, 그 실험 결과를 제시한다.

Modelling Duration In Text-to-Speech Systems

  • 정현성
    • 대한음성학회지:말소리
    • /
    • 제49호
    • /
    • pp.159-174
    • /
    • 2004
  • The development of the durational component of prosody modelling was overviewed and discussed in text-to-speech conversion of spoken English and Korean, showing the strengths and weaknesses of each approach. The possibility of integrating linguistic feature effects into the duration modelling of TTS systems was also investigated. This paper claims that current approaches to language timing synthesis still require an understanding of how segmental duration is affected by context. Three modelling approaches were discussed: sequential rule systems, Classification and Regression Tree (CART) models and Sums-of-Products (SoP) models. The CART and SoP models show good performance results in predicting segment duration in English, while it is not the case in the SoP modelling of spoken Korean.

  • PDF

Text-to-Speech 변환 시스템을 위한 회귀 트리 기반의 음소 지속 시간 모델링 (Regression Tree based Modeling of Segmental Durations For Text-to-Speech Conversion System)

  • 표경란;김형순
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1999년도 제11회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.191-195
    • /
    • 1999
  • 자연스럽고 명료한 한국어 Text-to-Speech 변환 시스템을 위해서 음소의 지속 시간을 제어하는 일은 매우 중요하다. 음소의 지속 시간은 여러 가지 문맥 정보에 의해서 변화하므로 제어 규칙에 의존하기 보다 방대한 데이터베이스를 이용하여 통계적인 기법으로 음소의 지속 시간에 변화를 주는 요인을 찾아내려고 하는 것이 지금의 추세이다. 본 연구에서도 트리기반 모델링 방법중의 하나인 CART(classification and regression tree) 방법을 사용하여 회귀 트리를 생성하고, 생성된 트리에 기반하여 음소의 지속 시간 예측 모델과, 자연스러운 끊어 읽기를 위한 휴지 기간 예측 모델을 제안하고 있다. 실험에 사용한 음성코퍼스는 550개의 문장으로 구성되어 있으며, 이 중 428개 문장으로 회귀 트리를 학습시켰고, 나머지 122개의 문장으로 실험하였다. 모델의 평가를 위해서 실제값과 예측값과의 상관관계를 구하였더니 음소의 지속 시간을 예측하는 회귀 트리에서는 상관계수가 0.84로 계산되었고, 끊어 읽는 경계에서의 휴지 기간을 예측하는 회귀 트리에서는 상관계수가 0.63으로 나타났다.

  • PDF