• Title, Summary, Keyword: 음성 신호

Search Result 1,502, Processing Time 0.057 seconds

NOVA 4/X Minicomputer를 이용한 음성신호의 Digital저장

  • Kim, Nak-Hyeon;Lee, Seon-Taek
    • ETRI Journal
    • /
    • v.6 no.2
    • /
    • pp.39-44
    • /
    • 1984
  • 애널로그 신호인 음성신호를 디지틀값으로 변환하여 컴퓨터의 mass storage device에 저장하거나 또는 저장된 디지틀 음성 데이터를 애널로그 신호로 재생하는 기술은 디지틀 음성신호처리의 가장 중요한 토대를 마련해 준다. 본고에서는 음성변경시스팀과 같은 저장형 통신시스팀의 구현에 있어서 반드시 구비되어야 할 기술인 음성신호의 실시간 디스크 저장문제를 NOVA 4/X 미니컴퓨터에서 해결한 것을 간단히 기술하였다.

  • PDF

An Emotion Recognition Technique Using Speech Signals (음성신호를 이용한 감정인식)

  • Jeong, Byeong-Uk;Cheon, Seong-Pyo;Kim, Yeon-Tae;Kim, Seong-Sin
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • /
    • pp.123-126
    • /
    • 2007
  • 본 논문은 음성신호를 이용한 감정인식에 관한 연구이다. 감정인식에 관한 연구는 휴먼 인터페이스(Human Interface) 기술의 발전에서 인간과 기계의 상호작용을 위한 것이다. 본 연구에서는 음성신호를 이용하여 감정을 분석하고자 한다. 음성신호의 감정인식을 위해서 음성신호의 특정을 추출하여야한다. 본 논문에서는 개인에 따른 음성신호의 감정인식을 하고자하였다. 그래서 화자인식에 많이 사용되는 음성신호 분석기법인 Perceptual Linear Prediction(PLP) 분석을 이용하여 음성신호의 특정을 추출하였다. 본 연구에서는 PLP 분석을 통하여 개인화된 감정 패턴을 생성하여 간단하면서도 실시간으로 음성신호로부터 감정을 평가 할 수 있는 알고리즘을 만들었다.

  • PDF

Detection of nonlinearities in speech signal using bicoherence and tricoherence (Bicoherence와 tricoherence를 이용한 음성신호의 비선형성 검출)

  • 김영인;임성빈
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.595-598
    • /
    • 1998
  • 본 논문의 목적은 한국어 모음의 음성 신호에 대하여 2차 및 3차 비선형서의 존재에 대한 정량적인 분석을 수행함에 있다. 음성 신호의 비선형성을 분석하기 위하여 표본화한 음성 신호에 대하여 bicoherence 및 tricoherence를 측정하였다. 실험 결과에 의하면 한국어 모음의 음성 신호의 발생과정에 상당히 강한 2차 및 3차 비선형성이 존재함을 알수 있었다. 특히 음성신호의 3차 비선형성에 대한 연구는 처음 수행되는 것으로 음성 신호 분석에 있어서 매우 중요한 결과로 사료된다.

  • PDF

Compensation Method for Improvement of Speech Recognition in Wireless Communication Network (무선 통신망에서 음성인식률 개선을 위한 보상기법 연구)

  • Seo Jin-Ho;Park Ho-Chong
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • /
    • pp.65-68
    • /
    • 2004
  • 이동통신 기술의 발전으로 이동통신 사용이 폭발적으로 증가하였고 그에 따라 이동통신망을 이용한 많은 서비스가 제공되고 있다. 이동통신망에서의 음성 인식 서비스에서 음성 인식기에 입력되는 음성신호는 통신망을 통해 음성 압축기를 거치게 되고 이에 음성신호가 왜곡되어 인식기의 인식성능이 저하된다. 본 논문에서는 무선통신 환경에서 음성인식기의 성능을 개선하기 위한 보상 방법을 제안한다. 기존의 제안된 방법은 음성 데이터에 의존하는 방법을 사용하나 본 논문에서는 음성 데이터와는 독립적 방법인 음성 압축기에 의해 손상된 입력 신호의 스펙트럼 보상방법과 Cepstrum 보정방법을 통해 인식률을 향상시키는 방법을 제안한다. 즉, 음성 압축기에 의하여 왜곡된 스펙트럼을 단계적 방법으로 보상하고 그를 토대로 왜곡된 신호에서 만들어진 Cepstrum을 보정하여 음성 인식기의 성능을 향상시키는 방법을 연구하였으며, 그 견과 손상된 음성신호의 인식률 $64.88\%$에 대하여, 본 논문에서 제안하는 보상 방법을 적용한 음성신호의 인식률은 $79.73\%$로서 $14.85\%$가 향상된 결과를 얻을 수 있었다.

  • PDF

Transcoding Algorithm from 8 kbps G.729A to 5.3 kbps G.723.1 (8 kbps G.729A에서 5.3 kbps G.723.1로의 상호부호화 알고리듬)

  • 윤성완;정성교;박영철;윤대희
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.823-826
    • /
    • 2000
  • 유/무선 통신 시스템에서는 통신망마다 각각 다른 음성 부호화기를 사용하므로 음성신호는 두 번의 부/복호화 과정을 거치게 된다. 이로 인해 음질저하, 계산량 증가, 그리고 전달 지연 증가 등의 문제가 발생된다. 본 논문에서는 위의 문제점들을 개선하기 위하여 패킷 음성통신과 무선 이동 통신에 사용되는 음성 부호화기의 상호부호화를 위한 알고리듬을 제안한다 효율적인 음성 패킷 변환 방법을 제안하였으며, 8 kbps G.729A 패킷을 5.3 kbps G.723.1 패킷으로 변환하는 방법을 제안한다. 제안된 음성 패킷 변환 방법은 LSP 변환과정, 적응코드북 변환과정 그리고 고정 코드북 고속 탐색 과정으로 구성된다. 여러 가지 음성 신호로 모의 실험한 결과, 본 논문에서 제안된 상호부호화 알고리듬이 두 번의 부/복호화 과정을 거친 경우보다 짧은 전달 지연 시간과 적은 계산량으로 동등한 음질의 음성신호로 복호화함을 확인하였다.

  • PDF

A Study on SNR Estimation of Continuous Speech Signal (연속음성신호의 SNR 추정기법에 관한 연구)

  • Song, Young-Hwan;Park, Hyung-Woo;Bae, Myung-Jin
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.4
    • /
    • pp.383-391
    • /
    • 2009
  • In speech signal processing, speech signal corrupted by noise should be enhanced to improve quality. Usually noise estimation methods need flexibility for variable environment. Noise profile is renewed on silence region to avoid effects of speech properties. So we have to preprocess finding voice region before noise estimation. However, if received signal does not have silence region, we cannot apply that method. In this paper, we proposed SNR estimation method for continuous speech signal. The waveform which is stationary region of voiced speech is very correlated by pitch period. So we can estimate the SNR by correlation of near waveform after dividing a frame for each pitch. For unvoiced speech signal, vocal track characteristic is reflected by noise, so we can estimate SNR by using spectral distance between spectrum of received signal and estimated vocal track. Lastly, energy of speech signal is mostly distributed on voiced region, so we can estimate SNR by the ratio of voiced region energy to unvoiced.

IMBE Model Based SNR Estimation of Continuous Speech Signals (연속음성신호에서 IMBE 모델을 이용한 SNR 추정 연구)

  • Park, Hyung-Woo;Bae, Myung-Jin
    • The Journal of the Acoustical Society of Korea
    • /
    • v.29 no.2
    • /
    • pp.148-153
    • /
    • 2010
  • In speech signal processing, speech signal corrupted by noise should be enhanced to improve quality. Usually noise estimation methods need flexibility for variable environment. Noise profile is renewed on silence region to avoid effects of speech properties. So we have to preprocess finding voice region before noise estimation. However, if received signal does not have silence region, we cannot apply that method. In this paper, we proposed SNR estimation method for continuous speech signal. A Speech signal consists of Voice and Unvoiced Band in The MBE excitation model. And the energy of speech signal is mostly distributed on voiced region, so we can estimate SNR by the ratio of voiced region energy to unvoiced. We use the IMBE vocoder for the Voice or Unvoice band of segmented speech signal. Continuously we calculate the segmented SNR using that information and the energy of each band. And we estimate the SNR of continuous speech signal.

Speech analysis using the Robust Time-Weighted Kalman filtering (시간가중치의 로버스트 칼만필터를 이용한 음성분석)

  • 최홍섭;안수길
    • The Journal of the Acoustical Society of Korea
    • /
    • v.11 no.1E
    • /
    • pp.73-78
    • /
    • 1992
  • 시벼형 신호인 음성 신호의 분석에 칼만필터를 이용하였다. 일반적인 음성 분석은 프레임단위의 처리방법인 선형 예측 부호화 기법을 주로 이용하지만 음성의 시변 특성을 파악하는데에는 적절하지 못 하다. 따라서 순차적인 추정기법으로 많이 이용되는 칼만 필터를 음성 분석에 적용하였다. 또한 음성과 같은 시변신호에서는 과거 신호의 잡음의 분산값에 적당한 가중치를 부가하므로써 과거의 신호에 의해 서 현재의 추정값에 미치는 영향을 줄였으며 이를 음성의 천이 구간에서의 파라메타 추정에 사용하였 다. 그리고 음성신호 모델에서 생기는 모델링 오차는 일반적으로 백색 가우시안 잡음으로 가정하고 있 으나 이는 자음과 같은 무성음에서 특징 파라메타 푸정에는 오차가 적지만 모음등의 유성음에서는 음성 발생시의 여기신호인 펄스열에 의해서 많은 모델링 오차를 생기게 한다. 따라서 모델링 오차신호는 Non-Gaussian 확률분포로 가정한 후 로버스트 칼만 필터를 사용하여 합성으멩 대해 특징 파라메터를 추출하였다.

  • PDF

Signal Processing of Disordered Speech (장애음성 신호처리)

  • 조철우
    • Proceedings of the IEEK Conference
    • /
    • /
    • pp.647-650
    • /
    • 1999
  • 본 논문에서는 음성신호처리 기법을 이용하여 장애음성을 진단, 개선하는 데 필요한 다양한 신호처리방법에 대하여 다루고자 한다. 음성장애중 성대장애를 중심으로 신호에 나타나는 현상과 이를 이용한 신호처리 방법들을 소개하며 응용사례로 음성을 이용한 성대질환의 진단에 관한 내용을 소개한다.

  • PDF

Speech synthesis using acoustic Doppler signal (초음파 도플러 신호를 이용한 음성 합성)

  • Lee, Ki-Seung
    • The Journal of the Acoustical Society of Korea
    • /
    • v.35 no.2
    • /
    • pp.134-142
    • /
    • 2016
  • In this paper, a method synthesizing speech signal using the 40 kHz ultrasonic signals reflected from the articulatory muscles was introduced and performance was evaluated. When the ultrasound signals are radiated to articulating face, the Doppler effects caused by movements of lips, jaw, and chin observed. The signals that have different frequencies from that of the transmitted signals are found in the received signals. These ADS (Acoustic-Doppler Signals) were used for estimating of the speech parameters in this study. Prior to synthesizing speech signal, a quantitative correlation analysis between ADS and speech signals was carried out on each frequency bin. According to the results, the feasibility of the ADS-based speech synthesis was validated. ADS-to-speech transformation was achieved by the joint Gaussian mixture model-based conversion rules. The experimental results from the 5 subjects showed that filter bank energy and LPC (Linear Predictive Coefficient) cepstrum coefficients are the optimal features for ADS, and speech, respectively. In the subjective evaluation where synthesized speech signals were obtained using the excitation sources extracted from original speech signals, it was confirmed that the ADS-to-speech conversion method yielded 72.2 % average recognition rates.