• 제목/요약/키워드: continuous speech

검색결과 317건 처리시간 0.029초

후두음성 질환에 대한 인공지능 연구 (Artificial Intelligence for Clinical Research in Voice Disease)

  • 석준걸;권택균
    • 대한후두음성언어의학회지
    • /
    • 제33권3호
    • /
    • pp.142-155
    • /
    • 2022
  • Diagnosis using voice is non-invasive and can be implemented through various voice recording devices; therefore, it can be used as a screening or diagnostic assistant tool for laryngeal voice disease to help clinicians. The development of artificial intelligence algorithms, such as machine learning, led by the latest deep learning technology, began with a binary classification that distinguishes normal and pathological voices; consequently, it has contributed in improving the accuracy of multi-classification to classify various types of pathological voices. However, no conclusions that can be applied in the clinical field have yet been achieved. Most studies on pathological speech classification using speech have used the continuous short vowel /ah/, which is relatively easier than using continuous or running speech. However, continuous speech has the potential to derive more accurate results as additional information can be obtained from the change in the voice signal over time. In this review, explanations of terms related to artificial intelligence research, and the latest trends in machine learning and deep learning algorithms are reviewed; furthermore, the latest research results and limitations are introduced to provide future directions for researchers.

Fuzzy Rule Base를 이용한 한국어 연속 음성인식 (A Korean Speech Recognition Using Fuzzy Rule Base)

  • 송정영
    • 공학논문집
    • /
    • 제2권1호
    • /
    • pp.13-21
    • /
    • 1997
  • 본 연구는 연속음성을 인식하기 위하여 특징 Parameter의 변동성을 Fuzzy 변수로 취하여 Membership 함수로 표현한 후, Fuzzy 추론으로 연속음성을 인식하는 연구이다. 특징 Parameter로는 Formant 주파수, Pitch, Log Energy, Zero Crossing Rate등을 사용한다. 연속음성의 Data로서는 한국어의 연속음성을 대상으로 하여 음성인식 system을 구현한다음, 인식실험을 통하여 본 연구의 유교성을 확인한다.

  • PDF

자동차 잡음 및 오디오 출력신호가 존재하는 자동차 실내 환경에서의 강인한 음성인식 (Robust Speech Recognition in the Car Interior Environment having Car Noise and Audio Output)

  • 박철호;배재철;배건성
    • 대한음성학회지:말소리
    • /
    • 제62호
    • /
    • pp.85-96
    • /
    • 2007
  • In this paper, we carried out recognition experiments for noisy speech having various levels of car noise and output of an audio system using the speech interface. The speech interface consists of three parts: pre-processing, acoustic echo canceller, post-processing. First, a high pass filter is employed as a pre-processing part to remove some engine noises. Then, an echo canceller implemented by using an FIR-type filter with an NLMS adaptive algorithm is used to remove the music or speech coming from the audio system in a car. As a last part, the MMSE-STSA based speech enhancement method is applied to the out of the echo canceller to remove the residual noise further. For recognition experiments, we generated test signals by adding music to the car noisy speech from Aurora 2 database. The HTK-based continuous HMM system is constructed for a recognition system. Experimental results show that the proposed speech interface is very promising for robust speech recognition in a noisy car environment.

  • PDF

연속음성신호에서 피치와 TSIUVC 추출에 관한 연구 (A Study on Extraction of Pitch and TSIUVC in Continuous Speech)

  • 이시우
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.85-92
    • /
    • 2005
  • 본 연구에서는 연속음성에서 개별 피치펄스와 TSIUVC를 추출하는 새로운 방법을 제안하고자 한다. TSIUVC 탐색과 추출은 FIR-STREAK 필터를 사용한 개별 피치펄스와 영교차율을 사용한다. 실험결과, 개별 피치펄스의 추출률은 남자음성에서 $96{\%}$, 여자음성에서 $85{\%}$를 얻을 수 있었다. 아울러, TSIUVC 추출률은 남자 음성의 경우 $88{\%}$에서 $94.9{\%}$, 여자 음성의 경우는 $84.8{\%}$에서 $94.9{\%}$의 결과를 얻었다. 제안한 방법은 음성분석, 음성합성, 새로운 Voiced/Silence/TSIUVC의 음성부호화 방식에 활용할 수 있을 것으로 기대된다.

  • PDF

자바를 이용한 음성인식 시스템에 관한 연구 (Study of Speech Recognition System Using the Java)

  • 최광국;김철;최승호;김진영
    • 한국음향학회지
    • /
    • 제19권6호
    • /
    • pp.41-46
    • /
    • 2000
  • 본 논문에서는 자바를 사용하여 연속분포 HMM 알고리즘과 Browser-embedded 모델로 음성인식시스템을 구현하였다. 이 시스템은 웹상에서 음성분석, 처리, 인식과정을 실행할 수 있도록 설계되었으며, 클라이언트에서는 자바애플릿을 이용하여 음성의 끝점검출과 MFCC와 에너지 그리고 델타계수들을 추출하여 소켓을 통해 서버로 전송하고, 서버는 HMM 인식기와 학습DB를 이용하여 인식을 수행하고 인식된 결과는 클라이언트에 전송되어 문자로 출력되어진다. 또한 이 시스템은 플랫폼에 독립적인 시스템으로 네트웍상에서 구축되었기 때문에 높은 에러율을 갖고 있지만 멀티미디어 분야에 접목시켰다는 의의와 향후에 새로운 정보통신 서비스가 될 가능성이 있음을 알 수 있었다.

  • PDF

한국어 음성인식 플랫폼(ECHOS)의 개선 및 평가 (Improvement and Evaluation of the Korean Large Vocabulary Continuous Speech Recognition Platform (ECHOS))

  • 권석봉;윤성락;장규철;김용래;김봉완;김회린;유창동;이용주;권오욱
    • 대한음성학회지:말소리
    • /
    • 제59호
    • /
    • pp.53-68
    • /
    • 2006
  • We report the evaluation results of the Korean speech recognition platform called ECHOS. The platform has an object-oriented and reusable architecture so that researchers can easily evaluate their own algorithms. The platform has all intrinsic modules to build a large vocabulary speech recognizer: Noise reduction, end-point detection, feature extraction, hidden Markov model (HMM)-based acoustic modeling, cross-word modeling, n-gram language modeling, n-best search, word graph generation, and Korean-specific language processing. The platform supports both lexical search trees and finite-state networks. It performs word-dependent n-best search with bigram in the forward search stage, and rescores the lattice with trigram in the backward stage. In an 8000-word continuous speech recognition task, the platform with a lexical tree increases 40% of word errors but decreases 50% of recognition time compared to the HTK platform with flat lexicon. ECHOS reduces 40% of recognition errors through incorporation of cross-word modeling. With the number of Gaussian mixtures increasing to 16, it yields word accuracy comparable to the previous lexical tree-based platform, Julius.

  • PDF

한국어 핵심어 추출 및 연속 음성 인식을 위한 다목적 전처리 프로세서 설계 (Design of Multi-Purpose Preprocessor for Keyword Spotting and Continuous Language Support in Korean)

  • 김동헌;이상준
    • 디지털융복합연구
    • /
    • 제11권1호
    • /
    • pp.225-236
    • /
    • 2013
  • 음성인식 기술은 단순한 단어 인식을 넘어 자연스럽게 발성한 연속 음성도 인식할 수 있는 수준으로 발전해 왔다. 아이폰에 탑재된 자연어 음성인식 처리 소프트웨어인 시리(Siri)가 2010년에 발표되면서, 음성인식에 대한 연구가 관심을 받고 있다. 한국어 음성 인식 소프트웨어들은 대부분 단어 위주의 인식 서비스로 구성 되어 있으며, 잡음처리 및 음성 에너지 조절 기능들이 부족해 만족할 만한 인식률을 보이지 못하고 있다. 또한 요구된 발성 규칙을 따르지 못한 음성 질의들은 아예 처리하지 못하고 있는 실정이다. 본 논문에서는 이러한 현실적 어려움을 개선할 수 있도록 다목적 전처리 프로세서를 제안하였다. 이 처리기는 음성인식 엔진에 독립적이며, 잡음 제거 기능, 규칙에 따르지 않은 음성 질의도 처리 할 수 있는 핵심어 추출 기능, 그 핵심어를 수식하는 전술부 및 그 해당 음성 질의로부터 수행하기를 원하는 후술부 까지도 추출할 수 있는 기능을 갖추도록 하였다. 실험을 통해, 잡음 제거 효과 평가, 핵심어 인식 성공률, 연속음 인식 성공률을 측정하여 제안한 방법의 타당성을 확인하였다.

Support Vector Machines에 의한 음소 분할 및 인식 (Phoneme segmentation and Recognition using Support Vector Machines)

  • 이광석;김현덕
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.981-984
    • /
    • 2010
  • 우리는 본 연구에서 학습방법으로서 연속음성을 초성, 중성, 종성의 음소단위로 분할하기 위하여 인공 신경회로망의 하나인 SVMs을 사용하였으며 분할한 음소단위의 음성으로 연속음성인식에 적용하여 그 성능을 살펴보았다. 음소경계는 단 구간에서의 최대 주파수를 가진 알고리듬에 의하여 결정되며 또한 음성인식처리는 CHMM에 의하여 이루어지며 목측에 의한 분할결과와도 비교하여 살펴보았다. 시뮬레이션 결과로부터 초성의 분할성능에서 제안한 SVMs를 적용한 결과가 GMMs보다 효율적인을 알 수 있었다.

  • PDF

MMSE-STSA 기반의 음성개선 기법에서 잡음 및 신호 전력 추정에 사용되는 파라미터 값의 변화에 따른 잡음음성의 인식성능 분석 (Performance Analysis of Noisy Speech Recognition Depending on Parameters for Noise and Signal Power Estimation in MMSE-STSA Based Speech Enhancement)

  • 박철호;배건성
    • 대한음성학회지:말소리
    • /
    • 제57호
    • /
    • pp.153-164
    • /
    • 2006
  • The MMSE-STSA based speech enhancement algorithm is widely used as a preprocessing for noise robust speech recognition. It weighs the gain of each spectral bin of the noisy speech using the estimate of noise and signal power spectrum. In this paper, we investigate the influence of parameters used to estimate the speech signal and noise power in MMSE-STSA upon the recognition performance of noisy speech. For experiments, we use the Aurora2 DB which contains noisy speech with subway, babble, car, and exhibition noises. The HTK-based continuous HMM system is constructed for recognition experiments. Experimental results are presented and discussed with our findings.

  • PDF

Recognition of Emotion and Emotional Speech Based on Prosodic Processing

  • Kim, Sung-Ill
    • The Journal of the Acoustical Society of Korea
    • /
    • 제23권3E호
    • /
    • pp.85-90
    • /
    • 2004
  • This paper presents two kinds of new approaches, one of which is concerned with recognition of emotional speech such as anger, happiness, normal, sadness, or surprise. The other is concerned with emotion recognition in speech. For the proposed speech recognition system handling human speech with emotional states, total nine kinds of prosodic features were first extracted and then given to prosodic identifier. In evaluation, the recognition results on emotional speech showed that the rates using proposed method increased more greatly than the existing speech recognizer. For recognition of emotion, on the other hands, four kinds of prosodic parameters such as pitch, energy, and their derivatives were proposed, that were then trained by discrete duration continuous hidden Markov models(DDCHMM) for recognition. In this approach, the emotional models were adapted by specific speaker's speech, using maximum a posteriori(MAP) estimation. In evaluation, the recognition results on emotional states showed that the rates on the vocal emotions gradually increased with an increase of adaptation sample number.