• Title/Summary/Keyword: 음성인식률

Search Result 549, Processing Time 0.023 seconds

Improvement in Korean Speech Recognition using Dynamic Multi-Group Mixture Weight (동적 다중 그룹 혼합 가중치를 이용한 한국어 음성 인식의 성능향상)

  • 황기찬;김종광;김진수;이정현
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.544-546
    • /
    • 2002
  • 본 논문은 CDHMM(Continuous Density Hidden Markov Model)의 훈련하는 방법을 동적 다중 그룹 혼합 가중치(Dynamic Mutli-Group mixture weight)을 이용하여 재구성하는 방법을 제안한다. 음성은 Hidden 상태열에 의하여 특성화되고, 각 상태는 가중된 혼합 가우시안 밑도 함수에 의해 표현된다. 음성신호를 더욱더 정확하게 계산하려면 각 상태를 위한 가우시안 함수를 더욱더 많이 사용해야 하며 이것은 많은 계산량이 요구된다. 이러한 문제는 가우시안 분포 확률의 통계적인 평균을 이용하면 계산량을 줄일 수 있다. 그러나 이러한 기존의 방법들은 다양한 화자의 발화속도와 가중치의 적용이 적합하지 못하여 인식률을 저하시키는 단점을 가지고 있다. 이 문제를 다양한 화자의 발화속도에 적합하도록 화자의 화자의 발화속도에 따라 동적으로 5개의 그룹으로 구성하고 동적 다중 그룹 혼합 가중치를 적용하여 CDHMM 파라미터를 재구성함으로써 8.5%의 인식율이 증가되었다.

  • PDF

Conversation Analysis based on User-Personality Traits for Voice User Interface (음성 인터페이스를 위한 사용자 성격 관련 담화분석)

  • Kim, Jinguk;Kwon, Soonil
    • Annual Conference of KIPS
    • /
    • 2011.11a
    • /
    • pp.341-343
    • /
    • 2011
  • 이번 연구에서는 음성신호로부터 성격을 자동으로 인식하는 성격 인식 사용자 인터페이스에 대한 기술을 소개한다. 사용자의 음성대화 과정에서 말투로부터 성격 인식, 특히 외향과 내향을 구분해 내기 위해 사용되는 행동패턴에 있어서 대화중에 발생하는 생각을 위한 시간의 할애를 기초한다. 이를 바탕으로 질문이 주어진 후 이에 대한 답변을 시작하는데 걸리는 시간, 그리고 대화의 중간에 생각할 시간을 갖기 위해 활용하는 언어 주저형의 빈도수를 고려하여 사용자 성격분류의 실험을 실시하였다. 그 결과 평균적으로 약 65%의 성공률을 보였다.

Vocabulary Recognition Retrieval Optimized System using MLHF Model (MLHF 모델을 적용한 어휘 인식 탐색 최적화 시스템)

  • Ahn, Chan-Shik;Oh, Sang-Yeob
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.10
    • /
    • pp.217-223
    • /
    • 2009
  • Vocabulary recognition system of Mobile terminal is executed statistical method for vocabulary recognition and used statistical grammar recognition system using N-gram. If limit arithmetic processing capacity in memory of vocabulary to grow then vocabulary recognition algorithm complicated and need a large scale search space and many processing time on account of impossible to process. This study suggest vocabulary recognition optimize using MLHF System. MLHF separate acoustic search and lexical search system using FLaVoR. Acoustic search feature vector of speech signal extract using HMM, lexical search recognition execution using Levenshtein distance algorithm. System performance as a result of represent vocabulary dependence recognition rate of 98.63%, vocabulary independence recognition rate of 97.91%, represent recognition speed of 1.61 second.

Development of Voice Information System for Safe Navigation in Marine Simulator (시뮬레이터 기반 음성을 이용한 항행정보 안내시스템의 개발)

  • Son N. S.;Kim S. Y.
    • Journal of the Korean Society for Marine Environment & Energy
    • /
    • v.5 no.3
    • /
    • pp.28-34
    • /
    • 2002
  • As the technology of Speech Recognition(SR) and Text-To-Speech(TTS) develops rapidly, voice control and guidance system is thought to be very helpful for safe navigation. But Voice Control and Guidance System(VCGS) is not yet so popularly included in Navigation Supporting System(NSS). The main reason of this is that VCGS is so complicated and user-unfriendly that navigation officers hesitate to use VCGS. Frequent errors in operating VCGS due to low rate of SR are another reason. To make VCGS more practicable for safe navigation, we design the user-friendly VCGS. Firstly, by using interviews we survey functions and procedures that navigation officers want to be included in VCGS. Secondly, to raise the rate of SR, we tun the environmental noise in bridge and to reduce the errors due to low rate of SR in operating VCGS, we design the functions of self-correction. Also we apply a user-independent SR engine so that procedures of teaming of speakers is basically not necessary. Using simulator experiments the functions and procedures of the user-friendly YCGS for safe navigation are evaluated and the results of evaluation are fed back to the design. As a result, we can design the VCGS more helpful for safe navigation. In this paper, we describe the features of the user-friendly VCGS for safe navigation and discuss the results of simulator experiments.

  • PDF

The Continuous Speech Recognition with Prosodic Phrase Unit (운율구 단위의 연속음 인식)

  • 강지영;엄기완;김진영;최승호
    • The Journal of the Acoustical Society of Korea
    • /
    • v.18 no.8
    • /
    • pp.9-16
    • /
    • 1999
  • Generally, a speaker structures utterances very clearly by grouping words into phrases. This facilitates the listener's recovery of the meaning of the utterance and the speaker's intention. To this purpose, a speaker uses, among other things, prosodic information such as intonation pause, duration, intensity, etc. The research described here is concerned with the relationship between the strength of prosodic boundaries in spoken utterances as perceived by untrained listeners(Perceptual boundary strength, PBS)-In this paper, the preceptual boundary strength is used as the same meaning of the prosodic boundary strength-and prosodic information. We made a rule determinating the prosodic boundaries and verified the usefulness of the prosodic phrase as a recognition unit. Experiments results showed that the performance of speech recognition(SR) is improved in aspect of recognition rate and time compared with that using sentences as recognition unit. In the future we will suggest the methods that estimate more appropriate boundaries and study more various methods of prosody assisted SR.

  • PDF

Improving the Performance of a Speech Recognition System in a Vehicle by Distinguishing Male/Female Voice (성별 구별방법에 의한 자동차 내 음성 인식 성능 향상)

  • Yang, Jin-Woo;Kim, Sun-Hyeop
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.12
    • /
    • pp.1174-1182
    • /
    • 2000
  • 본 논문은 주행중인 자동차 환경에서 운전자의 안전성 및 편의성의 동시 확보를 위하여, 보조적인 스위치 조작 없이 상시 음성의 입, 출력이 가능한 시스템을 제안하였다. 이대 잡음에 강인한 threshold 값을 구하기 위하여, 1.5초마다 기준 에너지와 영 교차율을 변경하였으며 대역 통과 여과기를 이용하여 1차, 2차로 나누어 실시간 상태에서 자동으로, 정확하게 끝점 검출을 처리하였다. 또한 남성, 여성을 피치검출로 구분하여 모델을 선택하게 하였고, 주행중인 자동차 속도에 따라 가장 적합한 모델을 사용하기 위하여 Idle-40km, 40-80km, 80-100km로 구분하여 남성, 여성 모델을 각각 구분하여 인식할 수 있게 하였다. 그리고, 음성의 특징 벡터와 인식 알고리즘은 PLP 13차와 OSDP(one-Stage Dynamic Programming)을 사용하였다. 본 실험은 서울시내 도로 및 내부 순환도로에서 각각 속도별로 구분하여 화자독립 인식 실험을 한 결과 40-80km 상태에서 남자는 96.8%, 여자는 95.1%, 80-100km 상태에서는 남자 91.6%, 여자는 90.6%의 인식결과를 얻을 수 있었고, 화자종속 인식실험 결과 40-80km 상태에서 남자는 98%, 여자는 96%, 80-100km 상태에서는 남자는 96%, 여자는 94%의 높은 인식률을 얻었으므로, system의 유효성을 입증하였다.

  • PDF

A Study on Single Vowels Recognition using VQ and Multi-layer Perceptron (VQ와 Multi-layer perceptron을 이용한 단모음 인식에 관한 연구)

  • 안태옥;이상훈;김순협
    • The Journal of the Acoustical Society of Korea
    • /
    • v.12 no.1
    • /
    • pp.55-60
    • /
    • 1993
  • 본 논문은 불특정 화자의 단모음 인식에 관한 연구로써, VQ(Vectro Quantization)와 MLP(multi-layer perceptron)에 의한 음성 인식 방법을 제안한다. 이 방법은 VQ codebook을 구하고 이를 이용해서 관측열(observation sequence)을 구해각 codeword가 데이터로부터 가질 수 있는 확률값을 계산하여 이 값을 신경 회로망의 입력으로 사용하는 방법이다. 인식 대상으로는 한국어 단모음을 선정하였으며 10명의 남성 화자가 8개의 단모음을 10번씩 발음한 것으로 시스템의 효율성을 알아보기 위해 VQ/HMM(hidden markov model)에 의한 인식과 비교 실험한다. 실험 결과에 의하면, 시스템의 단순성에도 불구하고 학습능력애 뛰어난 관계로 VQ/HMM보다 VQ와 MLP에 의한 음성 인식률이 향상됨을 보여준다.

  • PDF

Performance Evaluation of the Variable Vocabulary Speech Recognition System in the Noisy and Vocabulary-Independent Environments (잡음환경 및 어휘독립 환경에서의 가변어휘 음성인식기의 성능 분석)

  • 이승훈
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.08a
    • /
    • pp.56-59
    • /
    • 1998
  • POW 3848 DB 및 SNR 이 크게 다른 2 종류의 PC168 DB를 대상으로 가변어휘 음성인식 시스템을 이용하여 훈련 및 성능 평가 실험을 수행한 내용에 대해서 기술하고 있다. 실험의 목적은 위의 3종류의 DB를 조합하여 얻은 DB 환경하에서 인식기를 훈련시키면서, DB 의 조합 및 훈련방법에 따른 인식기의 성능과의 상관관계를 도출하고자 하였다. DB 의 조합은 POW DB 와 SNR 이 높은 PC DB , 및 3종류의 DB 모두로 구성하였다. 인식기는 40개의 음소로 구성된 문맥 독립형 SCHMM 모델이며, 각 음소당 3개의 상태로 이루어져 있다. 실험 결과, 대부분의 경우에서 ITERATION이 1.0인 경우에 최고 인식률을 나타내고 있으며, INTERATION 이 3.0 이상인 경우에는 항상 CASE 3의 실험방법이 우세한 결과를 나타내었다. 또한 CASE 1으로 훈련한 경우가 CASE 2 보다는 각각의 실험 DB 에 대해서 대체적으로 좋은 결과를 보였다.

  • PDF

A Study on Speech Recognition System Development for Control of CD-ROM Title (CD-ROM Title 제어를 위한 음성인식 상용화 시스템에 관한 연구)

  • Lee Jungsuk;Yang Jinwoo;Choi gabkeun;Kim Soonhyob
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.187-190
    • /
    • 2000
  • 본 논문은 상용화를 목적으로 하는 CD-ROM Title에 음성인식 시스템을 결합시킴으로써 컨텐츠의 검색과 제어를 쉽고 편리하게 하는데 목적이 있다 콘덴서 마이크로 구축한 DB로실험을 하였고, 또한 on-line 인터페이스와 병행하여 작업을 하였다. 본 논문은 상용화를 목적으로 하기 때문에 연령에 상관없이 인식이 가능해야 하므로 10대에서 50대에 걸쳐 데이터를 수집하였고, 인식 시에 전체 연령별로 인식률의 편차가 심하지 않게 하기 위해서 연령별로 데이터를 섞어서 생성하였다. 모델은 지속시간을 고려한 DMS 모델, 인식은 OSDP를 사용하였다.

  • PDF

A study on the enhancement of emotion recognition through facial expression detection in user's tendency (사용자의 성향 기반의 얼굴 표정을 통한 감정 인식률 향상을 위한 연구)

  • Lee, Jong-Sik;Shin, Dong-Hee
    • Science of Emotion and Sensibility
    • /
    • v.17 no.1
    • /
    • pp.53-62
    • /
    • 2014
  • Despite the huge potential of the practical application of emotion recognition technologies, the enhancement of the technologies still remains a challenge mainly due to the difficulty of recognizing emotion. Although not perfect, human emotions can be recognized through human images and sounds. Emotion recognition technologies have been researched by extensive studies that include image-based recognition studies, sound-based studies, and both image and sound-based studies. Studies on emotion recognition through facial expression detection are especially effective as emotions are primarily expressed in human face. However, differences in user environment and their familiarity with the technologies may cause significant disparities and errors. In order to enhance the accuracy of real-time emotion recognition, it is crucial to note a mechanism of understanding and analyzing users' personality traits that contribute to the improvement of emotion recognition. This study focuses on analyzing users' personality traits and its application in the emotion recognition system to reduce errors in emotion recognition through facial expression detection and improve the accuracy of the results. In particular, the study offers a practical solution to users with subtle facial expressions or low degree of emotion expression by providing an enhanced emotion recognition function.