• 제목/요약/키워드: computer-based speech analysis system

검색결과 35건 처리시간 0.026초

A Study on Image Recommendation System based on Speech Emotion Information

  • Kim, Tae Yeun;Bae, Sang Hyun
    • 통합자연과학논문집
    • /
    • 제11권3호
    • /
    • pp.131-138
    • /
    • 2018
  • In this paper, we have implemented speeches that utilized the emotion information of the user's speech and image matching and recommendation system. To classify the user's emotional information of speech, the emotional information of speech about the user's speech is extracted and classified using the PLP algorithm. After classification, an emotional DB of speech is constructed. Moreover, emotional color and emotional vocabulary through factor analysis are matched to one space in order to classify emotional information of image. And a standardized image recommendation system based on the matching of each keyword with the BM-GA algorithm for the data of the emotional information of speech and emotional information of image according to the more appropriate emotional information of speech of the user. As a result of the performance evaluation, recognition rate of standardized vocabulary in four stages according to speech was 80.48% on average and system user satisfaction was 82.4%. Therefore, it is expected that the classification of images according to the user's speech information will be helpful for the study of emotional exchange between the user and the computer.

TTS를 이용한 매장 음악 방송 서비스 시스템 구현 (Implementation of Music Broadcasting Service System in the Shopping Center Using Text-To-Speech Technology)

  • 장문수;강선미
    • 음성과학
    • /
    • 제14권4호
    • /
    • pp.169-178
    • /
    • 2007
  • This thesis describes the development of a service system for small-sized shops which support not only music broadcasting, but editing and generating voice announcement using the TTS(Text-To-Speech) technology. The system has been developed based on web environments with an easy access whenever and wherever it is needed. The system is able to control the sound using silverlight media player based on the ASP .NET 2.0 technology without any additional application software. Use of the Ajax control allows for multiple users to get the maximum load when needed. TTS is built in the server side so that the service can be provided without user's computer. Due to convenience and usefulness of the system, the business sector can provide better service to many shops. Further additional functions such as statistical analysis will undoubtedly help shop management provide desirable services.

  • PDF

GMM based Nonlinear Transformation Methods for Voice Conversion

  • Vu, Hoang-Gia;Bae, Jae-Hyun;Oh, Yung-Hwan
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2005년도 추계 학술대회 발표논문집
    • /
    • pp.67-70
    • /
    • 2005
  • Voice conversion (VC) is a technique for modifying the speech signal of a source speaker so that it sounds as if it is spoken by a target speaker. Most previous VC approaches used a linear transformation function based on GMM to convert the source spectral envelope to the target spectral envelope. In this paper, we propose several nonlinear GMM-based transformation functions in an attempt to deal with the over-smoothing effect of linear transformation. In order to obtain high-quality modifications of speech signals our VC system is implemented using the Harmonic plus Noise Model (HNM)analysis/synthesis framework. Experimental results are reported on the English corpus, MOCHA-TlMlT.

  • PDF

Implementation of HMM-Based Speech Recognizer Using TMS320C6711 DSP

  • Bae Hyojoon;Jung Sungyun;Son Jongmok;Kwon Hongseok;Kim Siho;Bae Keunsung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 ICEIC The International Conference on Electronics Informations and Communications
    • /
    • pp.391-394
    • /
    • 2004
  • This paper focuses on the DSP implementation of an HMM-based speech recognizer that can handle several hundred words of vocabulary size as well as speaker independency. First, we develop an HMM-based speech recognition system on the PC that operates on the frame basis with parallel processing of feature extraction and Viterbi decoding to make the processing delay as small as possible. Many techniques such as linear discriminant analysis, state-based Gaussian selection, and phonetic tied mixture model are employed for reduction of computational burden and memory size. The system is then properly optimized and compiled on the TMS320C6711 DSP for real-time operation. The implemented system uses 486kbytes of memory for data and acoustic models, and 24.5kbytes for program code. Maximum required time of 29.2ms for processing a frame of 32ms of speech validates real-time operation of the implemented system.

  • PDF

구개인두부전증 환자와 모의 음성의 모음과 자음 분석 (Analysis on Vowel and Consonant Sounds of Patent's Speech with Velopharyngeal Insufficiency (VPI) and Simulated Speech)

  • 성미영;김희진;권택균;성명훈;김우일
    • 한국정보통신학회논문지
    • /
    • 제18권7호
    • /
    • pp.1740-1748
    • /
    • 2014
  • 본 논문에서는 구개인두부전증 (VPI) 환자 발음과 정상인의 모의 발음에 대한 듣기 평가와 음향 분석을 실시한다. 본 연구를 위해 음성 데이터 수집을 위해 50개의 단어, 모음 및 단음절로 이루어진 발음 목록을 설정한다. 듣기 평가실험의 편의를 위해 웹 기반의 듣기 평가 시스템을 구축한다. 듣기 평가 결과는 실제 VPI 환자의 발음에 대한 오인식 경향과 모의 발음의 오인식 경향이 유사함을 나타낸다. 이러한 유사성은 모음의 포먼트 위치와 자음의 스펙트럼의 비교를 통해서도 확인할 수 있다. 실험 결과는 본 연구에서 사용한 정상인의 VPI 모의 발화 기법이 실제 환자의 음성을 비교적 효과적으로 모의하는 것을 반영하는 결과이다. 향후 VPI 환자의 음성 인식 과정에서 정상인의 모의 발화음성 데이터를 음향 모델의 적응 기법과 같은 분야에 유용하게 사용할 수 있을 것으로 기대한다.

영한 기계번역에서의 영어 품사결정 모델 (A Model of English Part-Of-Speech Determination for English-Korean Machine Translation)

  • 김성동;박성훈
    • 지능정보연구
    • /
    • 제15권3호
    • /
    • pp.53-65
    • /
    • 2009
  • 영한 기계번역에서 영어 단어의 품사결정은 번역할 문장에 사용된 어휘의 품사 모호성을 해소하기 위해 필요하다. 어휘의 품사 모호성은 구문 분석을 복잡하게 하고 정확한 번역을 생성하는 것을 어렵게 한다. 본 논문에서는 이러한 문제점을 해결하기 위해 어휘 분석 이후 구문 분석 이전에 품사 모호성을 해소하려 하였으며 품사 모호성을 해소하기 위한 CatAmRes 모델을 제안하고 다른 품사태깅 방법과 성능 비교를 하였다. CatAmRes는 Penn Treebank 말뭉치를 이용하여 Bayesian Network를 학습하여 얻은 확률 분포와 말뭉치에서 나타나는 통계 정보를 이용하여 영어 단어의 품사를 결정을 한다. 본 논문에서 제안한 영어 품사결정 모델 CatAmRes는 결정할 품사의 적정도 값을 계산하는 Calculator와 계산된 적정도 값에 근거하여 품사를 결정하는 POSDeterminer로 구성된다. 실험에서는 CatAmRes의 동작과 성능을 테스트 하기 위해 WSJ, Brown, IBM 영역의 말뭉치에서 추출한 테스트 데이터를 이용하여 품사결정의 정확도를 평가하였다.

  • PDF

스마트폰 환경의 인증 성능 최적화를 위한 다중 생체인식 융합 기법 연구 (Authentication Performance Optimization for Smart-phone based Multimodal Biometrics)

  • 문현준;이민형;정강훈
    • 디지털융복합연구
    • /
    • 제13권6호
    • /
    • pp.151-156
    • /
    • 2015
  • 본 논문에서는 스마트폰 환경의 얼굴 검출, 인식 및 화자 인증 기반 다중생체인식 개인인증 시스템을 제안한다. 제안된 시스템은 Modified Census Transform과 gabor filter 및 k-means 클러스터 분석 알고리즘을 통해 얼굴의 주요 특징을 추출하여 얼굴인식을 위한 데이터 전처리를 수행한다. 이후 Linear Discriminant Analysis기반 본인 인증을 수행하고(얼굴인식), Mel Frequency Cepstral Coefficient기반 실시간성 검증(화자인증)을 수행한다. 화자인증에 사용하는 음성 정보는 실시간으로 변화하므로 본 논문에서는 Dynamic Time Warping을 통해 이를 해결한다. 제안된 다중생체인식 시스템은 얼굴 및 음성 특징 정보를 융합 및 스마트폰 환경에 최적화하여 실시간 얼굴검출, 인식과 화자인증 과정을 수행하며 단일 생체인식에 비해 약간 낮은 95.1%의 인식률을 보이지만 1.8%의 False Acceptance Ratio를 통해 객관적인 실시간 생체인식 성능을 입증하여 보다 신뢰할 수 있는 시스템을 완성한다.

퍼스컴을 이용한 영어 강세 및 억양 교육 프로그램의 개발 연구 (Development of English Stress and Intonation Training System and Program for the Korean Learners of English Using Personal Computer (P.C.))

  • 전병만;배두본;이종화;유창규
    • 음성과학
    • /
    • 제5권2호
    • /
    • pp.57-75
    • /
    • 1999
  • The purpose of this paper is to develop an English prosody training system using PC for Korean learners of English. The program is called Intonation Training Tool (ITT). It operates on DOS 5.0. The hardware for this program requires over IBM PC 386 with 4 MBytes main memory, SVGA (1 MByte or more) for graphic, soundblaster 16 and over 14 inch monitor size. The ITT program operates this way: the learners can listen as well as see the English teacher's stress and intonation patterns on the monitor. The learner practices the same patterns with a microphone. This program facilitates the learner's stress and intonation patterns to overlap the teacher's patterns. The learner can find his/her stress and intonation errors and correct these independently. This program is expected to be a highly efficient learning tool for Korean learners of English in their English prosody training in the English class without the aid of a native English speaker in the classroom.

  • PDF

화자 구분 시스템의 관심 화자 추출을 위한 i-vector 유사도 기반의 음성 분할 기법 (I-vector similarity based speech segmentation for interested speaker to speaker diarization system)

  • 배아라;윤기무;정재희;정보경;김우일
    • 한국음향학회지
    • /
    • 제39권5호
    • /
    • pp.461-467
    • /
    • 2020
  • 잡음이 많고 여러 사람이 있는 공간에서 음성인식의 성능은 깨끗한 환경보다 저하될 수밖에 없다. 이러한 문제점을 해결하기 위해 본 논문에서는 여러 신호가 섞인 혼합 음성에서 관심 있는 화자의 음성만 추출한다. 중첩된 구간에서도 효과적으로 분리해내기 위해 VoiceFilter 모델을 사용하였으며, VoiceFilter 모델은 여러 화자의 발화로 이루어진 음성과 관심 있는 화자의 발화로만 이루어진 참조 음성이 입력으로 필요하다. 따라서 본 논문에서는 Probabilistic Linear Discriminant Analysis(PLDA) 유사도 점수로 군집화하여 혼합 음성만으로도 참조 음성을 대체해 사용하였다. 군집화로 생성한 음성에서 추출한 화자 특징과 혼합 음성을 VoiceFilter 모델에 넣어 관심 있는 화자의 음성만 분리함으로써 혼합 음성만으로 화자 구분 시스템을 구축하였다. 2명의 화자로 이루어진 전화 상담 데이터로 화자 구분 시스템의 성능을 평가하였으며, 분리 전 상담사(Rx)와 고객(Tx)의 음성 Source to Distortion Ratio(SDR)은 각각 5.22 dB와 -5.22 dB에서 분리 후 각각 11.26 dB와 8.53 dB로 향상된 성능을 보였다.

비음 측정기, 전기 구개도 및 음성 분석 컴퓨터 시스템을 이용한 구개열 언어 장애의 특성 연구 (The Speech of Cleft Palate Patients using Nasometer, EPG and Computer based Speech Analysis System)

  • 신효근;김오환;김현기
    • 음성과학
    • /
    • 제4권2호
    • /
    • pp.69-89
    • /
    • 1998
  • The aim of this study is to develop an objectively method of speech evaluation for children with cleft palates. To assess velopharyngeal function, Visi-Pitch, Computerized Speech Lab. (CSL), Nasometer and Palatometer were used for this study. Acoustic parameters were measured depending on the diagnostic instruments: Pitch (Hz), sound pressure level (dB), jitter (%) and diadochokinetic rate by Visi-Pitch, VOT and vowels formant ($F_1\;&\;F_2$) by a Spectrography and the degree of hypernasality by Nasometer. In addition, Palatometer was used to find the lingual-palatal patterns of cleft palate. Ten children with cleft palates and fifty normal children participated in the experiment. The results are as follows: (1) Higher nasalance of children with cleft palates showed the resonance disorder. (2) The cleft palate showed palatal misarticulation and lateral misarticulation on the palatogram. (3) Children with cleft palates showed the phonatory and respiratory problems. The duration of sustained vowels in children with cleft palates was shorter than in the control groups. The pitch of children with cleft palates was higher than in the control groups. However, intensity, jitter and diadochokinetic rate of children with cleft palates were lower than in the control group. (4) On the Spectrogram, the VOT of children with cleft palates was longer than control group. $F_1\;&\;F_2$ were lower than in the control group.

  • PDF