• 제목/요약/키워드: monosyllables

검색결과 16건 처리시간 0.021초

소음이 외국어 학습에 미치는 영향 (Noise Effects on Foreign Language Learning)

  • 임은수;김현기;김병삼;김종교
    • 음성과학
    • /
    • 제6권
    • /
    • pp.197-217
    • /
    • 1999
  • In a noisy class, the acoustic-phonetic features of the teacher and the perceptual features of learners are changed comparison with a quiet environment. Acoustical analyses were carried out on a set of French monosyllables consisting of 17 consonants and three vowel /a, e, i/, produced by 1 male speaker talking in quiet and in 50, 60 and 70 dB SPL of masking noise on headphone. The results of the acoustic analyses showed consistent differences in energy and formant center frequency amplitude of consonants and vowels, $F_1$ frequency of vowel and duration of voiceless stops suggesting the increase of vocal effort. The perceptual experiments in which 18 undergraduate female students learning French served as the subjects, were conducted in quiet and in 50, 60 dB of masking noise. The identification scores on consonants were higher in Lombard speech than in normal speech, suggesting that the speaker's vocal effort is useful to overcome the masking effect of noise. And, with increased noise level, the perceptual response to the French consonants given had a tendency to be complex and the subjective reaction score on the noise using the vocabulary representative of 'unpleasant' sensation to be higher. And, in the point of view on the L2(second language) acquisition, the influence of L1 (first language) on L2 examined in the perceptual result supports the interference theory.

  • PDF

광류와 조음 발성 특성을 이용한 립리딩 알고리즘 (A Lip-reading Algorithm Using Optical Flow and Properties of Articulatory Phonation)

  • 이미애
    • 한국멀티미디어학회논문지
    • /
    • 제21권7호
    • /
    • pp.745-754
    • /
    • 2018
  • Language is an essential tool for verbal and emotional communication among human beings, enabling them to engage in social interactions. Although a majority of hearing-impaired people can speak; however, they are unable to receive feedback on their pronunciation most of them can speak. However, they do not receive feedback on their pronunciation. This results in impaired communication owing to incorrect pronunciation, which causes difficulties in their social interactions. If hearing-impaired people could receive continuous feedback on their pronunciation and phonation through lip-reading training, they could communicate more effectively with people without hearing disabilities, anytime and anywhere, without the use of sign language. In this study, the mouth area is detected from videos of learners speaking monosyllabic words. The grayscale information of the detected mouth area is used to estimate a velocity vector using Optical Flow. This information is then quantified as feature values to classify vowels. Subsequently, a system is proposed that classifies monosyllables by algebraic computation of geometric feature values of lips using the characteristics of articulatory phonation. Additionally, the system provides feedback by evaluating the comparison between the information which is obtained from the sample categories and experimental results.

한국어 단음절에서 자음과 모음 자질의 비선형적 지각 (Nonlinear Interaction between Consonant and Vowel Features in Korean Syllable Perception)

  • 배문정
    • 말소리와 음성과학
    • /
    • 제1권4호
    • /
    • pp.29-38
    • /
    • 2009
  • This study investigated the interaction between consonants and vowels in Korean syllable perception using a speeded classification task (Garner, 1978). Experiment 1 examined whether listeners analytically perceive the component phonemes in CV monosyllables when classification is based on the component phonemes (a consonant or a vowel) and observed a significant redundancy gain and a Garner interference effect. These results imply that the perception of the component phonemes in a CV syllable is not linear. Experiment 2 examined the further relation between consonants and vowels at a subphonemic level comparing classification times based on glottal features (aspiration and lax), on place of articulation features (labial and coronal), and on vowel features (front and back). Across all feature classifications, there were significant but asymmetric interference effects. Glottal feature.based classification showed the least amount of interference effect, while vowel feature.based classification showed moderate interference, and place of articulation feature-based classification showed the most interference. These results show that glottal features are more independent to vowels, but place features are more dependent to vowels in syllable perception. To examine the three-way interaction among glottal, place of articulation, and vowel features, Experiment 3 featured a modified Garner task. The outcome of this experiment indicated that glottal consonant features are independent to both the place of articulation and vowel features, but the place of articulation features are dependent to glottal and vowel features. These results were interpreted to show that speech perception is not abstract and discrete, but nonlinear, and that the perception of features corresponds to the hierarchical organization of articulatory features which is suggested in nonlinear phonology (Clements, 1991; Browman and Goldstein, 1989).

  • PDF

음소판별필터를 이용한 한국어 단음절 음성인식 (Speech Recognition on Korean Monosyllable using Phoneme Discriminant Filters)

  • 허성필;정현열;김경태
    • 한국음향학회지
    • /
    • 제14권1호
    • /
    • pp.31-39
    • /
    • 1995
  • 선형판별함수를 이용하여 음소단위의 판별필터를 구성하였다. 음소판별필터를 이용한 음성인식 시스템은 발성구간의 검출에 유용하고, 음성의 구분과 식별을 동시에 시행할 수 있으며 모든 음소를 동일한 인식모델로 취급하는 것이 가능하였다. 이 때 전문가의 경험적 지식을 이용하지 않고 수리적인 반복학습방법으로 시스템을 구성한 것이 특징이다. 모든 음소판별필터는 독립적으로 동작하므로 하나의 음소구간에 대해 복수필터 출력이 발생될 수 있으며, 발성구간의 음소가 탈락하는 경우도 있다. 따라서 본 연구에서는 무게벡터와 패턴벡터와의 내적에 통합계수를 이용하여 최대값을 선택하는 방법으로 다수개의 경합출력을 하나로 통합하였으며, 동시에 시간적인 정보와 중간값필터를 이용하여 탈락과 오인식되는 음소를 보상하므로써 인식율을 향상시켰다. 인식실험결과 모음의 경우 학습용자료에서는 $96.5\%$, 평가용자료에서는 $87.6\%$의 인식율을 얻었고, 자음은 각각 $84.0\%,70.8\%$의 음소인식율을 얻었다.

  • PDF

대어휘 연속음성 인식을 위한 결합형태소 자동생성 (Automatic Generation of Concatenate Morphemes for Korean LVCSR)

  • 박영희;정민화
    • 한국음향학회지
    • /
    • 제21권4호
    • /
    • pp.407-414
    • /
    • 2002
  • 본 논문에서는 형태소를 인식 단위로 하는 한국어 연속음성 인식의 성능 개선을 위해 결합형태소를 자동으로 생성하는 방법을 제시한다. 학습코퍼스의 54%를 차지하고 오인식의 주요인이 되는 단음절 형태소를 감소시켜서 인식 성능을 높이는 것을 목적으로 한다. 품사의 접속 규칙을 이용한 기존의 지식기반의 형태소 결합방법은 접속 규칙의 생성이 어렵고, 학습 코퍼스에 나타난 출현 빈도를 반영하지 못하여 저빈도 결합형태소를 다수 생성하는 경향을 보였다. 본 논문에서 제시하는 방법은 학습데이터의 통계정보를 이용하여 결합형태소를 자동 생성한다. 결합할 형태소 쌍 선정을 위한 평가척도로는 형태소 쌍의 빈도, 상호정보, 유니그램 로그 유도값(unigram log likelihood)을 이용하였고 여기에 한국어의 특성 반영을 위해 단음절 형태소 제약과 형태소 결합길이를 제한하는 두개의 제약사항을 추가하였다. 학습에 사용된 텍스트 코퍼스는 방송뉴스와 신문으로 구성된 7백만 형태소이고, 최빈도 2만 형태소 다중 발음사전을 사용하였다. 세가지 평가척도 중 빈도를 이용한 것의 성능이 가장 좋았고 여기에 제약조건을 반영하여 성능을 더 개선할 수 있었다. 특히 최대 결합 길이를 3으로 할 때의 성능이 가장 우수하여 언어모델 혼잡도는 117.9에서 97.3으로 18%감소했으며, 형태소 에러율 (MER: Morpheme error rate)은 21.3%에서 17.6%로 감소하였다. 이때 단음절 형태소는 54%에서 30%로 24%가 감소하였다.

자극음의 음향적 특성과 청각 뇌간에서의 전기생리학적 반응의 상관성 (Correlation of acoustic features and electrophysiological outcomes of stimuli at the level of auditory brainstem)

  • 전현지;한우재
    • 한국음향학회지
    • /
    • 제35권1호
    • /
    • pp.63-73
    • /
    • 2016
  • 청각기관의 음조체계로 인해 사람들은 일반적으로 주파수 분포에 따라 소리를 듣는다. 그러나 어음인지 측면에서 어음의 음향적 특성이 사람의 뇌에서 어떻게 인식되는지는 여전히 명확하지 않다. 따라서 본 연구에서는 유사한 고주파수 음향적 특성을 갖는 두 개의 어음이 청각 뇌간에서 전기생리학적으로 어떻게 발현되는 지 확인하고자 하였다. 정상 청력을 지닌 20대 성인 33명이 실험에 참여하였다. 자극음으로 두 개의 한국어 단음절 /자/와 /차/, 4개의 주파수로 구성된 톤버스트음(500, 1000, 2000, 4000 Hz)을 사용하여 청성뇌간반응을 얻었다. 연구 결과, 단음절과 톤버스트음 모두 높은 재현성을 보였고, 파형 V는 모든 피검자에게서 잘 발현되었다. 피어슨 상관관계 분석 결과, 3671 ~ 5384 Hz 대역에서 에너지 분포를 갖는 /자/ 음절은 4000 Hz의 톤버스트음과 높은 상관관계를 나타냈다. 그러나 /차/ 음절은 1000 Hz와 2000 Hz의 톤버스트음과 높은 상관성을 보여, 3362~5412 Hz의 음향적 특성과 청각 뇌간에서 생리학적 반응은 일치하지 않았다. 이러한 결과를 바탕으로 사람의 어음인지과정을 면밀히 조사하기 위해 음향-청지각적 매핑후속 연구가 필요하겠다.