• 제목/요약/키워드: speech event

검색결과 39건 처리시간 0.029초

음성정보 내용분석을 통한 골프 동영상에서의 선수별 이벤트 구간 검색 (Retrieval of Player Event in Golf Videos Using Spoken Content Analysis)

  • 김형국
    • 한국음향학회지
    • /
    • 제28권7호
    • /
    • pp.674-679
    • /
    • 2009
  • 본 논문은 골프 동영상에 포함된 오디오 정보로부터 검출된 이벤트 사운드 구간과 골프 선수이름이 포함된 음성구간을 결합하여 선수별 이벤트 구간을 검색하는 방식을 제안한다. 전체적인 시스템은 동영상으로부터 분할된 오디오 스트림으로부터 잡음제거, 오디오 구간분할, 음성 인식 등의 과정을 통한 자동색인 모듈과 사용자가 텍스트로 입력한 선수 이름을 발음열로 변환하고, 색인된 데이터베이스에서 질의된 선수 이름과 상응하는 음성구간과 연결되는 이벤트 구간을 찾아주는 검색 모듈로 구성된다. 선수이름 검색을 위해서 본 논문에서는 음소 기반, 단어 기반, 단어와 음소를 결합한 하이브리드 방식을 적용한 선수별 이벤트 구간 검색결과를 비교하였다.

중국어 회화문에 대한 의사소통 분석단위에 기초한 접근 (An Approach to Chinese Conversations in the Textbook based on Social Units of Communication)

  • 박찬욱
    • 비교문화연구
    • /
    • 제49권
    • /
    • pp.127-150
    • /
    • 2017
  • 본고는 Hymes(1972)가 제시한 의사소통의 사회적 분석단위 중 네 가지 - 말 공동체(speech community), 말 상황(speech situation), 말 사례(speech event), 말 행위(speech act) - 개념에 기대어 중국어 교재 상의 회화문을 고찰하고 그 결과를 교실 활동에서 활용할 수 있도록 숙고하는 데 목적이 있다. 이에 본고는 매 회화 단락을, 특정한 상황 맥락 하에서 여러 말 행위들로 구성된 말 사례의 정합으로 간주한다. 그리고 매 문장을, 발화로써 말 힘을 가질 수 있는 언어적 행위로 가정한다. 회화문을 Hymes(1972)의 단위에 기대어 분석하기에 앞서 본고는 분석 단위의 개별적 특징을 먼저 살펴본다. 그런 뒤, 그것의 단위 개념을 토대로, 교재 회화문을 형태 및 통사 단위의 결합이 아닌 행위의 결합이란 관점에서 분석한다. 나아가 복잡한 통사 단위들의 결합으로 여겨질 수 있는 회화 단락이 다소 한정된 소수의 분석단위들 간 결합일 수 있음을 보인다. 그리고 그 결과가 교실 활동에서 어떻게 사용될 수 있는지 제언을 덧붙인다.

말소리지각에 대한 종설: 음성공학과의 융복합을 위한 첫 단계 (A review of speech perception: The first step for convergence on speech engineering)

  • 이영림
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.509-516
    • /
    • 2017
  • 사람들은 항상 사건들과 접하고 말소리 지각과 같은 사건을 지각하는데 별 어려움이 없다. 생물학적 운동의 지각과 마찬가지로, 말소리 지각에 대한 두 이론이 논쟁해 왔다. 이 논문의 목적은 말소리 지각에 대해 설명하고 말소리 지각에 대한 운동이론과 직접지각 이론을 비교하는 것이다. 운동이론학자들은 인간은 운동신경의 명령에 의해 말소리를 지각하고 생성해 내기 때문에 인간은 말소리 지각에 있어서 특별한 감각을 가지고 있다고 주장해 왔다. 하지만, 직접지각 이론학자들은 말소리 지각은 여느 다른 소리를 지각하는 것과 다르지 않다고 제안했다. 왜냐하면, 말소리를 지각하는 것은 다른 모든 사건을 지각하는 것과 마찬가지로 필요한 정보를 직접 탐지하면 되기 때문이다. 음성공학과의 융합에 있어서 이러한 인간의 기본적인 말소리 지각 능력을 먼저 이해하는 것이 중요하다. 따라서 이러한 말소리 지각에 대한 기본적인 이해는 인공 지능, 음성 인식 기술, 음성 인식 시스템 등에 사용될 수 있을 것으로 기대된다.

깊은 신경망을 이용한 오디오 이벤트 분류 (Audio Event Classification Using Deep Neural Networks)

  • 임민규;이동현;김광호;김지환
    • 말소리와 음성과학
    • /
    • 제7권4호
    • /
    • pp.27-33
    • /
    • 2015
  • This paper proposes an audio event classification method using Deep Neural Networks (DNN). The proposed method applies Feed Forward Neural Network (FFNN) to generate event probabilities of ten audio events (dog barks, engine idling, and so on) for each frame. For each frame, mel scale filter bank features of its consecutive frames are used as the input vector of the FFNN. These event probabilities are accumulated for the events and the classification result is determined as the event with the highest accumulated probability. For the same dataset, the best accuracy of previous studies was reported as about 70% when the Support Vector Machine (SVM) was applied. The best accuracy of the proposed method achieves as 79.23% for the UrbanSound8K dataset when 80 mel scale filter bank features each from 7 consecutive frames (in total 560) were implemented as the input vector for the FFNN with two hidden layers and 2,000 neurons per hidden layer. In this configuration, the rectified linear unit was suggested as its activation function.

구개열 환자의 비인강폐쇄 기능에 대한 공기역학적 연구 (An Aerodynamic Study of Velopharyngeal Closure Function in Cleft Palate Patients)

  • 안태섭;양상일;신효근
    • 음성과학
    • /
    • 제1권
    • /
    • pp.237-259
    • /
    • 1997
  • Cleft Palate speech appears to have hyper/hyponasality with velopharyngeal insufficiency and articulation disorders. Previous studies on Cleft Palate speech have shown that speech tends to have lower airflow and air pressure. To examine the aerodynamic characteristics of Cleft Palate speech, Aerophone II Voice function Analyzer was used. We measured sound pressure level, airflow, air pressure and glottal power. Three Cleft Palate adults and five normal adults participated in this experiment. The test words are composed of: (1) the sustained vowel /o/ (2) /CiCi/, where C is one of three different stop consonants in Korean (3) /bimi/. Subjects were asked to produce /bimi/ five times without opening their lips. All the data was statistically tested by t-test for Cleft Palate patients before operation groups and control groups and paired t-test for Cleft Palate patients before and after operation groups. The results were as follow: (1) Cleft Palate patients generally speak with incomplete oral closure and lower oral air pressure. As a result, the SPL of Cleft Palate before operation is 3 dB lower than control groups. (2) Airflow of Cleft Palate in phonation and articulation is lower than that of control groups. However, it increased after operation. Lung volume and mean airflow in phonation are significantly increased (p<0.05). (3) Although velopharyngeal function (velar opening rate) of Cleft Palate is poor in comparison with control groups, it was recovered after operation. In this event maximum flow rate and mean airflow rate are significantly increased (p<0.05). (4) Air pressure of Cleft Palate in speech is lower than that of control groups. In general, the air pressure of Cleft Palate increased after operation. In this event air pressure of glottalized consonant is significantly increased (p<0.04). (5) Glottal Power(mean power, mean efficient and mean resistant) of Cleft Palate patients is lower than that of control groups. But mean efficient and mean resistant of Cleft Palate patients increased significantly (p<0.05) after operation.

  • PDF

사건지각에 대한 종설: 로봇공학과의 융복합을 위한 첫단계 (A review of event perception: The first step for convergence on robotics)

  • 이영림
    • 디지털융복합연구
    • /
    • 제13권4호
    • /
    • pp.357-368
    • /
    • 2015
  • 사람들은 항상 사건들과 접하고 그것을 지각하며 산다. 우리는 이러한 광학 흐름의 결과로 볼 수 있는 사건들을 어렵지 않게 인지한다. 문제는 사람들이 어떻게 이러한 사건들을 인지하며 광학 흐름 중 어떠한 정보가 우리로 하여금 이러한 사건들을 인지하게 만드는 지이다. 운동이론학자들은 인간은 이러한 사건들을 생산함과 동시에 지각하기 때문에 말소리 지각이나 생물학적 운동과 같은 사건들을 지각하는 것에 특별한 감각을 가지고 있다고 주장해왔다. 하지만, 직접지각 접근법 연구자들은 말소리 지각이나 생물학적 운동은 어떠한 다른 사건들을 지각하는 것과 다르지 않다고 제안했다. 이 논문의 목적은 사건지각에 관한 운동이론과 직접지각 접근법의 관점에 대해 설명하고 운동이론을 비판함으로써 이 두 이론을 비교하는 것이다. 점차 발전하고 있는 로봇공학과의 융합에 있어서 이러한 인간의 기본적인 사건 지각 능력을 먼저 이해하는 것이 중요하다.

멀티모달 정보를 이용한 잡음에 강인한 야구 이벤트 시점 검출 방법 (Noise Robust Baseball Event Detection with Multimodal Information )

  • 김영익 ;정현조 ;나민수;이영현 ;이준수
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.136-138
    • /
    • 2022
  • 스포츠 방송/미디어 데이터에서 특정 이벤트 시점을 효율적으로 검출하는 방법은 정보 검색이나 하이라이트, 요약 등을 위해 중요한 기술이다. 이 논문에서는, 야구 중계 방송 데이터에서 투구에 대한 타격 및 포구 이벤트 시점을 강인하게 검출하는 방법으로, 음향 및 영상 정보를 융합하는 방법에 대해 제안한다. 음향 정보에 기반한 이벤트 검출 방법은 계산이 용이하고 정확도가 높은 반면, 영상 정보의 도움 없이는 모호성을 해결하기 힘든 경우가 많이 발생한다. 특히 야구 중계 데이터의 경우, 투수의 투구 시점에 대한 영상 정보를 활용하여 타격 및 포구 이벤트 검출의 정확도를 보다 향상시킬 수 있다. 이 논문에서는 음향 기반의 딥러닝 이벤트 시점 검출 모델과 영상 기반의 보정 방법을 제안하고, 실제 KBO 야구 중계 방송 데이터에 적용한 사례와 실험 결과에 대해 기술한다.

  • PDF

음성인식 성능 개선을 위한 다중작업 오토인코더와 와설스타인식 생성적 적대 신경망의 결합 (Combining multi-task autoencoder with Wasserstein generative adversarial networks for improving speech recognition performance)

  • 고조원;고한석
    • 한국음향학회지
    • /
    • 제38권6호
    • /
    • pp.670-677
    • /
    • 2019
  • 음성 또는 음향 이벤트 신호에서 발생하는 배경 잡음은 인식기의 성능을 저하시키는 원인이 되며, 잡음에 강인한 특징을 찾는데 많은 노력을 필요로 한다. 본 논문에서는 딥러닝을 기반으로 다중작업 오토인코더(Multi-Task AutoEncoder, MTAE) 와 와설스타인식 생성적 적대 신경망(Wasserstein GAN, WGAN)의 장점을 결합하여, 잡음이 섞인 음향신호에서 잡음과 음성신호를 추정하는 네트워크를 제안한다. 본 논문에서 제안하는 MTAE-WGAN는 구조는 구배 페널티(Gradient Penalty) 및 누설 Leaky Rectified Linear Unit (LReLU) 모수 Parametric ReLU (PReLU)를 활용한 변수 초기화 작업을 통해 음성과 잡음 성분을 추정한다. 직교 구배 페널티와 파라미터 초기화 방법이 적용된 MTAE-WGAN 구조를 통해 잡음에 강인한 음성특징 생성 및 기존 방법 대비 음소 오인식률(Phoneme Error Rate, PER)이 크게 감소하는 성능을 보여준다.

Acoustic Monitoring and Localization for Social Care

  • Goetze, Stefan;Schroder, Jens;Gerlach, Stephan;Hollosi, Danilo;Appell, Jens-E.;Wallhoff, Frank
    • Journal of Computing Science and Engineering
    • /
    • 제6권1호
    • /
    • pp.40-50
    • /
    • 2012
  • Increase in the number of older people due to demographic changes poses great challenges to the social healthcare systems both in the Western and as well as in the Eastern countries. Support for older people by formal care givers leads to enormous temporal and personal efforts. Therefore, one of the most important goals is to increase the efficiency and effectiveness of today's care. This can be achieved by the use of assistive technologies. These technologies are able to increase the safety of patients or to reduce the time needed for tasks that do not relate to direct interaction between the care giver and the patient. Motivated by this goal, this contribution focuses on applications of acoustic technologies to support users and care givers in ambient assisted living (AAL) scenarios. Acoustic sensors are small, unobtrusive and can be added to already existing care or living environments easily. The information gathered by the acoustic sensors can be analyzed to calculate the position of the user by localization and the context by detection and classification of acoustic events in the captured acoustic signal. By doing this, possibly dangerous situations like falls, screams or an increased amount of coughs can be detected and appropriate actions can be initialized by an intelligent autonomous system for the acoustic monitoring of older persons. The proposed system is able to reduce the false alarm rate compared to other existing and commercially available approaches that basically rely only on the acoustic level. This is due to the fact that it explicitly distinguishes between the various acoustic events and provides information on the type of emergency that has taken place. Furthermore, the position of the acoustic event can be determined as contextual information by the system that uses only the acoustic signal. By this, the position of the user is known even if she or he does not wear a localization device such as a radio-frequency identification (RFID) tag.

Enhancement of Processing Capabilities of Hippocampus Lobe: A P300 Based Event Related Potential Study

  • Benet, Neelesh;Krishna, Rajalakshmi;Kumar, Vijay
    • 대한청각학회지
    • /
    • 제25권3호
    • /
    • pp.119-123
    • /
    • 2021
  • Background and Objectives: The influence of music training on different areas of the brain has been extensively researched, but the underlying neurobehavioral mechanisms remain unknown. In the present study, the effects of training for more than three years in Carnatic music (an Indian form of music) on the discrimination ability of different areas of the brain were tested using P300 analysis at three electrode placement sites. Subjects and Methods: A total of 27 individuals, including 13 singers aged 16-30 years (mean±standard deviation, 23±3.2 years) and 14 non-singers aged 16-30 years (mean age, 24±2.9 years), participated in this study. The singers had 3-5 years of formal training experience in Carnatic music. Cortical activities in areas corresponding to attention, discrimination, and memory were tested using P300 analysis, and the tests were performed using the Intelligent Hearing System. Results: The mean P300 amplitude of the singers at the Fz electrode placement site (5.64±1.81) was significantly higher than that of the non-singers (3.85±1.60; t(25)=3.3, p<0.05). The amplitude at the Cz electrode placement site in singers (5.90±2.18) was significantly higher than that in non-singers (3.46±1.40; t(25)=3.3, p<0.05). The amplitude at the Pz electrode placement site in singers (4.94±1.89) was significantly higher than that in non-singers (3.57±1.50; t(25)=3.3, p<0.05). Among singers, the mean P300 amplitude was significantly higher in the Cz site than the other placement sites, and among non-singers, the mean P300 amplitude was significantly higher in the Fz site than the other placement sites, i.e., music training facilitated enhancement of the P300 amplitude at the Cz site. Conclusions: The findings of this study suggest that more than three years of training in Carnatic singing can enhance neural coding to discriminate subtle differences, leading to enhanced discrimination abilities of the brain, mainly in the generation site corresponding to Cz electrode placement.