• Title/Summary/Keyword: 감정 음성

Search Result 235, Processing Time 0.025 seconds

An acoustic study of feeling between standard language and dialect (표준어와 방언간의 감정변화에 대한 음성적 연구)

  • Lee, Yeon-Soo;Park, Young-Beom
    • Annual Conference of KIPS
    • /
    • 2009.04a
    • /
    • pp.63-66
    • /
    • 2009
  • 사람의 감정 변화에는 크게 기쁨, 슬픔, 흥분, 보통 4가지 상태로 말할 수 있다. 이 4가지 상태에서 기쁨과 슬픔, 흥분과 기쁨 상태가 음성학적으로 비슷한 형태를 가지고 있다. 흥분과 기쁨의 상태에서 방언의 노말 상태가 표준어의 기쁨, 흥분상태와 비슷한 특징을 가지고 있다. 이와 같은 표준어와 방언 간의 특징 때문에 흥분 상태를 인지하는 경우 방언의 보통상태가 흥분상태로 잘못 인식되는 경우가 발생 한다. 본 논문에서는 이와 같은 문제점이 발생하는 음성학적인 차이를 구분 하고자 한다. 이들을 비교하기 위해 Pitch, Formant와 Formant RMS error 3가지 요소를 통하여 표준어와 방언간의 흥분 상태를 연구 하였다.

Subtitle Highlighting System for Video Streaming using Speech Interface STT (Speech to Text) (음성 인터페이스 STT(Speech to Text)를 활용한 동영상 스트리밍 자막 강조 시스템)

  • Lee, Kang-Chan;Cho, Dae-Soo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.567-568
    • /
    • 2021
  • 자막은 자막을 볼 수 있는 모든 사람들의 정보전달, 의사소통을 할 수 있는 유용한 도구로 사용 되고 있지만 자막은 평범한 텍스트로 있어 자막에서 강조된 부분, 감정 등을 전달 할 수 없다는 단점을 가지고 있다. 그러므로 청각 장애인들은 해당 컨텐츠의 감정, 강조 되는 부분을 알 수 없어 대화의 숨은 의미가 다른 방향으로 이해 할 수 있다는 위험성을 가지고 있다. 본 논문에서는 음성을 텍스트로 변환하는 STT(Speech To Text)를 이용하여 동영상 스트리밍 서비스를 실시간으로 음성을 텍스트로 변환과 동시에 강조하는 부분까지 개발하여 청각장애인 입장에서 기존 자막보다 효율적인 시각적 효과를 주는 미디어 접근을 위한 동영상 스트리밍 자막 서비스를 개발하고자 한다.

  • PDF

The Study on the Quality Assessment Model of Aircraft Voice Recognition Software (항공기 음성인식 소프트웨어 품질 평가 모델 연구)

  • Lee, Seung-Mok
    • Journal of Software Assessment and Valuation
    • /
    • v.15 no.2
    • /
    • pp.73-83
    • /
    • 2019
  • Voice Recognition has recently been improved with AI(Artificial Intelligence) and has greatly improved the false recognition rate and provides an effective and efficient Human Machine Interface (HMI). This trend has also been applied in the defense industry, particularly in the aviation, F-35. However, for the quality evaluation of Voice Recognition, the defense industry, especially the aircraft, requires measurable quantitative models. In this paper, the quantitative evaluation model is proposed for applying Voice Recognition to aircraft. For the proposal, the evaluation items are identified from the Voice Recognition technology and ISO/IEC 25000(SQuaRE) quality attributes. Using these two perspectives, the quantitative evaluation model is proposed under aircraft operation condition and confirms the evaluation results.

Utilizing Korean Ending Boundary Tones for Accurately Recognizing Emotions in Utterances (발화 내 감정의 정밀한 인식을 위한 한국어 문미억양의 활용)

  • Jang In-Chang;Lee Tae-Seung;Park Mikyoung;Kim Tae-Soo;Jang Dong-Sik
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.30 no.6C
    • /
    • pp.505-511
    • /
    • 2005
  • Autonomic machines interacting with human should have capability to perceive the states of emotion and attitude through implicit messages for obtaining voluntary cooperation from their clients. Voice is the easiest and most natural way to exchange human messages. The automatic systems capable to understanding the states of emotion and attitude have utilized features based on pitch and energy of uttered sentences. Performance of the existing emotion recognition systems can be further improved withthe support of linguistic knowledge that specific tonal section in a sentence is related with the states of emotion and attitude. In this paper, we attempt to improve recognition rate of emotion by adopting such linguistic knowledge for Korean ending boundary tones into anautomatic system implemented using pitch-related features and multilayer perceptrons. From the results of an experiment over a Korean emotional speech database, the improvement of $4\%$ is confirmed.

A Proposal of Emotion and Psychology Analysis Method Using Media Process Technology (미디어 처리 기법을 통한 감정 및 심리 상태 분석 방법의 제안)

  • Cho, Dong-Uk;Kim, Bong-Hyun;Lee, Se-Hwan;Ka, Min-Kyoung;Park, Sun-Ae;Oh, Sang-Young
    • Proceedings of the KAIS Fall Conference
    • /
    • 2008.05a
    • /
    • pp.241-244
    • /
    • 2008
  • 인간의 감정과 심리 상태를 분석하는 것은 다양한 분야에서 사용되고 있는 응용 기술이다. 이와 같은 분석 분야는 최근 들어 오감의 연계와 결과의 이용에 따른 맞춤형 기술로 다양화 되어 가고 있다. 따라서 본 논문에서는 감정 및 심리 상태를 분석하기 위한 방법 중 흔하게 접할 수 있는 얼굴 영상과 음성을 통한 실험을 진행하고자 한다. 이를 위해 기존의 영상학적, 음성학적 분석 방법을 정립하고 감정 및 심리 상태를 적절한 배경에 맞춰 분석이 가능한 형태로 결과값을 출력하는 기법을 제안하고자 한다. 또한 실험을 통해 추출한 연구 과정 및 방법을 이용하여 실제 사례에 대한 분석 기법의 적용을 도입하고자 한다.

  • PDF

A Child Emotion Analysis System using Text Mining and Method for Constructing a Children's Emotion Dictionary (텍스트마이닝 기반 아동 감정 분석 시스템 및 아동용 감정 사전 구축 방안)

  • Young-Jun Park;Sun-Young Kim;Yo-Han Kim
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.19 no.3
    • /
    • pp.545-550
    • /
    • 2024
  • In a society undergoing rapid change, modern individuals are facing various stresses, and there's a noticeable increase in mental health treatments for children as well. For the psychological well-being of children, it's crucial to swiftly discern their emotional states. However, this proves challenging as young children often articulate their emotions using limited vocabulary. This paper aims to categorize children's psychological states into four emotions: depression, anxiety, loneliness, and aggression. We propose a method for constructing an emotion dictionary tailored for children based on assessments from child psychology experts.

Digit Recognition Rate Comparision in DHMM and Neural Network (DHMM과 신경망에서 숫자음 인식률 비교)

  • 박정환;이원일;황태문;이종혁
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2002.05a
    • /
    • pp.171-174
    • /
    • 2002
  • 음성 신호는 언어정보, 개인성, 감정 등의 여러 가지 정보를 포함한 음향학적인 신호인 동시에 가장 자연스럽고 널리 쓰이는 의사소통 수단의 하나이다. 본 연구에서는 저장된 음성 신호에서 추출한 특징 파라미터를 사용한 경우와 음성 특징파라미터에 입술 패턴에 대한 영상정보를 통시에 사용한 경우 DHMM과 신경망을 통하여 각각 인식률을 비교해 보았다. 그 결과 입술패턴에 대할 영상정보도 음성인식에 사용 할 수 있음을 알 수 있었다.

  • PDF

Speech Emotion Recognition Using Confidence Level for Emotional Interaction Robot (감정 상호작용 로봇을 위한 신뢰도 평가를 이용한 화자독립 감정인식)

  • Kim, Eun-Ho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.6
    • /
    • pp.755-759
    • /
    • 2009
  • The ability to recognize human emotion is one of the hallmarks of human-robot interaction. Especially, speaker-independent emotion recognition is a challenging issue for commercial use of speech emotion recognition systems. In general, speaker-independent systems show a lower accuracy rate compared with speaker-dependent systems, as emotional feature values depend on the speaker and his/her gender. Hence, this paper describes the realization of speaker-independent emotion recognition by rejection using confidence measure to make the emotion recognition system be homogeneous and accurate. From comparison of the proposed methods with conventional method, the improvement and effectiveness of proposed methods were clearly confirmed.

The effect of media modality and the valence of risk messages on affective risk perception and behavioral intention (미디어 형식과 위험 메시지 구성이 감정적 위험인식과 행위의도에 미치는 영향)

  • Lee, Jae-Shin
    • Korean Journal of Cognitive Science
    • /
    • v.23 no.4
    • /
    • pp.457-485
    • /
    • 2012
  • The current study explores how media modality and message frame interact to form individuals' affective risk perception and behavioral intention. Specifically, participants were exposed to positive and negative messages on irradiated foods in text, audio, and audio/video formats and their affective risk perception and purchase intention were measured. Results indicate that individuals' affective risk perception and purchase intention were influenced by media modality and message frame. The significant interaction effects between the two variables were also observed. The results indicate that the appropriate media modality should be carefully selected based on the message content for effective risk communication.

  • PDF

Design and Implementation of Mobile Communication System for Hearing- impaired Person (청각 장애인을 위한 모바일 통화 시스템 설계 및 구현)

  • Yun, Dong-Hee;Kim, Young-Ung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.16 no.5
    • /
    • pp.111-116
    • /
    • 2016
  • According to the Ministry of Science, ICT and Future Planning's survey of information gap, smartphone retention rate of disabled people stayed in one-third of non-disabled people, the situation is significantly less access to information for people with disabilities than non-disabled people. In this paper, we develop an application, CallHelper, that helps to be more convenient to use mobile voice calls to the auditory disabled people. CallHelper runs automatically when a call comes in, translates caller's voice to text output on the mobile screen, and displays the emotion reasoning from the caller's voice to visualize emoticons. It also saves voice, translated text, and emotion data that can be played back.