• Title/Summary/Keyword: 감정 음성

Search Result 235, Processing Time 0.032 seconds

Feature Comparison of Emotion Recognition Models using Face Images (얼굴사진 기반 감정인식 모델의 특성 분석)

  • Kim, MinGeyung;Yang, Jiyoon;Choi, Yoo-Joo
    • Annual Conference of KIPS
    • /
    • 2022.11a
    • /
    • pp.615-617
    • /
    • 2022
  • 본 논문에서는 얼굴사진 기반 감정인식 심층망, 음성사운드를 기반한 감정인식 심층망을 결합한 앙상블 네트워크 구축을 위한 사전연구로서 얼굴사진 기반 감정을 인식하는 기존 딥뉴럴 네트워크 모델들을 입력 데이터 처리 방법에 따라 분류하고, 각 방법의 특성을 분석한다. 또한, 얼굴사진 외관 특성을 기반한 감정인식 네트워크를 여러 구조로 구성하고, 구성된 방법의 성능을 비교하여, 우수 성능을 보이는 네트워크를 선정하여 추후 앙상블 네트워크의 구성 네트워크로 사용하고자 한다.

Characteristics of Spoken Discourse Markers and their Application to Speech Synthesis Systems (담화표지의 음성언어적 특성과 음성합성 시스템에서의 활용)

  • Lee, Ho-Joon;Park, Jong C.
    • Annual Conference on Human and Language Technology
    • /
    • 2007.10a
    • /
    • pp.254-260
    • /
    • 2007
  • 음성은 컴퓨터로 대변되는 기계와 사람 그리고 기계를 매개로 한 사람과 사람의 상호작용에서 가장 쉽고 직관적인 인터페이스로 널리 활용되고 있다. 인간에게 음성정보를 제공하는 음성합성 분야에서는 합성결과의 자연스러움과 인식성이 시스템의 주요 평가요소로 활용되고 있는데 이러한 자연스러움과 인식성은 합성결과의 정확성뿐만 아니라 발화환경이나 발화자의 발화특징 혹은 감정상태 등에 의해 많은 영향을 받게 된다. 담화표지는 문장의 명제 내용에는 직접 관여하지 않으면서 화자의 발화 의도나 심리적 태도를 전달하는 구성 요소를 말하는데 본 논문에서는 담화표지가 포함된 대화 음성 데이터를 수집하여 담화표지의 음성언어적인 특징을 분석하고 분석된 결과를 음성합성 시스템에 활용하는 표현방식에 대해 논의한다.

  • PDF

Clinical and Symptomatic Correlates of Alexithymia in Schizophrenia (정신분열병의 감정표현 불능증과 관련된 임상 및 증상 요인)

  • Lee, Kyung-Ha;Kim, Dae-Ho;Roh, Sung-Won;Nam, Jeong-Hyun
    • Korean Journal of Psychosomatic Medicine
    • /
    • v.13 no.1
    • /
    • pp.32-40
    • /
    • 2005
  • Objectives : This study looked at the symptoms of alexithymia in schizophrenia and their association with clinical variables and schizophrenic symptomatology. Methods Consecutive fifty eight inpatients with DSM-IV diagnoses of schizophrenia completed 26item version of Toronto Alexithymia Scale (TAS), Symptom Checklist-90-Revised(SCL-90-R), and Positive and Negative Syndrome Scale(PANSS). Results : Authors did not find any correlation between scores of PANSS and TAS. However, all the subscale scores of SCL-90-R were significantly correlated with total score of TAS. Also, 'difficulty identifying and deistinguishing between feelings and bodily sensations' and 'difficulty describing feelings' significantly correlated with SCL-90-R subscale scores. 'Reduced daydreaming' had mixed findings and 'externally oriented thinking' did not correlate. Multiple regression model included Global Severity Index of SCL-90-R accounting 28.2% of variance for TAS scores. Conclusion : These findings together with discrepancy in results between objective and subjective tests suggest that alexithymia in schizophrenia may have two constructs, 'difficulty to describe and communicate feelings(state)' and 'externally oriented thinking(trait)' Authors suggest further study needs to confirm construct validity of TAS in this population.

  • PDF

An analysis of emotional English utterances using the prosodic distance between emotional and neutral utterances (영어 감정발화와 중립발화 간의 운율거리를 이용한 감정발화 분석)

  • Yi, So-Pae
    • Phonetics and Speech Sciences
    • /
    • v.12 no.3
    • /
    • pp.25-32
    • /
    • 2020
  • An analysis of emotional English utterances with 7 emotions (calm, happy, sad, angry, fearful, disgust, surprised) was conducted using the measurement of prosodic distance between 672 emotional and 48 neutral utterances. Applying the technique proposed in the automatic evaluation model of English pronunciation to the present study on emotional utterances, Euclidean distance measurement of 3 prosodic elements such as F0, intensity and duration extracted from emotional and neutral utterances was utilized. This paper, furthermore, extended the analytical methods to include Euclidean distance normalization, z-score and z-score normalization resulting in 4 groups of measurement schemes (sqrF0, sqrINT, sqrDUR; norsqrF0, norsqrINT, norsqrDUR; sqrzF0, sqrzINT, sqrzDUR; norsqrzF0, norsqrzINT, norsqrzDUR). All of the results from perceptual analysis and acoustical analysis of emotional utteances consistently indicated the greater effectiveness of norsqrF0, norsqrINT and norsqrDUR, among 4 groups of measurement schemes, which normalized the Euclidean measurement. The greatest acoustical change of prosodic information influenced by emotion was shown in the values of F0 followed by duration and intensity in descending order according to the effect size based on the estimation of distance between emotional utterances and neutral counterparts. Tukey Post Hoc test revealed 4 homogeneous subsets (calm

A Study of the Pitch Estimation Algorithms of Speech Signal by Using Average Magnitude Difference Function (AMDF) (AMDF 함수를 이용한 음성 신호의 피치 추정 Algorithm들에 관한 연구)

  • So, Shinae;Lee, Kang Hee;You, Kwang-Bock;Lim, Ha-Young;Park, Jisu
    • Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology
    • /
    • v.7 no.4
    • /
    • pp.235-242
    • /
    • 2017
  • Peaks (or Nulls) finding algorithms for Average Magnitude Difference Function (AMDF) of speech signal are proposed in this paper. Both AMDF and Autocorrelation Function (ACF) are widely used to estimate a pitch of speech signal. It is well known that the estimation of the fundamental requency (F0) for speech signal is not only important but also very difficult. In this paper, two algorithms, are exploited the characteristics of AMDF, are proposed. First, the proposed algorithm which has a Threshold value is applied to the local minima to detect a pitch period. The Other proposed algorithm to estimate a pitch period of speech signal is utilized the relationship between AMDF and ACF. The data in this paper, is recorded by using general commercial device, is composed of Korean emotion expression words. The recorded speech data are applied to two proposed algorithms and tested their performance.

Noise Robust Emotion Recognition Feature : Frequency Range of Meaningful Signal (음성의 특정 주파수 범위를 이용한 잡음환경에서의 감정인식)

  • Kim Eun-Ho;Hyun Kyung-Hak;Kwak Yoon-Keun
    • Journal of the Korean Society for Precision Engineering
    • /
    • v.23 no.5 s.182
    • /
    • pp.68-76
    • /
    • 2006
  • The ability to recognize human emotion is one of the hallmarks of human-robot interaction. Hence this paper describes the realization of emotion recognition. For emotion recognition from voice, we propose a new feature called frequency range of meaningful signal. With this feature, we reached average recognition rate of 76% in speaker-dependent. From the experimental results, we confirm the usefulness of the proposed feature. We also define the noise environment and conduct the noise-environment test. In contrast to other features, the proposed feature is robust in a noise-environment.

Emotional Image Color Transfer via Voice Emotion Analytics System Based on Raspberry Pi (라즈베리 파이 기반의 음성 감정 분석 시스템을 통한 감성적 이미지 색상 전달)

  • Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.391-393
    • /
    • 2019
  • 본 논문은 일상적인 대화로부터 감성을 추출하고 분석함으로써 상황에 맞는 대화의 내용과 분위기를 이미지의 색상으로 표현할 수 있는 이미지 색상 변환 프레임워크를 소개한다. 본 연구는 라즈베리 파이와 마이크 센서를 기반으로 사용자로부터 목소리를 입력받을 수 있는 모듈을 제작하고, 그 목소리로부터 감성을 분석한다. 분석된 감성을 이용하여 이미지의 색상을 자동으로 변환하는 기술과 통합함으로써 청각장애인 및 미취학 아동들이 화자의 대화를 이미지를 통해 쉽게 인지하여 의사소통 및 감성 전달 환경을 개선하고자 한다.

  • PDF

Recognize the Emotional state of the Speaker by using HMM (HMM을 이용한 화자의 감정 상태 인식)

  • Lee, Na-Ra;Han, Ki-Hong;Kim, Hyun-jung;Won, Il-Young
    • Annual Conference of KIPS
    • /
    • 2013.11a
    • /
    • pp.1517-1520
    • /
    • 2013
  • 사용자 중심의 다양한 서비스를 제공하기 위해 음성을 통한 자동화된 감정 인식은 중요한 연구분야라고 할 수 있다. 앞선 연구에서는 감독학습과 비감독 학습을 결합하여 적용하였지만, 만족할만한 성능은 얻지 못했다. 이는 음성의 시간성을 고려하지 않은 학습방법의 사용하지 않았기 때문이다. 본 연구에서는 HMM(Hidden Markov Model)을 사용하여 학습하고 실험으로 검증하였다. 실험 결과는 기존의 방법들 보다 성능이 향상됨을 관찰할 수 있었다.

Authoring Toolkit for Interaction with a Virtual Human (가상 휴먼 상호작용 저작 툴킷)

  • Chung, Jin-Ho;Jo, Dongsik
    • Annual Conference of KIPS
    • /
    • 2021.05a
    • /
    • pp.564-566
    • /
    • 2021
  • 최근 가상 휴먼은 국방, 의료, 교육, 엔터테인먼트 등 다양한 분야에서 널리 활용되고 있다. 가상 휴먼을 이용한 상호작용은 사용자가 현실 세계의 실제 친구와 대화하는 것처럼 자연스럽게 소통하는 방식으로 운용이 되고, 이를 위해서는 사용자의 음성, 동작, 감정 등 다양한 입력을 기반으로 반응하는 가상 휴먼 출력 등 상호작용 매핑 관계를 제작하여야 한다. 하지만, 기존 가상 휴먼 상호작용 방법은 미리 정해진 패턴을 수작업인 프로그래밍을 통해 제작하여 개발 기간이 오래 걸리고, 수정이 용이하지 못한 단점이 있다. 본 논문에서는 가상 휴먼 상호작용을 위해 음성, 동작, 감정 등 사용자의 멀티모달 입력과 가상 휴먼 반응에 대한 저작을 수행하는 툴킷을 제시한다. 본 논문에서 제시한 저작도구를 통해 쉽고 빠르게 사용자와 가상 휴먼 상호작용 표현을 생성할 수 있다.

Development and Application of AI-based Hearing Assistance Application (인공지능 기반 청각 보조 애플리케이션 개발 및 적용 연구)

  • Jun-Hyuk Kwon;Su-Min Kwon;Chan-Young Ma;In-Gyu Song;Do-Il Choi;Jae-Hun Lee
    • Annual Conference of KIPS
    • /
    • 2024.10a
    • /
    • pp.1074-1075
    • /
    • 2024
  • 본 논문은 청각 약자를 위한 청각 보조 애플리케이션 개발에 초점을 맞추고, 딥러닝을 활용한 오디오 분석과 감정 분석 기능을 포함한 시스템 설계를 다룹니다. 본 연구는 청각 약자들이 외출 시 혹은 실내에서 중요한 소리를 인식하고 경고를 받을 수 있도록 지원하는 애플리케이션을 개발하는 데 중점을 둡니다. 청각 보조 기능은 특정 소리를 학습한 모델을 이용해 위험 신호를 제공하며, 감정 분석 음성 번역 기능은 일상대화에서 텍스트와 감정 분석을 제공해 소통을 개선합니다. 이 애플리케이션은 사용자의 편리성을 높이기 위해 온디바이스 기술을 사용하여, 서버 없이도 실시간 분석이 가능하도록 설계되었습니다. 또한, 저비용으로 청각 보조를 가능하게 하여 더 많은 사용자에게 접근성을 제공합니다. 이를 통해 사회적 약자들의 안전을 보호하고, 감정 분석 기능을 통해 원활한 소통을 돕는다는 점에서 큰 기대효과를 보이고 있습니다.