• 제목/요약/키워드: Emotional voice

검색결과 114건 처리시간 0.019초

자전적 회상을 통한 자연스런 정서음성정보 수집방법에 관한 연구 (Acquisition of natural Emotional Voice Through Autobiographical Recall Method)

  • 조은경;조철우;민경환
    • 한국음향학회지
    • /
    • 제16권2호
    • /
    • pp.66-70
    • /
    • 1997
  • 통제된 실험실에서 자연스런 정서음성을 수집하기 위하여 자전적 회상 방법이 시용되었다. 16명의 대학생에게 행복, 화, 슬픔, 두려움을 가장 강하게 경험한 과거 사진을 회상하도록 하였고, 비교집단으로서 4명의 연극배우에게는 스스로 감정 상태에 몰입하게 하였다. 3명의 독립적 평정자들이 피험자들의 얼굴 표정과 음성 특징을 평가하였다. 대학생들의 유도된 음성과 배우들의 음성을 비교한 결과, 자전적 회상 방법은 미묘한 감정적 단서를 전달하는데 효과적으로 평가되었으며 배우들이 모사한 음성은 더 극단적인 정서를 표출하는 것으로 평가되었다. 정서음성 수집에 있어서 자전적 회상 방법이 가지는 함의와 이 방법의 잠재적인 문제점도 논의되었다.

  • PDF

운율이식을 통해 나타난 감정인지 양상 연구 (A Study on the Perceptual Aspects of an Emotional Voice Using Prosody Transplantation)

  • 이서배
    • 대한음성학회지:말소리
    • /
    • 제62호
    • /
    • pp.19-32
    • /
    • 2007
  • This study investigated the perception of emotional voices by transplanting some or all of the prosodic aspects, i.e. pitch, duration, and intensity, of the utterances produced with emotional voices onto those with normal voices and vice versa. Listening evaluation by 24 raters revealed that prosodic effect was greater than segmental & vocal quality effect on the preception of the emotion. The degree of influence of prosody and that of segments & vocal quality varied according to the type of emotion. As for fear, prosodic elements had far greater influence than segmental & vocal quality elements whereas segmental and vocal elements had as much effect as prosody on the perception of happy voices. Different amount of contribution to the perception of emotion was found among prosodic features with the descending order of pitch, duration and intensity. As for the length of the utterances, the perception of emotion was more effective with long utterances than with short utterances.

  • PDF

자동차 전면부와 음성 어시스턴트의 스타일 관계 분석 (Investigating the Relationship Between Vehicle Front Images and Voice Assistants)

  • 박민정;민소영;김태수;석현정
    • 감성과학
    • /
    • 제25권4호
    • /
    • pp.129-138
    • /
    • 2022
  • 음성 어시스턴트가 차량에 탑재되기 시작하면서, 차량의 조형적 특징과 음성 어시스턴트간의 연관성이 중요해지고 있다. 본 연구는 자동차에 적용된 음성 어시스턴트와 외관의 조화스러움에 대하여 공통된 감성적 특징을 기반으로 살펴보고자 하였다. 12가지 차량 이미지와 6가지의 음성 어시스턴트에 대해 15종의 형용사를 바탕으로 감성 평가를 실시하였다. 실험은 온라인 개별 인터뷰로 진행되었으며, 총 24명의 대학생이 참여하였다. 참여자들은 각 자극물을 대표하는 감성 형용사 3종을 1, 2, 3위로 평가하고, 선정 이유에 대한 간단한 인터뷰를 진행하였다. 설문 결과에 대해 주성분분석을 수행하여 2개의 주요 요인을 추출한 뒤, 각 요인을 축으로 하여 자극물을 분포시켰다. 분포도를 바탕으로 감성적 특징을 도출하고자 계층적 군집 분석을 수행하였다. 주성분 분석 결과 자동차 이미지와 음성 어시스턴트를 설명하는 감성적 차원으로 "편안한-급진적인"과 "가벼운-무거운"이 추출되었다. 두 차원을 바탕으로 자극물들을 분포시킨 결과, 자동차와 음성 어시스턴트가 동일한 축을 바탕으로 다양하게 분포해 두 요인이 자극물간 감성적 특징을 도출하기에 적합하다고 판단되었다. 자극물들의 분포도를 바탕으로 계층적 군집분석을 수행하여 17개의 자극물을 4가지 군집으로 추렸다. 각 군집은 도전적인, 우아한, 위엄있는, 활기찬 그룹으로 도출되었다. 본 연구에서는 차량의 조형적 특징과 음성 어시스턴트의 감성적 이미지를 동시에 설명할 수 있는 두 축을 도출하였다. 도출된 축을 바탕으로 그려진 분포도에 군집 분석을 수행해 감성적 특징을 분류하였으며, 총 4개의 감성적 특징이 도출되었다. 본 연구는 자동차의 조형적 특징에 맞춘 음성 어시스턴트 제안을 위한 디자인 품평 가이드로 활용되어, 추후 출시되는 차량에서 사용자들의 자동차 음성 어시스턴트 감성 경험이 증진될 것으로 기대한다.

음성장애인의 자가음성평가와 정상음성인의 청자음성평가 특성 비교 (Comparative Studies on the Self Voice Assessment of Voice Disorder Patients and the Hearer Voice Assessment of a Comparative Group of normal subjects)

  • 이유진;황영진
    • 말소리와 음성과학
    • /
    • 제4권2호
    • /
    • pp.105-114
    • /
    • 2012
  • This paper will discuss the difference between self assessment of voice disorders and the hearer voice assessment of a comparative group of normal subjects. The study was conducted on 25 voice disorder subjects and 32 hearers of a comparative group of normal subjects. The results are as follows. Firstly, in K-VHI and VHI-H, the hearers of the comparative group of normal subjects perceived more serious voice disorders than the voice disorder group in all sub-domains. Likewise, in K-VQOL and VRQOL-H, the hearers of the comparative group of normal subjects perceived more serious voice disorders than the voice disorder group in all sub-domains. Secondly, the hearer voice assessment of the comparative group of normal subjects showed no difference in gender regarding the perception of the severity of voice disorder issues. Thirdly, the hearer voice assessment of the comparative group of normal subjects states that in the emotional aspects of VHI-H, professional voice users perceive more serious voice disorders than others. Accordingly, in VRQOL-H, there was no difference in use of the voice between professionals and others.

휴대전화 상황에서 맥락과 일치하는 사람음과 단순 기계음이 사용자의 주관적 경험에 미치는 영향 (The effect of the human voice that is consistent with context and the mechanical melody on user's subjective experience in mobile phones)

  • 조유숙;엄기민;주효민;석지혜;한광희
    • 감성과학
    • /
    • 제12권4호
    • /
    • pp.531-544
    • /
    • 2009
  • HCI 분야에서 사용성은 시스템의 객관적인 사용성에 초점을 둔 것에서 점차 사용자들이 시스템을 사용하면서 느끼는 주관적인 경험을 중시하는 개념으로 확장, 변화하고 있다. 오늘날 대부분의 사람들은 휴대전화를 소지하고 사용한다. 휴대전화와 같이 인간과의 상호작용 빈도가 높은 인터페이스에서 보다 긍정적인 사용자의 주관적 경험을 유발하는 것은 중요하다고 볼 수 있다. 본 연구에서는 감정을 표현하는 인터페이스가 인간에게 보다 긍정적인 사용자 경험을 유발할 것이라는 가설 하에 감정을 표현하는 인간 목소리를 통해 청각적 피드백을 제공하는 휴대전화 프로토타입(prototype)을 제작한 후, 감정을 표현하기에 적절하지 않은 기계음을 통해 청각피드백을 제공하는 휴대전화 조건과의 비교를 통해 어떠한 조건에서 사용자들이 보다 더 긍정적인 사용자 경험을 느끼는지, 어떠한 조건을 더 선호하는지에 대해 알아보았다. 구체적으로, 참가자들은 4가지 종류의 휴대전화 프로토타입(청각적 피드백이 없는 무음 조건, 사람의 목소리를 통해 청각적 피드백을 제시하는 조건, 기계음을 통해 청각적 피드백을 제시하는 조건, 기계음과 사람의 목소리를 모두 제공하는 혼합음 조건)을 경험한 후, 그에 대한 경험적 사용성(재미, 흥미, 불쾌감), 유희적 측면(HQ) 그리고 선호도를 평정하였다. 결과적으로, 사용자들은 사람의 목소리를 통해 정서를 표현하는 조건의 휴대전화에 대해 청각적 피드백을 제공하지 않는 휴대전화나 기계음을 통해 청각적 피드백을 제시하는 휴대전화와 비교해서 상대적으로 높은 지각적 재미와 유희(HQ)를 느끼는 것으로 드러났다. 하지만 선호도는 다른 조건에 비해 낮은 수준의 평정치를 보이는 것으로 나타났다.

  • PDF

인간의 감정 인식을 위한 신경회로망 기반의 휴먼과 컴퓨터 인터페이스 구현 (Implementation of Human and Computer Interface for Detecting Human Emotion Using Neural Network)

  • 조기호;최호진;정슬
    • 제어로봇시스템학회논문지
    • /
    • 제13권9호
    • /
    • pp.825-831
    • /
    • 2007
  • In this paper, an interface between a human and a computer is presented. The human and computer interface(HCI) serves as another area of human and machine interfaces. Methods for the HCI we used are voice recognition and image recognition for detecting human's emotional feelings. The idea is that the computer can recognize the present emotional state of the human operator, and amuses him/her in various ways such as turning on musics, searching webs, and talking. For the image recognition process, the human face is captured, and eye and mouth are selected from the facial image for recognition. To train images of the mouth, we use the Hopfield Net. The results show 88%$\sim$92% recognition of the emotion. For the vocal recognition, neural network shows 80%$\sim$98% recognition of voice.

감성 평가를 이용한 듣기 좋은 음성 합성음에 대한 연구 (Evaluation of Synthetic Voice which is Agreeable to the Ear Using Sensibility Ergonomics Method)

  • 박용국;김재국;전용웅;조암
    • 대한인간공학회지
    • /
    • 제21권1호
    • /
    • pp.51-65
    • /
    • 2002
  • As the method of providing information is getting multimedia, the synthetic voice is used in not only CTI(Computer Telephony Integration), information service for the blind, but also applications on internet. But properties of synthetic voice, such as speech rate, pitch, timbre and so on, are not adjusted to customers' preference but providers' preference. In order to consider customers' preference, this study proposed four subjective factors of voice through the evaluation of voice using the method of sensibility ergonomics. And the relation synthetic voice to be agreeable to the ear with emotional images was formulated as a fuzzy model. Consequently, this study proposed the speech rate and pitch of synthetic voice which is agreeable to the ear.

월경주기에 따른 우울지수 정도와 음성특성과의 상관관계 분석 (The Correlation of Voice Characteristics and Depression Index Analysis in Accordance with Menstrual Cycle)

  • 김유미;장승진;김은연;최예린
    • 말소리와 음성과학
    • /
    • 제6권3호
    • /
    • pp.41-48
    • /
    • 2014
  • This study investigated the differences between emotional parameters BDI, VHI, STAI-X-I and STAI-X-II according to the menstrual cycles of the female and the relation between changes of the depression index and voice characteristics (jitter, shimmer, CPP, HNR, $pF0{\cdot}F1{\cdot}F2{\cdot}F3$, sF0, sF4, sB1, $H1_{c/u}$, $A1_u$, $A3_c$, $H1A3_{c/u}$, $H1A1_u$). Twenty three females ($30{\pm}4.4$ years old) living in Seoul and Gyeonggi Province were participated in this study to answer the questionnaires and record their voice. The participants prolonged /a/ vowel for 5 seconds in a natural condition for their voice recording. Voice data were analyzed using the Matlab and Praat program. A t-test and a correlation analysis were conducted by using SPSS for the statistical analysis. The results are as follows. First, the BDI is significantly higher in group I (lurear phase contrast the menstrual period) and group II (follicular phase against the menstrual period) than group III (luteal phase for follicular phase) (p<.05). Second, shimmer, CPP, pF0 showed a statistically high correlation regarding the BDI in group I (lurear phase contrast the menstrual period). Voice parameters may be useful as supplement in evaluating the emotional change in the phase of menstrual cycle.

성악과 실용음악 보컬 전공 대학생들의 주관적 음성평가 비교 예비연구 (Preliminary Study for Comparison of Subjective Voice Evaluations among Vocal and Applied Music Major Students)

  • 이다혜;황영진;김재옥
    • 말소리와 음성과학
    • /
    • 제6권2호
    • /
    • pp.37-45
    • /
    • 2014
  • The purpose of this study was to determine whether the Korean Singing Voice Handicap Index (K-SVHI) was suitable for singers in other genres than vocal music to assess their vocal problems subjectively. Twenty six college students majoring in vocal music and twenty six students majoring in applied music were included in the study. They were divided into G0 and G1 in voice quality using the GRBAS scale during the tasks of singing. K-SVHI was divided into three sub-areas (Physical, Functional, and Emotional). In the singing task, both groups showed no significant difference between K-SVHI scores by G scale. In the reading task, the vocal music group had significantly higher K-SVHI in G0 than in G1 in K-SVHIs by G scale, while the applied vocal music group had significantly higher K-SVHI in G1 than in G0. Also, the two groups were not significantly different in G0, G1 in the singing task while the vocal music group showed higher K-SVHI than the applied vocal music group in G0 in the reading task. In addition, the vocal music group had higher K-SVHI than the applied vocal music group in G1 in both tasks. As comparing by groups in three sub-areas of K-SVHI, significant differences were found in the Emotional and Functional area. Those results showed that singers felt their voice problems differently by musical genres, which means that K-SVHI may not be a proper tool for evaluating voice handicap of singers in diverse voice music genres.

감성로봇을 위한 음원의 위치측정 및 분리 (Sound Source Localization and Separation for Emotional Robot)

  • 김경환;김연훈;곽윤근
    • 한국정밀공학회지
    • /
    • 제20권5호
    • /
    • pp.116-123
    • /
    • 2003
  • These days, the researches related with the emotional robots are actively investigated and in progress. And human language, expression, action etc. are merged in the emotional robot to understand the human emotion. However, there are so many sound sources and background noise around the robot, that the robots should be able to separate the mixture of these sound sources into the original sound sources, moreover to understand the meaning of voice of a specific person. Also they should be able to turn or move to the direction of a specific person to observe his expression or action effectively. Until now, the researches on the localization and separation of sound sources have been so theoretical and computative that real-time processing is hardly possible. In this reason for the practical emotional robot, fast computation should be realized by using simple principle. In this paper the methods for detecting the direction of sound sources by using the phase difference between peaks on spectrums, and the separating the sound sources by using fundamental frequency and its overtones of human voice, are proposed. Also by using these methods, it is shown that the effective and real-time localization and separation of sound sources in living room are possible.