• Title/Summary/Keyword: 감정 음향 요소

검색결과 12건 처리시간 0.024초

음향적 요소분석과 DRNN을 이용한 음성신호의 감성인식 (Analyzing the acoustic elements and Emotion Recogintion from Speech Signal based on DRNN)

  • 박창현;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.489-492
    • /
    • 2002
  • 최근 인간형 로봇에 대한 개발이 괄목할 만한 성장을 이루고 있고, 친근한 로봇의 개발에 중요한 역할을 담당하는 것으로써 감성/감정의 인식이 필수적이라는 인식이 확산되고 있다. 본 논문은 음성의 감정인식에 있어 가장 큰 부분을 차지하는 피치의 패턴을 인식하여 감정을 분류/인식하는 시뮬레이터의 개발과 실험결과를 나타낸다. 또한, 피치뿐 아니라 음향학적으로 날카로움, 낮음등의 요소를 분류의 기준으로 포함시켜서 좀더 신뢰성 있는 인식을 할 수 있음을 보인다. 시뮬레이터의 내부 구조로는 음성으로부터 피치를 추출하는 부분과 피치의 패턴을 학습시키는 DRNN 부분, 그리고, 음향적 특성을 추출하는 음향 추출부가 주요 요소로 이루어져 있다. 그리고, 피치를 추출하는 방법으로는 Center-Clipping 함수를 이용한 autocorrelation approach를 사용하고, 학습 시 최적의 개체를 찾는 방법으로써 (1+100)-ES를 사용한다.

감정 음성의 음향학적 모델링에 관한 연구 (A Study on the Acoustic Modeling of the Emotional Speech)

  • 천희진;이양희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.815-818
    • /
    • 2000
  • 본 논문에서는 감정 표현 음성 합성 시스템을 구현하기 위해서, 감정 음성 데이터베이스의 음향학적 특징인 피치, 에너지, 지속시간, 스펙트럼 포락에 대해 분석한 결과와 문법적 요소인 품사에 따른 감정 음성 데이터의 피치 변화를 분석하였다. 분석 결과, 기본 주파수, 에너지, 지속시간, 스펙트럼 포락은 감정 표현에 중요한 영향을 미치는 것으로 나타났으며, 전반적으로 화남과 기쁨의 감정이 평상과 슬픔의 감정 보다 피치 및 에너지의 변화가 크게 나타났으며, 특히 기쁜 감정의 경우 부사, 관형사, 연결어미, 조사, 접미사에서 피치 변화가 많았으며, 화난 감정의 경우, 관형사, 명사, 용언, 접미사에서 피치 변화가 높게 나타났다. 이러한 분석 결과를 적용해 감정 음성을 합성하기 위하여, 평상 음성에 각 감정 음성의 운율 요소를 적용하여 감정 음성을 합성하여 평가한 결과, 기쁜 감정은 기본 주파수의 변화에 의해 86.7%, 화난 감정은 에너지의 변화에 의해 91%, 슬픈 감정은 음절지속시간의 변화에 의해 76.7%가 각각 올바른 감정으로 인지되었다.

  • PDF

감정 표현 방법: 운율과 음질의 역할 (How to Express Emotion: Role of Prosody and Voice Quality Parameters)

  • 이상민;이호준
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권11호
    • /
    • pp.159-166
    • /
    • 2014
  • 본 논문에서는 감정을 통해 단어의 의미가 변화될 때 운율과 음질로 표현되는 음향 요소가 어떠한 역할을 하는지 분석한다. 이를 위해 6명의 발화자에 의해 5가지 감정 상태로 표현된 60개의 데이터를 이용하여 감정에 따른 운율과 음질의 변화를 살펴본다. 감정에 따른 운율과 음질의 변화를 찾기 위해 8개의 음향 요소를 분석하였으며, 각 감정 상태를 표현하는 주요한 요소를 판별 해석을 통해 통계적으로 분석한다. 그 결과 화남의 감정은 음의 세기 및 2차 포먼트 대역너비와 깊은 연관이 있음을 확인할 수 있었고, 기쁨의 감정은 2차와 3차 포먼트 값 및 음의 세기와 연관이 있으며, 슬픔은 음질 보다는 주로 음의 세기와 높낮이 정보에 영향을 받는 것을 확인할 수 있었으며, 공포는 음의 높낮이와 2차 포먼트 값 및 그 대역너비와 깊은 관계가 있음을 알 수 있었다. 이러한 결과는 감정 음성 인식 시스템뿐만 아니라, 감정 음성 합성 시스템에서도 적극 활용될 수 있을 것으로 예상된다.

감정표현 음성합성 시스템을 위한 감정 분석 (An Analysis on the Emotional Speech for the Speech Synthesis System with Emotion)

  • 천희진
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1998년도 제15회 음성통신 및 신호처리 워크샵(KSCSP 98 15권1호)
    • /
    • pp.350-355
    • /
    • 1998
  • 감정을 표현하는 음성 합성 시스템을 구현하기 위해서는 감정음성에 대한 분석이 필요하다. 본 논문에선,s 평상, 화남, 기쁨, 슬픔의 네 가지 감정에 대한 음성 데이터에 대해 음절 세그먼트, 라벨링을 행한 감정 음성 데이터베이스를 구축하였고, 감정표현이 음성에 영향을 미치는 요인에대하여, 운율, 음운적인 요소로 나누어 분석하였다. 또한 기본 주파수, 에너지, 음절지속시간에 대한 분석과 감정 음성의기본 주파수, 에너지, 음절지속시간, 스펙트럼 포락의 인지 정도를 측정하기 위하여 평상 음성에 감정 음성의 운율 요소를 적용하는 음성을 합성하여 ABX 방법으로 평가하였다. 그 결과, 기본 주파수의변화가 73.3%, 음절지속시간은 43.3% 로 올바른 감정으로 인지되었으며, 특히 슬픈 감정에서 음절지속시간은 76.6%가 올바르게 감정을 나타내는 것으로 인지되었다.

  • PDF

감정 음성의 피치 변화 분석 (An Analysis on the Pitch Variation Of the Emotional Speech)

  • 천희진;정지혜;김병일;이양희
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 2호
    • /
    • pp.93-96
    • /
    • 1999
  • 감정을 표현하는 음성 합성 시스템을 구현하기 위해서 이전 논문에서는 음운 및 운율 요소(피치, 에너지, 지속시간, 스펙트럼 인벨로프)가 각 감정 음성에 미치는 영향에 대한 분석을 수행하였다. 본 논문에서는 네 가지 감정 표현(평상, 화남, 기쁨, 슬픔)을 나타내는 음성 데이터에 대해 음절 세그먼트와 라벨링을 행한 감정 음성 데이터베이스를 토대로 감정 표현에 많은 영향을 미치는 요소인 피치가 어떻게 변화하는지를 분석하였다. 통계적인 방법을 이용하여 감정별 피치를 정규화 하였으며, 감정 음성 데이터베이스 내의 문장별 피치 패턴에 대해 분석하였다. 그 결과 감정별 피치의 평균 ZScore는 화남이 가장 작았으며, 기쁨, 평상, 슬픔의 순으로 높았다. 또한 감정별 피치의 범위 변화는 슬픔이 가장 작았으며, 평상, 화남, 기쁨의 순으로 높았다. 문장별 피치의 패턴은 감정 표현에 따라 전체적으로 대부분 유사하게 나타났으며, 문장의 처음 부분은 화남의 경우 다른 감정에 비해 대체로 높게 변화하였고, 화남과 기쁨의 경우 문장의 뒷부분에서 다른 감정에 비해 피치가 상승하는 것을 볼 수 있었다.

  • PDF

음향적 요소분석과 DRNN을 이용한 음성신호의 감성 인식 (Analyzing the Acoustic Elements and Emotion Recognition from Speech Signal Based on DRNN)

  • 심귀보;박창현;주영훈
    • 한국지능시스템학회논문지
    • /
    • 제13권1호
    • /
    • pp.45-50
    • /
    • 2003
  • 최근 인간형 로봇에 대한 개발이 괄목할 만한 성장을 이루고 있고, 친근한 로봇의 개발에 중요한 역할을 담당하는 것으로써 감성/감정의 인식이 필수적이라는 인식이 확산되고 있나. 본 논문은 음성의 감정인식에 있어 가장 큰 부분을 차지하는 피치의 패턴을 인식하여 감정을 분류/인식하는 시뮬레이터의 개발과 시뮬레이션 결과를 나타낸다. 또한, 피치뿐 아니라 음향학적으로 날카로움, 낮음 등의 요소를 분류의 기준으로 포함시켜서 좀더 신뢰성 있는 인식을 할 수 있음을 보인다. 주파수와 음성의 다양한 분석을 통하여, 음향적 요소와 감성의 상관관계에 대한 분석이 선행되어야 하므로, 본 논문은 사람들의 음성을 녹취하여 분석하였다 시뮬레이터의 내부 구조로는 음성으로부터 피치를 추출하는 부분과 피치의 패턴을 학습시키는 DRNN 부분으로 이루어져 있다.

감성적 인간 로봇 상호작용을 위한 음성감정 인식 (Speech emotion recognition for affective human robot interaction)

  • 장광동;권오욱
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

감정단어 발화 시 억양 패턴을 반영한 멜로디 특성 (Tonal Characteristics Based on Intonation Pattern of the Korean Emotion Words)

  • 이수연;오재혁;정현주
    • 인간행동과 음악연구
    • /
    • 제13권2호
    • /
    • pp.67-83
    • /
    • 2016
  • 본 연구는 감정단어의 억양 패턴을 음향학적으로 분석하여 멜로디의 음높이 패턴으로 전환한 뒤 그 특성을 알아보았다. 이를 위해 만 19-23세 여성 30명을 대상으로 기쁨, 화남, 슬픔을 표현하는 4음절 감정단어의 음성자료를 수집하였다. 총 180개의 어휘를 수집하고 Praat 프로그램을 이용하여 음절 당 평균 주파수(f0)를 측정한 후 평균 음정과 음높이 패턴의 멜로디 요소로 전환하였다. 연구 결과, 첫째, 감정단어의 음높이 패턴은 '즐거워서' A3-A3-G3-G3, '즐거워요' G4-G4-F4-F4, '행복해서' C4-D4-B3-A3, '행복해요' D4-D4-A3-G3, '억울해서' G3-A3-G3-G3, '억울해요' G3-G3-G3-A3, F3-G3-E3-D3, '불안해서' A3-A3-G3-A3, '불안해요' A3-G3-F3-F3, '침울해서' C4-C4-A3-G3, '침울해요' A3-A3-F3-F3으로 나타났다. 둘째, 음 진행에서는 기쁨이 넓은 간격의 도약 진행, 화남이 좁은 간격의 도약 진행, 슬픔이 넓은 간격의 순차 진행 특성을 보였다. 본 연구에서는 감정의 속성과 본질, 한국어의 음성 특성을 고려하여 감정단어의 억양 패턴을 분석하고, 이를 멜로디 요소에 반영한 특성을 제시하였다. 또한, 체계적이고 객관화된 방법으로 말과 멜로디의 전환 가능성 및 적합성을 확인한 것에 의의가 있다. 본 연구의 결과는 감정을 효과적으로 표현할 수 있는 멜로디 창작 방안을 마련하기 위한 근거 자료로 활용될 수 있다.

영어 감정발화와 중립발화 간의 운율거리를 이용한 감정발화 분석 (An analysis of emotional English utterances using the prosodic distance between emotional and neutral utterances)

  • 이서배
    • 말소리와 음성과학
    • /
    • 제12권3호
    • /
    • pp.25-32
    • /
    • 2020
  • 본 연구는 영어 발화에 나타난 7가지 감정들(calm, happy, sad, angry, fearful, disgust, surprised)을 분석하고자 감정발화(672개)와 감정중립 발화(48개)와의 운율적 거리를 측정하였다. 이를 위해 외국어 발음평가에 사용되었던 방법을 적용하여 음의 높낮이(Hz), 음의 강도(dB), 음의 길이(sec)와 같은 운율의 3요소를 유클리디언 거리로 계산하였는데 기존연구에서 더 나아가 유클리디언 거리계산 정규화 방법, z-score 방법 그리고 z-score 정규화 방법을 추가해 총 4가지 그룹(sqrF0, sqrINT, sqrDUR; norsqrF0, norsqrINT, norsqrDUR; sqrzF0, sqrzINT, sqrzDUR; norsqrzF0, norsqrzINT, norsqrzDUR)의 방법을 분석에 사용하였다. 그 결과 인지적 측면과 음향적 측면의 분석 모두에서 유클리디언 운율거리를 정규화한 norsqrF0, norsqrINT, norsqrDUR이 일관성 있게 가장 효과적인 측정방법으로 나타났다. 유클리디언 거리계산 정규화 방법으로 감정발화와 감정중립 발화를 비교했을 때, 전반적으로 감정에 따른 운율의 변화는 음의 높낮이(Hz)가 가장 크고 그다음 음의 길이(sec), 그리고 음의 강도(dB)가 가장 작게 나타났다. Tukey 사후검증 결과 norsqrF0의 경우 calm