• 제목/요약/키워드: 감정 벡터

검색결과 101건 처리시간 0.028초

감정 단어의 의미적 특성을 반영한 한국어 문서 감정분류 시스템 (A Korean Document Sentiment Classification System based on Semantic Properties of Sentiment Words)

  • 황재원;고영중
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권4호
    • /
    • pp.317-322
    • /
    • 2010
  • 본 논문은 감정단어(Sentiment Word)의 의미적 특성을 반영하여 한국어 문서 감정분류 시스템의 성능을 향상시킬 수 있는 방법을 제안한다. 감정단어는 감정을 가지는 단어를 의미하며, 감정단어들의 집합은 감정자질(Sentiment Feature)로써 감정분류를 위한 중요한 어휘 자원이다. 감정자질은 일반적으로 사용될 때와 특정 영역(Domain)에서 사용될 때에 그 감정 정도의 차이를 가진다. 감정자질이 일반적으로 사용될 때 그 감정 정도는 검색 엔진을 통해 얻을 수 있는 스니핏(Snippet)을 통해 추정할 수 있으며, 특정 영역에서 사용될 때의 감정 정도는 실험 말뭉치를 이용하여 추정할 수 있다. 이렇게 추정된 감정자질의 감정 정도 수치를 의미지향성이라고 하며, 문서내의 문장의 감정 강도를 추정하기 위해 이용된다. 문장의 감정 강도가 추정되면 문장 감정 강도를 감정자질의 가중치에 반영하게 된다. 본 논문은 지지 벡터 기계(Support Vector Machine)를 이용하여 일반적, 영역 의존적, 일반적/영역 의존적 의미지향성을 반영한 경우에 대해 성능을 평가한다. 평가 결과, 앞의 3가지 경우에 모두 성능 향상을 얻었으며 일반적/영역 의존적 의미지향성을 반영한 경우, 일반적인 정보 검색에서 사용하는 내용어(Content Word) 기반의 자질을 사용한 경우보다 3.1%의 성능 향상을 얻을 수 있었다.

음성 신호를 이용한 화자의 5가지 감성 인식 (Recognizing Five Emotional States Using Speech Signals)

  • 강봉석;한철희;우경호;양태영;이충용;윤대희
    • 한국음향학회:학술대회논문집
    • /
    • 한국음향학회 1999년도 학술발표대회 논문집 제18권 2호
    • /
    • pp.101-104
    • /
    • 1999
  • 본 논문에서는 음성 신호를 이용해서 화자의 감정을 인식하기 위해 3가지 시스템을 구축하고 이들의 성능을 비교해 보았다. 인식 대상으로 하는 감정은 기쁨, 슬픔, 화남, 두려움, 지루함, 평상시의 감정이고, 각 감정에 대한 감정 음성 데이터베이스를 직접 구축하였다. 피치와 에너지 정보를 감성 인식의 특징으로 이용하였고, 인식 알고리듬은 MLB(Maximum-Likelihood Bayes)분류기, NN(Nearest Neighbor)분류기 및 HMM(Hidden Markov Model)분류기를 이용하였다. 이 중 MLB 분류기와 NN 분류기에서는 특징벡터로 피치와 에너지의 평균과 표준편차, 최대값 등 통계적인 정보를 이용하였고, TMM 분류기에서는 각 프레임에서의 델타 피치와 델타델타 피치, 델타 에너지와 델타델타 에너지 등 시간적 정보를 이용하였다. 실험은 화자종속, 문장독립형 방식으로 하였고, 인식 실험 결과는 MLB를 이용해서 $68.9\%, NN을 이용해서 $66.7\%를 얻었고, HMM 분류기를 이용해서 $89.30\%를 얻었다.

  • PDF

음성 신호를 사용한 감정인식의 특징 파라메터 비교 (Comparison of feature parameters for emotion recognition using speech signal)

  • 김원구
    • 대한전자공학회논문지SP
    • /
    • 제40권5호
    • /
    • pp.371-377
    • /
    • 2003
  • 본 논문에서 음성신호를 사용하여 인간의 감정를 인식하기 위한 특징 파라메터 비교에 관하여 연구하였다. 이를 위하여 여러 가지 감정 상태에 따라 분류된 한국어 음성 데이터 베이스를 이용하여 얻어진 음성 신호의 피치와 에너지의 평균, 표준편차와 최대 값 등 통계적인 정보 나타내는 파라메터와 음소의 특성을 나타내는 MFCC 파라메터가 사용되었다. 파라메터들의 성능을 평가하기 위하여 문장 및 화자 독립 감정 인식 시스템을 구현하여 인식 실험을 수행하였다. 성능 평가를 위한 실험에서는 운율적 특징으로 피치와 에너지와 각각의 미분 값을 사용하였고, 음소의 특성을 나타내는 특징으로 MFCC와 그 미분 값을 사용하였다. 벡터 양자화 방법을 사용한 화자 및 문장 독립 인식 시스템을 사용한 실험 결과에서 MFCC와 델타 MFCC를 사용한 경우가 피치와 에너지를 사용한 방법보다 우수한 성능을 나타내었다.

음성-영상 특징 추출 멀티모달 모델을 이용한 감정 인식 모델 개발 (Development of Emotion Recognition Model Using Audio-video Feature Extraction Multimodal Model)

  • 김종구;권장우
    • 융합신호처리학회논문지
    • /
    • 제24권4호
    • /
    • pp.221-228
    • /
    • 2023
  • 감정으로 인해 생기는 신체적 정신적인 변화는 운전이나 학습 행동 등 다양한 행동에 영향을 미칠 수 있다. 따라서 이러한 감정을 인식하는 것은 운전 중 위험한 감정 인식 및 제어 등 다양한 산업에서 이용될 수 있기 때문에 매우 중요한 과업이다. 본 논문에는 서로 도메인이 다른 음성과 영상 데이터를 모두 이용하여 감정을 인식하는 멀티모달 모델을 구현하여 감정 인식 연구를 진행했다. 본 연구에서는 RAVDESS 데이터를 이용하여 영상 데이터에 음성을 추출한 뒤 2D-CNN을 이용한 모델을 통해 음성 데이터 특징을 추출하였으며 영상 데이터는 Slowfast feature extractor를 통해 영상 데이터 특징을 추출하였다. 감정 인식을 위한 제안된 멀티모달 모델에서 음성 데이터와 영상 데이터의 특징 벡터를 통합하여 감정 인식을 시도하였다. 또한 멀티모달 모델을 구현할 때 많이 쓰인 방법론인 각 모델의 결과 스코어를 합치는 방법, 투표하는 방법을 이용하여 멀티모달 모델을 구현하고 본 논문에서 제안하는 방법과 비교하여 각 모델의 성능을 확인하였다.

RUI용 음성신호기반의 감정분류를 위한 피치검출기에 관한 연구 (A study on pitch detection for RUI emotion classification based on voice)

  • 변성우;이석필
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2015년도 하계학술대회
    • /
    • pp.421-424
    • /
    • 2015
  • 컴퓨터 기술이 발전하고 컴퓨터 사용이 일반화 되면서 휴먼 인터페이스에 대한 많은 연구들이 진행되어 왔다. 휴먼 인터페이스에서 감정을 인식하는 기술은 컴퓨터와 사람간의 상호작용을 위해 중요한 기술이다. 감정을 인식하는 기술에서 분류 정확도를 높이기 위해 특징벡터를 정확하게 추출하는 것이 중요하다. 본 논문에서는 정확한 피치검출을 위하여 음성신호에서 음성 구간과 비 음성구간을 추출하였으며, Speech Processing 분야에서 사용되는 전 처리 기법인 저역 필터와 유성음 추출 기법, 후처리 기법인 Smoothing 기법을 사용하여 피치 검출을 수행하고 비교하였다. 그 결과, 전 처리 기법인 유성음 추출 기법과 후처리 기법인 Smoothing 기법은 피치 검출의 정확도를 높였고, 저역 필터를 사용한 경우는 피치 검출의 정확도가 떨어트렸다.

  • PDF

동적얼굴영상으로부터 감정인식에 관한 연구 (A Study on Emotion Recognition from a Active Face Images)

  • 이명원;곽근창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.295-297
    • /
    • 2011
  • 본 논문에서는 동적얼굴영상으로부터 감정인식을 위해 벡터 표현 보다는 직접적인 텐서 표현으로 특징들을 추출하는 텐서 기반 다선형 주성분분석(MPCA: Multilinear Principal Component Analysis) 기법을 사용한다. 사람 6가지의 얼굴 표정을 사용하는데 한 사람의 각 표정마다 5프레임으로 묶어서 텐서 형태로 취하여 특징을 추출하고 인식한다. 시스템의 성능 평가는 CNU 얼굴 감정인식 데이터베이스를 이용하여 특징점 개수와 성능척도에 따른 실험을 수행하여 제시된 방법의 유용성에 관해 살펴본다.

Text classification 방법을 사용한 행동 인식, 손동작 인식 및 감정 인식 (Action recognition, hand gesture recognition, and emotion recognition using text classification method)

  • 김기덕
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제63차 동계학술대회논문집 29권1호
    • /
    • pp.213-216
    • /
    • 2021
  • 본 논문에서는 Text Classification에 사용된 딥러닝 모델을 적용하여 행동 인식, 손동작 인식 및 감정 인식 방법을 제안한다. 먼저 라이브러리를 사용하여 영상에서 특징 추출 후 식을 적용하여 특징의 벡터를 저장한다. 이를 Conv1D, Transformer, GRU를 결합한 모델에 학습시킨다. 이 방법을 통해 하나의 딥러닝 모델을 사용하여 다양한 분야에 적용할 수 있다. 제안한 방법을 사용해 SYSU 3D HOI 데이터셋에서 99.66%, eNTERFACE' 05 데이터셋에 대해 99.0%, DHG-14 데이터셋에 대해 95.48%의 클래스 분류 정확도를 얻을 수 있었다.

  • PDF

영화 시나리오와 영화촬영기법을 이용한 감정 예측 시스템 (Emotion Prediction System using Movie Script and Cinematography)

  • 김진수
    • 한국융합학회논문지
    • /
    • 제9권12호
    • /
    • pp.33-38
    • /
    • 2018
  • 최근에 다양한 정보로부터 감정을 예측하여 청중에게 감독이 알리고자 하는 정보를 빠르게 전달하고자 한다. 또한, 청중은 감독의 의도를 대화 내용에 나타나는 대사뿐만 아니라, 영상내의 다양한 정보인 촬영 기법, 장면의 배경, 배경 음악 등을 통해 비대사 구간에서도 감정의 흐름을 이해하려고 한다. 본 논문에서는 대사와 같은 문맥의 상황뿐만 아니라, 촬영 영상에 담아낸 색상, 음향, 구도, 배치 등에 의해 표현된 정보를 혼합하여 감정을 추출하고자 한다. 즉, 다양한 감정 표현 기법을 대사 구간, 비대사 구간으로 나누어 학습하고 판별하여 영상의 완성도에 기여하고 새로운 변화에 빠르게 적용할 수 있는 감정 예측 시스템을 제안한다. 본 논문에서 제안한 감정 예측시스템이 변형된 n-gram 방식과 형태소 분석을 적용한 사례와 비교했을 때, 정확도는 약 5.1%, 0.4% 향상되었고, 재현율은 약 4.3%, 1.6% 향상되었다.

형판벡터와 퍼지모델을 이용한 감성인식 (Emotion Recognition Using Template Vector And Fuzzy Model)

  • 유태일;유영선;주영훈
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 제36회 하계학술대회 논문집 D
    • /
    • pp.2894-2896
    • /
    • 2005
  • 본 논문에서는 퍼지모델을 기반으로 한 형판 벡터를 이용하여 인간의 감성을 인식할 수 있는 방법을 제안한다. 먼저 형판을 이용하여 얼굴 영상으로부터 얼굴의 특징(눈썹, 눈, 입)들을 추출한다. 추출한 형판으로부터 형판 벡터를 추출하고 이를 퍼지모델에 적용한다. 그 다음 감정에 따라 변하는 각각의 상태정보 이용하여 인간의 감성(놀람, 화남, 행복함, 슬픔)을 인식하는 방법을 제안한다. 마지막으로, 제안된 방법은 실험을 통해 그 응용 가능성을 확인한다.

  • PDF

Eigenface를 이용한 인간의 감정인식 시스템 (Emotional Recognition System Using Eigenfaces)

  • 주영훈;이상윤;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제13권2호
    • /
    • pp.216-221
    • /
    • 2003
  • 본 논문에서는 다양한 환경하에서 인간의 식별과 감정을 인식할 수 있는 감정 인식 알고리즘을 제안한다. 제안된 알고리즘을 구현하기 위해, 먼저, CCD 칼라 카메라에 의해 획득한 원 영상으로부터 피부색을 이용해 얼굴영상을 얻는 과정을 거친다. 그 다음, 주요 요소분석을 기본으로 하는 얼굴인식기술인 Eigenface를 사용하여 이미지들을 고차원의 픽셀공간으로부터 저차원공간으로의 변환하는 과정을 거친다. 제안된 개인에 대한 식별과 감성인식은 사용한 특징벡터들의 추출로 인한 Eigenface의 가중치와 상관관계를 통해 이루어진다. 즉, 영상의 가중치로부터 개인에 대한 식별과 감성정보를 찾는 방법을 제안한다. 마지막으로, 실험을 통해 제안된 방법의 응용가능성을 보인다.