• 제목/요약/키워드: Emotion matching

검색결과 56건 처리시간 0.025초

A Study on Image Recommendation System based on Speech Emotion Information

  • Kim, Tae Yeun;Bae, Sang Hyun
    • 통합자연과학논문집
    • /
    • 제11권3호
    • /
    • pp.131-138
    • /
    • 2018
  • In this paper, we have implemented speeches that utilized the emotion information of the user's speech and image matching and recommendation system. To classify the user's emotional information of speech, the emotional information of speech about the user's speech is extracted and classified using the PLP algorithm. After classification, an emotional DB of speech is constructed. Moreover, emotional color and emotional vocabulary through factor analysis are matched to one space in order to classify emotional information of image. And a standardized image recommendation system based on the matching of each keyword with the BM-GA algorithm for the data of the emotional information of speech and emotional information of image according to the more appropriate emotional information of speech of the user. As a result of the performance evaluation, recognition rate of standardized vocabulary in four stages according to speech was 80.48% on average and system user satisfaction was 82.4%. Therefore, it is expected that the classification of images according to the user's speech information will be helpful for the study of emotional exchange between the user and the computer.

영화편집론, 감정 커뮤니케이션 (Film Editing as Emotion Communication)

  • 김종국
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.584-591
    • /
    • 2014
  • 이 연구는 영화편집론에서 감정과 커뮤니케이션에 관한 논의를 고찰하였다. 커뮤니케이션 형식으로서의 편집을 통해, 관객은 이야기의 새로운 사실이나 그 사실의 세부로서 새로운 쇼트에 반응하며, 새로운 쇼트는 관객의 귀납적 능력을 이용한다. 쿨레쇼프는 유명한 모주킨 실험을 통해 편집이 개별 쇼트의 내용을 넘어서는 감정과 연상을 이끈다는 것을 보여주고자 했다. 180도 법칙, 시선과 동작의 일치, 30도 법칙, 사운드의 지속성, 빛과 색의 연속성 등의 기술을 활용하는 연속편집은 감정을 강화시킨다. 영화의 감정 효과를 극대화하는 대표적인 장치가 시점편집이다. 영화 내레이션의 목적에 봉사하는 시점편집은 감정 커뮤니케이션을 실행하고 설득하는 강력한 수단이다.

얼굴영상과 음성을 이용한 멀티모달 감정인식 (Multimodal Emotion Recognition using Face Image and Speech)

  • 이현구;김동주
    • 디지털산업정보학회논문지
    • /
    • 제8권1호
    • /
    • pp.29-40
    • /
    • 2012
  • A challenging research issue that has been one of growing importance to those working in human-computer interaction are to endow a machine with an emotional intelligence. Thus, emotion recognition technology plays an important role in the research area of human-computer interaction, and it allows a more natural and more human-like communication between human and computer. In this paper, we propose the multimodal emotion recognition system using face and speech to improve recognition performance. The distance measurement of the face-based emotion recognition is calculated by 2D-PCA of MCS-LBP image and nearest neighbor classifier, and also the likelihood measurement is obtained by Gaussian mixture model algorithm based on pitch and mel-frequency cepstral coefficient features in speech-based emotion recognition. The individual matching scores obtained from face and speech are combined using a weighted-summation operation, and the fused-score is utilized to classify the human emotion. Through experimental results, the proposed method exhibits improved recognition accuracy of about 11.25% to 19.75% when compared to the most uni-modal approach. From these results, we confirmed that the proposed approach achieved a significant performance improvement and the proposed method was very effective.

Efficient Emotional Relaxation Framework with Anisotropic Features Based Dijkstra Algorithm

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.79-86
    • /
    • 2020
  • 본 논문에서는 비등방성 특징 기반의 다익스트라 알고리즘(Dijkstra algorithm)을 이용한 효율적인 감성 완화 프레임워크를 제안한다. 감성을 완화시키는 것은 감성 분석만큼이나 중요하며, 사람의 우울함이나 외로움을 자동으로 완화시켜줄 수 있는 프레임워크로써 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)측면에서도 매우 중요한 의미를 갖는다. 본 논문에서는 1) 마이크로소프트의 Emotion API를 이용하여 얼굴 표정으로부터 변화하는 감정값을 계산하고, 2) 이 감정값의 차이를 이용하여 우울이나 외로움 같은 이상 감정을 인지한다. 3) 마지막으로, 감성 히스토그램과 비등방성 특성을 고려한 감정 메시 기반의 매칭 과정을 거침으로써 사용자에게 완화된 감성이 내포된 이미지들을 제시해준다. 본 논문에서 제안하는 기법은 얼굴 영상을 이용하여 사용자가 쉽게 감성의 변화를 인지하고, 완화된 감성으로 감정을 트레이닝 할 수 있는 시스템이다.

감정과 날씨 정보에 따른 의상 추천 시스템 (Clothing-Recommendation system based on emotion and weather information)

  • 일홈존;박두순
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.528-531
    • /
    • 2021
  • Nowadays recommendation systems are so ubiquitous, where our many decisions are being done by the means of them. We can see recommendation systems in all areas of our daily life. Therefore the research of this sphere is still so active. So far many research papers were published for clothing recommendations as well. In this paper, we propose the clothing-recommendation system according to user emotion and weather information. We used social media to analyze users' 6 basic emotions according to Paul Eckman theory and match the colour of clothing. Moreover, getting weather information using visualcrossing.com API to predict the kind of clothing. For sentiment analysis, we used Emotion Lexicon that was created by using Mechanical Turk. And matching the emotion and colour was done by applying Hayashi's Quantification Method III.

스테레오 정합을 이용한 3차원 형상정보 복원 (3D Shape Recovery based on Stereo Matching)

  • 구본기
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 1998년도 춘계학술발표 논문집
    • /
    • pp.151-154
    • /
    • 1998
  • 본 논문에서는 스테레오 정합기법을 이용하여 2차원 물체의 형상정보로부터 3차원 형상정보를 자동 추출하는 시스템을 제안한다. 본 논문에서는 정확한 3차원 형상추출을 위해서 밝기값기반 방법과 특징기반 방법의 장점을 살려 두 방법을 통합 사용하였다. 또한, 오정합을 최소화하고 처리속도를 향상시키기 위해서Coarst-to-fine 방법을 적용하였다. 제안한 방법에 의해 도출된 변이영상(Disparity map)은 3차원 그래픽을 이용하여 모델링에 적용함으로써 3차원 형상정보 추출의 타당성 및 가상공간에서의 적용 가능성을 보였다.

  • PDF

캐릭터 성격에 따른 동일 감정 표현의 다양화를 위한 감정 조정 방안 (Emotion Adjustment Method for Diverse Expressions of Same Emotion Depending on Each Character's Characteristics)

  • 이창숙;엄기현;조경은
    • 한국게임학회 논문지
    • /
    • 제10권2호
    • /
    • pp.37-47
    • /
    • 2010
  • 감정은 언어 이외에 인간이 자신의 의사를 전달할 수 있는 효과적인 수단이다. 언어와 더불어 감정을 표현함으로서 상대방에게 자신의 의사를 보다 잘 전달할 수 있다. 또한 동일한 감정의 각기 다른 표현은 개인의 성향을 가늠하는 척도로 이용되기도 한다. 따라서 가상 캐릭터의 감정 표현이 일률적이지 않으려면 성격 특성에 따라 동일 감정의 생성 및 소멸 폭을 조정해 주어야 한다. 본 논문에서는 각 감정에 영향을 주는 성격 특성을 정의하고, 이를 통해 감정을 증감 및 조정하는 방안을 제시한다. 본 논문에서는 세분화된 성격 특성이 의미하는 바와 감정을 나타내는 명사의 사전적 의미를 매치시켜 특정 감정이 어떤 성격 특성과 관계가 있는지를 정의하였다. 또한 성격 검사에서 얻어진 원점수를 활용하여, 각 감정의 증감 및 지속, 소멸을 위한 가중치를 정의한 후, 이를 토대로 감정을 조정하였다. 실제 사람의 성격 검사 데이터를 활용하여 동일한 감정을 조정한 결과, 성격 별로 다른 결과치가 나오는 것을 확인할 수 있었다. 본 연구는 5개의 차원과 30개의 하위 특성으로 이루어진 NEO-PI(NEO Personality Inventory)성인판을 이용하여 연구를 진행하였다.

음성 신호를 사용한 GMM기반의 감정 인식 (GMM-based Emotion Recognition Using Speech Signal)

  • 서정태;김원구;강면구
    • 한국음향학회지
    • /
    • 제23권3호
    • /
    • pp.235-241
    • /
    • 2004
  • 본 논문은 화자 및 문장 독립적 감정 인식을 위한 특징 파라메터와 패턴인식 알고리즘에 관하여 연구하였다. 본 논문에서는 기존 감정 인식 방법과의 비교를 위하여 KNN을 이용한 알고리즘을 사용하였고, 화자 및 문장 독립적 감정 인식을 위하여 VQ와 GMM을 이용한 알고리즘을 사용하였다. 그리고 특징으로 사용한 음성 파라메터로 피치, 에너지, MFCC, 그리고 그것들의 1, 2차 미분을 사용하였다. 실험을 통해 피치와 에너지 파라메터를 사용하였을 때보다 MFCC와 그 미분들을 특징 파라메터로 사용하였을 때 더 좋은 감정 인식 성능을 보였으며, KNN과 VQ보다 GMM을 기반으로 한 인식 알고리즘이 화자 및 문장 독립적 감정 인식 시스템에서 보다 적합하였다.

감성기반 음악.이미지 검색 추천 시스템 설계 및 구현 (A Design and Implementation of Music & Image Retrieval Recommendation System based on Emotion)

  • 김태연;송병호;배상현
    • 전자공학회논문지CI
    • /
    • 제47권1호
    • /
    • pp.73-79
    • /
    • 2010
  • 감성 지능형 컴퓨팅은 컴퓨터가 학습과 적응을 통하여 인간의 감성을 처리할 수 있는 감성인지 능력을 갖는 것으로 보다 효율적인 인간과 컴퓨터의 상호 작용을 가능하게 한다. 감성 정보들 중 시각과 청각 정보인 음악 이미지는 짧은 시간에 형성되고 기억에 오랫동안 지속되기 때문에 성공적인 마케팅에 있어서 중요한 요인으로 꼽히고 있으며, 인간의 정서를 이해하고 해석하는데 있어서 매우 중요한 역할을 한다. 본 논문에서는 사용자의 감성키워드(짜증, 우울, 차분, 기쁨)를 고려하여 매칭된 음악과 이미지를 검색하는 시스템을 구축하였다. 제안된 시스템은 인간의 감성을 4단계 경우로 상황을 정의하며, 정규화 된 음악과 이미지를 검색하기 위해 음악 이미지 온톨로지와 감성 온톨로지를 사용하였으며, 이미지의 특징정보를 추출, 유사성을 측정하여 원하는 결과를 얻게 하도록 하였다. 또한, 이미지 감성인식정보를 분류하기위해 대응일치분석과 요인분석을 통한 성컬러와 감성어휘를 하나의 공간에 매칭하였다. 실험결과 제안된 시스템은 4가지 감성상태에 대해 82.4%의 매칭율를 가져올 수 있었다.

RECOGNIZING SIX EMOTIONAL STATES USING SPEECH SIGNALS

  • Kang, Bong-Seok;Han, Chul-Hee;Youn, Dae-Hee;Lee, Chungyong
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2000년도 춘계 학술대회 및 국제 감성공학 심포지움 논문집 Proceeding of the 2000 Spring Conference of KOSES and International Sensibility Ergonomics Symposium
    • /
    • pp.366-369
    • /
    • 2000
  • This paper examines three algorithms to recognize speaker's emotion using the speech signals. Target emotions are happiness, sadness, anger, fear, boredom and neutral state. MLB(Maximum-Likeligood Bayes), NN(Nearest Neighbor) and HMM (Hidden Markov Model) algorithms are used as the pattern matching techniques. In all cases, pitch and energy are used as the features. The feature vectors for MLB and NN are composed of pitch mean, pitch standard deviation, energy mean, energy standard deviation, etc. For HMM, vectors of delta pitch with delta-delta pitch and delta energy with delta-delta energy are used. We recorded a corpus of emotional speech data and performed the subjective evaluation for the data. The subjective recognition result was 56% and was compared with the classifiers' recognition rates. MLB, NN, and HMM classifiers achieved recognition rates of 68.9%, 69.3% and 89.1% respectively, for the speaker dependent, and context-independent classification.

  • PDF