• 제목/요약/키워드: Emotion-based Retrieval

검색결과 52건 처리시간 0.025초

대화형 유전자 알고리즘을 이용한 감성기반 비디오 장면 검색 (Emotion-based Video Scene Retrieval using Interactive Genetic Algorithm)

  • 유헌우;조성배
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제10권6호
    • /
    • pp.514-528
    • /
    • 2004
  • 본 논문에서는 감성에 기반한 장면단위 비디오 검색방법을 제안한다 먼저 특정 줄거리를 담은 장면 비디오 클립에서 급진적/점진적 샷 경계 검출 후. "평균 색상 히스토그램", "평균 자기", "평균 에지 히스토그램", "평균 샷 시간", "점진적 샷 변화율"의 5가지 특징을 추출하고, 이 특징과 사람이 막연하게 가지고 있는 감성공간과의 매핑을 대화형 유전자 알고리즘(IGA, Interactive Genetic Algorithm)을 통하여 실현한다. 제안된 검색 알고리즘은 초기 모집단 비디오들에 대해 찾고자 하는 감성을 내포하고 있는 비디오를 선택하면 선택된 비디오들에서 추출된 특징 벡터를 염색체로 간주하고 이에 대해 교차연산(crossover)을 적용한다. 다음에 새롭게 생성된 염색체들과 특징벡터로 색인된 데이타베이스 비디오들간에 유사도 함수에 의해 가장 유사한 비디오들을 검색하여 다음 세대의 집단으로 제시한다. 이와 같은 과정을 여러 세대에 걸쳐서 실행하여 사용자가 가지고 있는 감성을 내포하는 비디오 집단들을 얻게 된다 제안된 방법의 효과성을 보이기 위해, 300개의 광고 비디오 클립들에 대해 "action", "excitement", "suspense", "quietness", "relaxation", "happiness" 의 감성을 가진 비디오를 검색한 결과 평균 70%의 만족도를 얻을 수 있었다.

WebSES : 배색을 이용한 웹 사이트 감성 평가 시스템 (WebSES : Web Site Sensibility Evaluation System based on Color Combination)

  • 유헌우;조경자;홍지영;박수이
    • 감성과학
    • /
    • 제7권1호
    • /
    • pp.51-64
    • /
    • 2004
  • 본 논문에서는 웹 페이지의 배색에 따른 감성 평가치를 바탕으로 감성기반 웹 페이지 검색 시스템을 구현하였다. 구현된 시스템은 웹 페이지의 색상 정보를 자동으로 추출하여 데이터베이스에 색인하는 모듈과 감성 형용사가 주어졌을 때 감성과 관련된 색상 배색이 많이 포함된 웹 페이지를 내림차순으로 검색하는 모듈로 구성된다. 구현된 시스템의 타당성을 검증하기 위해 실제 웹 페이지를 대상으로 시스템이 검색한 순위와 사용자 설문조사와 전문가 평정에 의한 순위를 비교 분석한다. 사용자 설문조사 결과 18개의 감성 형용사 중 10개의 형용사에 대해 통계적으로 적합한 결과를 보였으며, 상/하위 5개의 사이트만을 고려한 전문가 평정에서는 14개의 형용사가 적합한 결과를 보였다.

  • PDF

Multiclass Music Classification Approach Based on Genre and Emotion

  • Jonghwa Kim
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권3호
    • /
    • pp.27-32
    • /
    • 2024
  • Reliable and fine-grained musical metadata are required for efficient search of rapidly increasing music files. In particular, since the primary motive for listening to music is its emotional effect, diversion, and the memories it awakens, emotion classification along with genre classification of music is crucial. In this paper, as an initial approach towards a "ground-truth" dataset for music emotion and genre classification, we elaborately generated a music corpus through labeling of a large number of ordinary people. In order to verify the suitability of the dataset through the classification results, we extracted features according to MPEG-7 audio standard and applied different machine learning models based on statistics and deep neural network to automatically classify the dataset. By using standard hyperparameter setting, we reached an accuracy of 93% for genre classification and 80% for emotion classification, and believe that our dataset can be used as a meaningful comparative dataset in this research field.

SYMMER: A Systematic Approach to Multiple Musical Emotion Recognition

  • Lee, Jae-Sung;Jo, Jin-Hyuk;Lee, Jae-Joon;Kim, Dae-Won
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제11권2호
    • /
    • pp.124-128
    • /
    • 2011
  • Music emotion recognition is currently one of the most attractive research areas in music information retrieval. In order to use emotion as clues when searching for a particular music, several music based emotion recognizing systems are fundamentally utilized. In order to maximize user satisfaction, the recognition accuracy is very important. In this paper, we develop a new music emotion recognition system, which employs a multilabel feature selector and multilabel classifier. The performance of the proposed system is demonstrated using novel musical emotion data.

감성정보검색을 위한 지식베이스 구축방법 (The Method to Build Knowledge-Base for User's Preference Retrieval)

  • 김돈한
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2008년도 추계학술대회
    • /
    • pp.5-8
    • /
    • 2008
  • This study proposed the Knowledge Base Building method reflecting the user's preferences based on the fuzzy set theory to develop information contents which support pedestrian's navigation. This research evaluated subject's preferences on the commercial spaces set to the hypothetical destination. Also it surveyed the causal relationship between the visual characteristics and the emotional characteristics to propose the methods of Navigation Knowledge Base (NKB). The NKB was composed by three elements; 1.the correlation model between emotional characteristics, 2.the causal relationship between visual characteristics and emotional characteristics, 3.the transformation model between visual characteristics and the physical characteristics.

  • PDF

Rough Set-Based Approach for Automatic Emotion Classification of Music

  • Baniya, Babu Kaji;Lee, Joonwhoan
    • Journal of Information Processing Systems
    • /
    • 제13권2호
    • /
    • pp.400-416
    • /
    • 2017
  • Music emotion is an important component in the field of music information retrieval and computational musicology. This paper proposes an approach for automatic emotion classification, based on rough set (RS) theory. In the proposed approach, four different sets of music features are extracted, representing dynamics, rhythm, spectral, and harmony. From the features, five different statistical parameters are considered as attributes, including up to the $4^{th}$ order central moments of each feature, and covariance components of mutual ones. The large number of attributes is controlled by RS-based approach, in which superfluous features are removed, to obtain indispensable ones. In addition, RS-based approach makes it possible to visualize which attributes play a significant role in the generated rules, and also determine the strength of each rule for classification. The experiments have been performed to find out which audio features and which of the different statistical parameters derived from them are important for emotion classification. Also, the resulting indispensable attributes and the usefulness of covariance components have been discussed. The overall classification accuracy with all statistical parameters has recorded comparatively better than currently existing methods on a pair of datasets.

LED조명 시스템을 이용한 음악 감성 시각화에 대한 연구 (Emotion-based music visualization using LED lighting control system)

  • 응웬반로이;김동림;임영환
    • 한국게임학회 논문지
    • /
    • 제17권3호
    • /
    • pp.45-52
    • /
    • 2017
  • 본 논문은 음악의 감성을 시각화하는 새로운 방법을 제안하는 논문으로 시각화를 위하여 감성 LED조명 제어 시스템을 고안하였으며 이 시스템은 청중들의 음악 경험을 더욱 풍요롭게 하기 위함에 목적이 있다. 이 시스템은 기존 연구의 음악 감성 분석 알고리즘을 이용하였는데 하나의 음악에서 하나의 감성을 추출하는 기존 연구의 한계를 보완하고자 음악의 1초당 세그먼트에서 감성을 추출 하여 감성 변화를 감지하는 방법을 연구하였다. 또한 LED조명의 감성 컬러는 IRI컬러 모델과 Thayer의 감성 모델을 기초로 새로운 감성 컬러 36가지를 정의 하여 각 감성에 맞는 색으로 연출 할 수 있도록 구성하고 애니메이션과 더불어 감성 LED 조명으로 표현 할 수 있도록 하였다. 이 시스템의 검증을 위한 실험 결과, 듣는이의 감성과 감성 LED 조명 시스템의 감성 일치율이 60% 이상으로 향후 음악 감성 기반 서비스의 중요한 밑거름이 될 것으로 보인다.

스토리 기반의 정보 검색 연구 (Story-based Information Retrieval)

  • 유은순;박승보
    • 지능정보연구
    • /
    • 제19권4호
    • /
    • pp.81-96
    • /
    • 2013
  • 웹의 발전과 콘텐츠 산업의 팽창으로 비디오 데이터가 폭발적으로 증가함에 따라 데이터의 정보 검색은 매우 중요한 문제가 되었다. 그동안 비디오 데이터의 정보 검색과 브라우징을 위해 비디오의 프레임(frame)이나 숏(shot)으로부터 색채(color)와 질감(texture), 모양(shape)과 같은 시각적 특징(features)들을 추출하여 비디오의 내용을 표현하고 유사도를 측정하는 내용 기반(content-based)방식의 비디오 분석이 주를 이루었다. 영화는 하위 레벨의 시청각적 정보와 상위 레벨의 스토리 정보를 포함하고 있다. 저차원의 시각적 특징을 통해 내용을 표현하는 내용 기반 분석을 영화에 적용할 경우 내용 기반 분석과 인간이 인지하는 영화의 내용 사이에는 의미적 격차(semantic gap)가 발생한다. 왜냐하면 영화의 스토리는 시간의 진행에 따라 그 내용이 변하고, 관점에 따라 주관적 해석이 가능한 고차원의 의미정보이기 때문이다. 따라서 스토리 차원의 정보 검색을 위해서는 스토리를 모델링하는 정형화된 모형이 필요하다. 최근 들어 소셜 네트워크 개념을 활용한 스토리 기반의 비디오 분석 방법들이 등장하고 있다. 그러나 영화 속 등장인물들의 소셜 네트워크를 통해 스토리를 표현하는 이 방법들은 몇 가지 문제점들을 드러내고 있다. 첫째, 등장인물들의 관계에만 초점이 맞추어져 있으며, 스토리 진행에 따른 등장인물들의 관계 변화를 역동적으로 표현하지 못한다. 둘째, 등장인물의 정체성과 심리상태를 보여주는 감정(emotion)과 같은 심층적 정보를 간과하고 있다. 셋째, 등장인물 이외에 스토리를 구성하는 사건과 배경에 대한 정보들을 반영하지 못하고 있다. 따라서 본 연구는 기존의 스토리 기반의 비디오 분석 방법들의 한계를 살펴보고, 문제 해결을 위해 문학 이론에서 제시하고 있는 서사 구조에 근거하여 스토리 모델링에 필요한 요소들을 인물, 배경, 사건의 세 가지 측면에서 제시하고자 한다.

음악 추천을 위한 감정 전이 모델 기반의 음악 분류 기법 (Emotion Transition Model based Music Classification Scheme for Music Recommendation)

  • 한병준;황인준
    • 전기전자학회논문지
    • /
    • 제13권2호
    • /
    • pp.159-166
    • /
    • 2009
  • 최근까지 장르나 무드 등의 정적 분류 기술자를 이용한 음악 정보 검색에 관한 다양한 연구가 진행되어 왔다. 정적 분류 기술자는 주로 음악의 다양한 내용적 특징에 기반하기 때문에 그러한 특징에 유사한 음악을 검색하는 데 효과적이다. 하지만 음악을 들었을 때 느끼게 되는 감정 내지 기분 전이를 이용하면 정적 분류 기술자보다 더 효과적이고 정교한 검색이 가능하다. 사람이 음악을 들었을 때 발생하는 감정 전이의 효과에 관한 연구는 현재까지 미비한 실정이다. 감정 전이의 효과를 체계적으로 표현할 수 있다면 기존의 음악 분류에 의한 검색에 비해 음악 추천 등의 새로운 응용에서 더 효과적인 개인화 서비스를 제공할 수 있다. 본 논문에서는 음악에 의한 인간 감정 전이를 표현하기 위한 감정 상태 전이 모델을 제안하고 이를 기반으로 새로운 음악 분류 및 추천 기법을 제안한다. 제안하는 모델의 개발을 위하여 다양한 내용 기반의 특징을 추출하였으며, 고차원 특징 벡터의 차원 감쇄를 위하여 NMF (Non-negative Matrix Factorization)를 사용하였다. 성능 분석을 위한 실험에서 SVM (Support Vector Machine)을 분류기로 사용한 실험에서 평균 67.54%, 최대 87.78%의 분류 정확도를 달성하였다.

  • PDF

감성 형용사 시소러스를 이용한 감성 기반 이미지 검색 (Emotion-based Image Retrieval Using Emotional Term Thesaurus)

  • 김용일;양형성;양재동
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.322-324
    • /
    • 2001
  • 기존의 이미지 검색에서는 원하는 이미지를 검색하기 위하여 사용자가 이미지의 가시적 속성을 정확히 표현하도록 요구함으로써 질의가 제한되었다. 본 논문에서는 색상으로부터 유추될 수 있는 감성 형용사를 감성 용어 시소러스로 구축하여 감성 기반의 이미지 검색이 가능하도록 하였다. 감성 용어 시소러스를 이용함으로써 ‘부드러운’, ‘세련된’등과 같은 감성 용어를 검색의 질의어로 사용할 수 있게 되어 사용자의 검색 의도를 보다 정확하게 표현할 수 있게 되고, 검색의 결과에 대한 만족도를 향상 시킬 수 있다.

  • PDF