• 제목/요약/키워드: Emotion Computing

검색결과 107건 처리시간 0.022초

이미지 색채 속성을 활용한 감성 정량화 알고리즘 (Color Images Utilizing the Properties Emotional Quantification Algorithm)

  • 이연란
    • 한국콘텐츠학회논문지
    • /
    • 제15권11호
    • /
    • pp.1-9
    • /
    • 2015
  • 감성인식을 규칙적으로 제어하고 변화하려는 감성컴퓨터 연구에 관심이 집중되고 있다. 따라서 색채 감성컴퓨팅의 정량화한 객관적인 평가 방식 적용이 필수적인 상황이다. 이에 본 논문은 이미지 감성인식을 숫자화한 표현방식으로 색채 디지털 감성컴퓨팅 계산을 적용한다. 감성컴퓨팅 연구방식은 이미지에 집중된 감성인식인 색채 속성으로 구성하고, 색채 감성속성은 색상, 명도, 채도로 구분한다. 감성속성의 비중톤 증감에 따른 감성점수와 가중치를 감성식에 적용하여 계산한다. 감성계산식은 쾌정도(X축), 긴장도(Y축)를 계산한다. 그리고 감성좌표에 쾌정도(X축), 긴장도(Y축)의 교차점을 감성점으로 위치한다. 감성좌표는 러셀의 핵심 효과(Core Affect)를 활용한다. 감성점 위치에서 대표감성크기와 감성상관관계를 숫자화하고, 색채 감성컴퓨팅을 통해 정량화한다.

Affective Computing in Education: Platform Analysis and Academic Emotion Classification

  • So, Hyo-Jeong;Lee, Ji-Hyang;Park, Hyun-Jin
    • International journal of advanced smart convergence
    • /
    • 제8권2호
    • /
    • pp.8-17
    • /
    • 2019
  • The main purpose of this study isto explore the potential of affective computing (AC) platforms in education through two phases ofresearch: Phase I - platform analysis and Phase II - classification of academic emotions. In Phase I, the results indicate that the existing affective analysis platforms can be largely classified into four types according to the emotion detecting methods: (a) facial expression-based platforms, (b) biometric-based platforms, (c) text/verbal tone-based platforms, and (c) mixed methods platforms. In Phase II, we conducted an in-depth analysis of the emotional experience that a learner encounters in online video-based learning in order to establish the basis for a new classification system of online learner's emotions. Overall, positive emotions were shown more frequently and longer than negative emotions. We categorized positive emotions into three groups based on the facial expression data: (a) confidence; (b) excitement, enjoyment, and pleasure; and (c) aspiration, enthusiasm, and expectation. The same method was used to categorize negative emotions into four groups: (a) fear and anxiety, (b) embarrassment and shame, (c) frustration and alienation, and (d) boredom. Drawn from the results, we proposed a new classification scheme that can be used to measure and analyze how learners in online learning environments experience various positive and negative emotions with the indicators of facial expressions.

Emotion-aware Task Scheduling for Autonomous Vehicles in Software-defined Edge Networks

  • Sun, Mengmeng;Zhang, Lianming;Mei, Jing;Dong, Pingping
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권11호
    • /
    • pp.3523-3543
    • /
    • 2022
  • Autonomous vehicles are gradually being regarded as the mainstream trend of future development of the automobile industry. Autonomous driving networks generate many intensive and delay-sensitive computing tasks. The storage space, computing power, and battery capacity of autonomous vehicle terminals cannot meet the resource requirements of the tasks. In this paper, we focus on the task scheduling problem of autonomous driving in software-defined edge networks. By analyzing the intensive and delay-sensitive computing tasks of autonomous vehicles, we propose an emotion model that is related to task urgency and changes with execution time and propose an optimal base station (BS) task scheduling (OBSTS) algorithm. Task sentiment is an important factor that changes with the length of time that computing tasks with different urgency levels remain in the queue. The algorithm uses task sentiment as a performance indicator to measure task scheduling. Experimental results show that the OBSTS algorithm can more effectively meet the intensive and delay-sensitive requirements of vehicle terminals for network resources and improve user service experience.

Jointly Image Topic and Emotion Detection using Multi-Modal Hierarchical Latent Dirichlet Allocation

  • Ding, Wanying;Zhu, Junhuan;Guo, Lifan;Hu, Xiaohua;Luo, Jiebo;Wang, Haohong
    • Journal of Multimedia Information System
    • /
    • 제1권1호
    • /
    • pp.55-67
    • /
    • 2014
  • Image topic and emotion analysis is an important component of online image retrieval, which nowadays has become very popular in the widely growing social media community. However, due to the gaps between images and texts, there is very limited work in literature to detect one image's Topics and Emotions in a unified framework, although topics and emotions are two levels of semantics that often work together to comprehensively describe one image. In this work, a unified model, Joint Topic/Emotion Multi-Modal Hierarchical Latent Dirichlet Allocation (JTE-MMHLDA) model, which extends previous LDA, mmLDA, and JST model to capture topic and emotion information at the same time from heterogeneous data, is proposed. Specifically, a two level graphical structured model is built to realize sharing topics and emotions among the whole document collection. The experimental results on a Flickr dataset indicate that the proposed model efficiently discovers images' topics and emotions, and significantly outperform the text-only system by 4.4%, vision-only system by 18.1% in topic detection, and outperforms the text-only system by 7.1%, vision-only system by 39.7% in emotion detection.

  • PDF

감성 트리를 이용한 이미지 감성 분석 알고리즘 (Emotional Tree Using Sensitivity Image Analysis Algorithm)

  • 이연란;윤은주;임정아;임영환;성정환
    • 한국콘텐츠학회논문지
    • /
    • 제13권11호
    • /
    • pp.562-570
    • /
    • 2013
  • 이미지를 감성으로 쾌 또는 불쾌, 긴장 또는 평온의 구분 감성을 트리 형식으로 가중치를 부여하여 평가한다. 이미지 대표평가 감성인 명도대비를 평가 기준으로 1차는 쾌, 불쾌 또는 긴장 또는 평온이고 2차는 세분화 이미지 감성으로 구분한다. 4개의 감성인식을 수치화 된 명도대비 데이터로 측정한다. 평가 구현은 OpenCV를 통해 명도대비를 그래프화하여 긴장, 평온, 쾌, 불쾌 값 변화에 따라 4개 감성으로 구분하여 컴퓨팅한다. 감성 컴퓨팅으로 명도대비의 입력된 값에 따라 '불쾌'를 '쾌' 또는 '긴장'을 '평온'으로 감성적 변화를 줄 수 있다. 이미지 감성의 규칙성을 계산화 된 컴퓨팅 시스템으로 제어할 수 있고 향후 산업방향에 감성 인식의 적용에 대한 긍정적인 역할을 할 것이다.

음성신호기반의 감정분석을 위한 특징벡터 선택 (Discriminative Feature Vector Selection for Emotion Classification Based on Speech)

  • 최하나;변성우;이석필
    • 전기학회논문지
    • /
    • 제64권9호
    • /
    • pp.1363-1368
    • /
    • 2015
  • Recently, computer form were smaller than before because of computing technique's development and many wearable device are formed. So, computer's cognition of human emotion has importantly considered, thus researches on analyzing the state of emotion are increasing. Human voice includes many information of human emotion. This paper proposes a discriminative feature vector selection for emotion classification based on speech. For this, we extract some feature vectors like Pitch, MFCC, LPC, LPCC from voice signals are divided into four emotion parts on happy, normal, sad, angry and compare a separability of the extracted feature vectors using Bhattacharyya distance. So more effective feature vectors are recommended for emotion classification.

감정 자세 인식을 위한 자세특징과 감정예측 모델 (Posture features and emotion predictive models for affective postures recognition)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제12권6호
    • /
    • pp.83-94
    • /
    • 2011
  • 감정 컴퓨팅의 대표적 연구 주제는 기계가 사람의 감정을 인식하여 이에 적절히 대응하는 것이다. 감정 인식 연구에서는 얼굴과 목소리 단서를 이용하여 감정을 포착하는데 집중했으며 최근에 와서 행동자세를 주요 수단으로 이용하고 있다. 본 연구의 목적은 감정 표현에서 중요한 역할을 담당하는 자세 특징을 포착하고 확인하여 감정을 판별하는 것이다. 이를 위해 먼저 자세포착시스템으로 다양한 감정 자세를 수집하여 감정별 특징을 공간적 특징으로 설명한다. 그리고 동작을 취하는 행위자가 의도하는 감정과 관찰자가 인지하는 감정 간에 통계적으로 의미 있는 상관관계가 있음을 표준통계기술을 통해 확인한다. 6가지 주요 감정을 판별하기 위해 판별 분석법을 이용하여 감정 자세 예측 모델을 구축하고 자세 특징을 측정한다. 제안 특징과 모델의 평가는 행위자-관찰자 감정 자세 집단의 상관관계를 이용하여 수행한다. 정량적 실험 결과는 제안된 자세 특징으로 감정을 잘 판별하며 감정 예측 모델이 잘 수행됨을 보여준다.

웨어러블 센서를 이용한 라이프로그 데이터 자동 감정 태깅 (Automated Emotional Tagging of Lifelog Data with Wearable Sensors)

  • 박경화;김병희;김은솔;조휘열;장병탁
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권6호
    • /
    • pp.386-391
    • /
    • 2017
  • 본 논문에서는 실생활에서 수집한 웨어러블 센서 데이터에서 사용자의 체험 기반 감정 태그정보를 자동으로 부여하는 시스템을 제안한다. 사용자 본인의 감정과 사용자가 보고 듣는 정보를 종합적으로 고려하여 네 가지의 감정 태그를 정의한다. 직접 수집한 웨어러블 센서 데이터를 중심으로 기존 감성컴퓨팅 연구를 통해 알려진 보조 정보를 결합하여, 다중 센서 데이터를 입력으로 하고 감정 태그를 구분하는 머신러닝 기반 분류 시스템을 학습하였다. 다중 모달리티 기반 감정 태깅 시스템의 유용성을 보이기 위해, 기존의 단일 모달리티 기반의 감정 인식 접근법과의 정량적, 정성적 비교를 한다.

Emotion Recognition of Low Resource (Sindhi) Language Using Machine Learning

  • Ahmed, Tanveer;Memon, Sajjad Ali;Hussain, Saqib;Tanwani, Amer;Sadat, Ahmed
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.369-376
    • /
    • 2021
  • One of the most active areas of research in the field of affective computing and signal processing is emotion recognition. This paper proposes emotion recognition of low-resource (Sindhi) language. This work's uniqueness is that it examines the emotions of languages for which there is currently no publicly accessible dataset. The proposed effort has provided a dataset named MAVDESS (Mehran Audio-Visual Dataset Mehran Audio-Visual Database of Emotional Speech in Sindhi) for the academic community of a significant Sindhi language that is mainly spoken in Pakistan; however, no generic data for such languages is accessible in machine learning except few. Furthermore, the analysis of various emotions of Sindhi language in MAVDESS has been carried out to annotate the emotions using line features such as pitch, volume, and base, as well as toolkits such as OpenSmile, Scikit-Learn, and some important classification schemes such as LR, SVC, DT, and KNN, which will be further classified and computed to the machine via Python language for training a machine. Meanwhile, the dataset can be accessed in future via https://doi.org/10.5281/zenodo.5213073.