• 제목/요약/키워드: emotion engineering

검색결과 791건 처리시간 0.031초

비전 방식을 이용한 감정인식 로봇 개발 (Development of an Emotion Recognition Robot using a Vision Method)

  • 신영근;박상성;김정년;서광규;장동식
    • 산업공학
    • /
    • 제19권3호
    • /
    • pp.174-180
    • /
    • 2006
  • This paper deals with the robot system of recognizing human's expression from a detected human's face and then showing human's emotion. A face detection method is as follows. First, change RGB color space to CIElab color space. Second, extract skin candidate territory. Third, detect a face through facial geometrical interrelation by face filter. Then, the position of eyes, a nose and a mouth which are used as the preliminary data of expression, he uses eyebrows, eyes and a mouth. In this paper, the change of eyebrows and are sent to a robot through serial communication. Then the robot operates a motor that is installed and shows human's expression. Experimental results on 10 Persons show 78.15% accuracy.

VISCOSITY RESISTANCE CONTROL OF INTELLIGENT PROSTHETIC-LEGS

  • Hashimoto, Minoru;Ono, Kenji
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2000년도 춘계 학술대회 및 국제 감성공학 심포지움 논문집 Proceeding of the 2000 Spring Conference of KOSES and International Sensibility Ergonomics Symposium
    • /
    • pp.328-329
    • /
    • 2000
  • A viscosity resistance control method of the intelligent prosthetic legs is studied using an optimal control theory. The simulated results suggests that it is important to control the viscosity of the prosthetic knee joint in one period of walking to improve the usability. In this paper we describe modeling of the thigh prosthetic legs, optimal control and simulated results.

  • PDF

COMPUTATIONAL MODELING OF KANSEI PROCESSES FOR HUMAN-CENTERED INFORMATION SYSTEMS

  • Kato, Toshikazu
    • 한국감성과학회:학술대회논문집
    • /
    • 한국감성과학회 2002년도 춘계학술대회 논문집
    • /
    • pp.3-8
    • /
    • 2002
  • This paper introduces the basic concept of computational modeling of perception processes for multimedia data. Such processes are modeled as hierarchical inter- and intra- relationships amongst information in physical, physiological, psychological and cognitive layers in perception. Based on our framework, this paper gives the algorithms for content-based retrieval for multimedia database systems.

  • PDF

신체 가중치를 이용한 동일 감정 표현의 몸동작 변형 (A Study of Use of Body Motions and Body-weighted Values for Motion Display in Virtual Characters)

  • 이창숙;김대성;엄기현;조경은
    • 한국게임학회 논문지
    • /
    • 제10권6호
    • /
    • pp.125-135
    • /
    • 2010
  • 게임에서 흔히 사용하는 전신형 가상 캐릭터를 이용한 감정 표현은 주로 몸동작을 이용한다. 이때 가상 캐릭터가 표현하는 모든 감정에 대하여 각기 다른 애니메이션을 만들어 주어야 한다. 이런 이유로 인간과 같이 감정의 강도에 따라 다른 크기의 동작을 표현하려면, 만들어야 할 애니메이션의 수가 기하급수적으로 늘어나게 된다. 이러한 문제를 해결하기 위해 본 연구에서는 가상 캐릭터가 감정 강도에 따라 다른 크기의 동작을 행할 수 있게 하는 방법을 제안한다. 본 연구에서는 감정 강도별로 캐릭터가 동작을 형성하기 위해 회전시키는 뼈대에 가중치를 주어 소극적인 표현 또는 과장된 표현이 가능하도록 하였다. 제안하는 방법을 검증하기 위해 실제 가상 캐릭터에 신체 가중치를 적용할 수 있는 EATool(Emotional Animation Tool)을 구현하였다. 구현된 환경을 통해 걷기 동작에 서로 다른 감정을 부여한 후, 각 감정의 강도에 따라 신체 가중치를 적용하였다. 실험 비교 결과 감정 강도에 따라 동일한 걷기 동작의 형태가 달라지는 것을 확인할 수 있었다.

감정 인식을 통한 음악 검색 성능 분석 (A Study on the Performance of Music Retrieval Based on the Emotion Recognition)

  • 서진수
    • 한국음향학회지
    • /
    • 제34권3호
    • /
    • pp.247-255
    • /
    • 2015
  • 본 논문은 자동으로 분류된 음악 신호의 감정을 기반으로 하는 음악 검색 의 성능을 분석하였다. 음성, 영상 등의 다른 미디어 신호와 마찬가지로 음악은 인간에게 특정한 감정을 불러일으킬 수 있다. 이러한 감정은 사람들이 음악을 검색할 때 중요한 고려요소가 될 수 있다. 그렇지만 아직까지 음악의 감정을 직접 인식하여 음악 검색을 수행하고 성능을 검증한 경우는 거의 없었다. 본 논문에서는 음악 감정을 표현하는 주요한 세 축인 유발성, 활성, 긴장 과 기본 5대 감정인 행복, 슬픔, 위안, 분노, 불안의 정도를 구하고, 그 값들의 유사도를 기반으로 음악 검색을 수행하였다. 장르와 가수 데이터셋에서 실험을 수행하였다. 제안된 감정 기반 음악 검색 성능은 기존의 특징 기반 방법의 성능에 대비해서 최대 75 % 수준의 검색 정확도를 보였다. 또한 특징 기반 방법을 제안된 감정 기반 방법과 병합할 경우 최대 14 % 검색 성능 향상을 이룰 수 있었다.

프로파일기반의 FLD와 단계적 분류를 이용한 감성 인식 기법 (Emotion Recognition Method Using FLD and Staged Classification Based on Profile Data)

  • 김재협;오나래;전갑송;문영식
    • 전자공학회논문지CI
    • /
    • 제48권6호
    • /
    • pp.35-46
    • /
    • 2011
  • 본 논문에서는 피셔 선형 분리(FLD, Fisher's Linear Discriminant) 기반의 단계적 분류를 이용한 감성 인식 기법을 제안한다. 제안하는 기법은 2종 이상의 감성에 대한 다중 클래스 분류 문제에 대하여, 이진 분류 모델의 연속적인 결합을 통해 단계적 분류 모델을 구성함으로써 복잡도 높은 특징 공간상의 다수의 감성 클래스에 대한 분류 성능을 향상시킨다. 이를 위하여, 각 계층 단계의 학습에서는 감성 클래스들로 이루어진 두 개의 클래스 그룹에 따라 피셔 선형분리 공간을 구성하며, 구성된 공간상에서 Adaboost 방식을 이용하여 이진 분류 모델을 학습하여 생성한다. 각 계층 단계의 학습 과정은 모든 감성 클래스가 구분이 완료되는 시점까지 반복 수행된다. 본 논문에서는 MIT 생체 신호 프로파일을 이용하여 제안하는 기법을 실험하였다. 실험 결과, 8종의 감성에 대한 분류 실험을 통해 약 72%의 분류 성능을 확인하였고, 특정 3종의 감성에 대한 분류 실험을 통해 약 93% 분류 성능을 확인하였다.

LSTM/RNN을 사용한 감정인식을 위한 스택 오토 인코더로 EEG 차원 감소 (EEG Dimensional Reduction with Stack AutoEncoder for Emotional Recognition using LSTM/RNN)

  • ;임창균
    • 한국전자통신학회논문지
    • /
    • 제15권4호
    • /
    • pp.717-724
    • /
    • 2020
  • 감성 컴퓨팅은 인간의 상호 작용에서 중요한 역할을 하기 때문에 인간을 인식하는 인공 지능을 통해 감정을 이해하고 식별한다. 우울증, 자폐증, 주의력 결핍 과잉 행동 장애 및 게임 중독과 같은 정신 질환을 잘 이해함으로써 감정과 관련된 문제들을 잘 관리할 수 있을 것이다. 이러한 문제들을 해결하기 위해 감정 인식을 위한 다양한 연구가 수행되었는데 기계학습을 적용하는데 있어서는 알고리즘의 복잡성을 줄이고 정확도를 향상시키기 위한 노력이 필요하다. 본 논문에서는 이러한 노력중의 하나로 Stack AutoEncoder (SAE)를 이용하여 차원을 감소하는 방법과 Long-Short-Term-Memory/Recurrent Neural Networks (LSTM / RNN) 분류를 이용한 감성 분류에 대해 연구한 결과를 제시한다. 제안된 방법은 모델의 복잡성을 줄이고 분류기의 성능을 크게 향상시킨 결과를 가져왔다.

Development of Scent Display and Its Authoring Tool

  • Kim, Jeong Do;Choi, Ji Hoon;Lim, Seung Ju;Park, Sung Dae;Kim, Jung Ju;Ahn, Chung Hyun
    • ETRI Journal
    • /
    • 제37권1호
    • /
    • pp.88-96
    • /
    • 2015
  • The purpose of this study is to design an authoring tool and a corresponding device for an olfactory display that can augment the immersion and reality in broadcasting services. The developed authoring tool allows an olfactory display to be properly synchronized with the existing video service by applying the standardized format using ISO/IEC 23005 (MPEG-V) and the corresponding developed scent display device. To propose the proper data format for the olfactory display, we have analyzed both the multimodal combination and the cross-modality related to the olfactory display. From the results of the analysis, we derived a set of olfactory parameters for the olfactory display that are related to emotion. The analyzed parameters related to emotion in an olfactory display are synchronization, scent intensity, scent persistence, and hedonic tone. These parameters should be controlled so that the olfactory display can be in harmony with the existing media to augment emotion. In addition, we developed a scent display device that can generate many kinds of scents and that satisfies design conditions for olfactory parameters that are for use with broadcasting services.