• Title/Summary/Keyword: 지능/감정 공간

Search Result 34, Processing Time 0.028 seconds

Emotion Recognition Using Template Vector and Neural-Network (형판 벡터와 신경망을 이용한 감성인식)

  • 오재흥;이상윤;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.325-328
    • /
    • 2002
  • 본 논문에서는 사람의 식별과 감정을 인식하기 위한 하나의 방법을 제안한다. 제안된 방법은 색차 정보에 의한 형판의 위치 인식과 형판 벡터 추출에 기반한다. 단일 색차 공간만을 이용할 경우 살색 영역을 정확히 추출하기 힘들다. 이를 보완하기 위해서 여러 가지 색차 공간을 병행하여 살색 영역을 추출하며, 이를 응용하여 각각의 형판을 추출하는 방법을 제안한다. 그리고, 사람의 식별과 감정 인식을 위해서 추출된 형판에 대한 각각의 특징 벡터 추출 방법을 제시하며, 마지막으로 추출된 형판 벡터를 이용하여 신경망을 통한 학습과 인식을 수행하는 방법을 제시한다.

On the Predictive Model for Emotion Intensity Improving the Efficacy of Emotionally Supportive Chat (챗봇의 효과적 정서적 지지를 위한 한국어 대화 감정 강도 예측 모델 개발)

  • Sae-Lim Jeong;You-Jin Roh;Eun-Seok Oh;A-Yeon Kim;Hye-Jin Hong;Jee Hang Lee
    • Annual Conference of KIPS
    • /
    • 2023.11a
    • /
    • pp.656-659
    • /
    • 2023
  • 정서적 지원 대화를 위한 챗봇 개발 시, 사용자의 챗봇에 대한 사용성 및 대화 적절성을 높이기 위해서는 사용자 감정에 적합한 지원 콘텐츠를 제공하는 것이 중요하다. 이를 위해, 본 논문은 사용자 입력 텍스트의 감정 강도 예측 모델을 제안하고, 사용자 발화 맞춤형 정서적 지원 대화에 적용하고자 한다. 먼저 입력된 한국어 문장에서 키워드를 추출한 뒤, 이를 각성도 (arousal)과 긍정부 정도(valence) 공간에 투영하여 키워드가 내포하는 각성도-긍정부정도에 가장 근접한 감정을 예측하였다. 뿐만 아니라, 입력된 전체 문장에 대한 감정 강도를 추가로 예측하여, 핵심 감정 강도 - 문맥상 감정강도를 모두 추출하였다. 이러한 통섭적 감정 강도 지수들은 사용자 감정에 따른 최적 지원 전략 선택 및 최적 대화 콘텐츠 생성에 공헌할 것으로 기대한다.

Emotional Expression System Based on Dynamic Emotion Space (동적 감성 공간에 기반한 감성 표현 시스템)

  • 변광섭;박창현;심귀보;정인철;함호상
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.130-133
    • /
    • 2004
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니고 다양한 감정의 복합으로, 눈에 띄는 강정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion Space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 키리 설정된 몇개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제로 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion space를 이용한 감성 표현 시스템의 성능을 입증한다.

  • PDF

Face Expression Recognition using ICA-Factorial Representation (ICA-Factorial 표현을 이용한 얼굴감정인식)

  • 한수정;고현주;곽근창;전명근
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.329-332
    • /
    • 2002
  • 본 논문에서는 효과적인 정보를 표현하는 ICA(Independent Component Analysis)-Factorial 표현 방법을 이용하여 얼굴감정인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출과 인식단계에 의해 이루어진다. 먼저 특징추출방법은 PCA(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리를 이용하여 얼굴감정을 인식한다. 이 방법의 유용성을 설명하기 위해 6개의 기본감정(행복, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴데이터베이스를 구축하고, 기존의 방법인 Eigenfaces, Fishefaces와 비교하여 좋은 인식성능을 보이고자 한다.

Face and Emotion Recognition Using Eigenface (Eigenface를 이용한 인간의 얼굴인식과 감정인식)

  • 이상윤;오재흥;장근호;주영훈
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.321-324
    • /
    • 2002
  • 본 논문에서는 다양한 환경하에서 인간의 식별과 감정을 인식할 수 있는 감정 인식 알고리즘을 제안한다. 제안된 알고리즘을 구현하기 위해, 먼저, CCD 칼라 카메라에 의해 획득한 원 영상으로부터 피부색을 이용해 얼굴영상을 얻는 과정을 거친다. 그 다음, 주요 요소분석을 기본으로 하는 얼굴인식기술인 Eigenface를 사용하여 이미지들을 고차원의 픽셀공간으로부터 저차원공간으로의 변환하는 파정을 거친다. 제안된 개인에 대한 식별과 감성인식은 사용한 특징벡터들의 추출로 인한 Eigenface의 가중치와 상관관계를 통해 이루어진다 즉, 영상의 가중치로부터 개인에 대한 식별과 감성정보를 찾는 방법을 제안한다. 마지막으로, 실험을 통해 제안된 방법의 응용가능성을 보인다.

Emotional Expression System Based on Dynamic Emotion Space (동적 감성 공간에 기반한 감성 표현 시스템)

  • Sim Kwee-Bo;Byun Kwang-Sub;Park Chang-Hyun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.15 no.1
    • /
    • pp.18-23
    • /
    • 2005
  • It is difficult to define and classify human emotion. These vague human emotion appear not in single emotion, but in combination of various emotion. And among them, a remarkable emotion is expressed. This paper proposes a emotional expression algorithm using dynamic emotion space, which give facial expression in similar with vague human emotion. While existing avatar express several predefined emotions from database, our emotion expression system can give unlimited various facial expression by expressing emotion based on dynamically changed emotion space. In order to see whether our system practically give complex and various human expression, we perform real implementation and experiment and verify the efficacy of emotional expression system based on dynamic emotion space.

Facial Expression Recognition using ICA-Factorial Representation Method (ICA-factorial 표현법을 이용한 얼굴감정인식)

  • Han, Su-Jeong;Kwak, Keun-Chang;Go, Hyoun-Joo;Kim, Sung-Suk;Chun, Myung-Geun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.3
    • /
    • pp.371-376
    • /
    • 2003
  • In this paper, we proposes a method for recognizing the facial expressions using ICA(Independent Component Analysis)-factorial representation method. Facial expression recognition consists of two stages. First, a method of Feature extraction transforms the high dimensional face space into a low dimensional feature space using PCA(Principal Component Analysis). And then, the feature vectors are extracted by using ICA-factorial representation method. The second recognition stage is performed by using the Euclidean distance measure based KNN(K-Nearest Neighbor) algorithm. We constructed the facial expression database for six basic expressions(happiness, sadness, angry, surprise, fear, dislike) and obtained a better performance than previous works.

Garden Alive : An interaction-enabled intelligent garden (Garden Alive : 상호작용 가능한 지능적인 가상 화단)

  • Ha, Tae-Jin;Woo, Woon-Tack
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.559-561
    • /
    • 2005
  • 본 논문은 사용자가 감각형 인터페이스를 사용하여 가상공간의 지능적인 화단을 체험, 체감 할 수 있는 시스템(Garden Alive)을 제안한다. 제안된 시스템은 카메라, 조도, 습도 센서를 갖춘 현실공간의 화단과 상호작용에 사용되는 감각형 인터페이스, 진화모듈과 감정모듈을 갖춘 인공지능 모듈, 그리고 가상식물의 성장과 반응을 보여주는 Virtual Garden으로 구성된다. 감각형 인터페이스는 카메라로 사용자의 손동작을 인식하고, 조도센서로 광량을 확인하여, 습도센서로 물의 양을 측정한다. 이러한 정보를 바탕으로 인공지능 모듈은 식물의 진화 방향과 감정상태의 변화를 결정한다. Virtual Garden은 L-system을 기반으로 제작되어 가상식물들은 실제 식물들과 유사한 형태로 성장하도록 한다. 제안된 Garden Alive에서 화단의 식물들은 각각의 개체마다. 유전자를 가지고 있어 식물의 다양성을 볼 수 있고, 빛과 수분 등의 환경요인에 따른 적합도를 평가함으로써 세대를 거듭함에 따라 진화해가는 모습을 볼 수 있다. 마지막으로 단순히 자극에 반응하는 식물이 아닌 사용자와 상호작용에 따른 식물의 감정 변화를 통해 적절한 반응을 보이는 지능적인 식물을 구현하였다. 따라서 제안된 시스템은 오락과 교육을 위한 콘텐츠, 사용자에 따른 개별적 반응을 통해 심리적인 안정을 제공할 수 있는 콘텐츠 등으로 응용될 수 있다.

  • PDF

Emotional Recognition System Using Eigenfaces (Eigenface를 이용한 인간의 감정인식 시스템)

  • Joo, Young-Hoon;Lee, Sang-Yun;Sim, Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.13 no.2
    • /
    • pp.216-221
    • /
    • 2003
  • Emotions recognition is a topic on which little research has been done to date. This paper proposes a new method that can recognize the human s emotion from facial image by using eigenspace. To do so, first, we get the face image by using the skin color from the original color image acquired by CCD color camera. Second, we get the vector image which is projected the obtained face image into eigenspace. And then, we propose the method for finding out each person s identification and emotion from the weight of vector image. Finally, we show the practical application possibility of the proposed method through the experiment.

Development of Emotion Recognition Model based on Multi Layer Perceptron (MLP에 기반한 감정인식 모델 개발)

  • Lee Dong-Hoon;Sim Kwee-Bo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.16 no.3
    • /
    • pp.372-377
    • /
    • 2006
  • In this paper, we propose sensibility recognition model that recognize user's sensibility using brain waves. Method to acquire quantitative data of brain waves including priority living body data or sensitivity data to recognize user's sensitivity need and pattern recognition techniques to examine closely present user's sensitivity state through next acquired brain waves becomes problem that is important. In this paper, we used pattern recognition techniques to use Multi Layer Perceptron (MLP) that is pattern recognition techniques that recognize user's sensibility state through brain waves. We measures several subject's emotion brain waves in specification space for an experiment of sensibility recognition model's which propose in this paper and we made a emotion DB by the meaning data that made of concentration or stability by the brain waves measured. The model recognizes new user's sensibility by the user's brain waves after study by sensibility recognition model which propose in this paper to emotion DB. Finally, we estimates the performance of sensibility recognition model which used brain waves as that measure the change of recognition rate by the number of subjects and a number of hidden nodes.