• Title/Summary/Keyword: 로봇 감정

Search Result 109, Processing Time 0.026 seconds

Three-Layered Hybrid Architecture for Emotional Reactive System (하이브리드 구조에 의한 감정 반응 시스템)

  • Jung, Jun-Young;Lee, Dong-Wook;Lee, Ho-Gil
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.54-55
    • /
    • 2008
  • 본 논문에서는 인간형 로봇의 태스크 실행 중 자율 감정 생성을 위하여 Three-layered hybrid architecture에 기반한 감정 반응 시스템을 제안한다. Three-layered hybrid architecture는 Deliberative layer, Reactive layer Hardware abstraction layer의 3단계의 계층으로 되어 있으며, 모바일 로봇의 자율 동작을 위해서 개발되었다. 본 연구에서는 저자가 개발중인 안드로이드 EveR-2의 감정 시스템에 적용하여 로봇의 태스크 동작 중에 외부의 자극들로부터 자신의 감정을 생성하고, 생성된 감정과 태스크를 조합하여 자신의 행동을 변화시키며 인간과 상호작용하는 로봇 감정 시스템을 구현하였다.

  • PDF

The Emotion Inference Model Bassed using Neural Network (신경망을 이용한 감정추론 모델)

  • 김상헌;정재영;이원호;이형우;노태정
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.309-312
    • /
    • 2004
  • 본 논문에서는 인간과 로봇의 상호작용을 위해 감정에 기반한 감정 처리 모델을 설계하였다. 감정 재현 기술은 사용자에게 친근감을 주기 위해 로봇 시스템이 제스처, 표정을 통하여 사람이나 동물의 감성과 동작을 표현하는 분야이다. 로봇이 감정을 표현하는 문제에는 많은 심리학적, 해부학적, 공학적 문제가 관련된다. 여러가지 애매모호한 상황임에 불구하고 심리학자인 Ekman과 Friesen에 의해 사람의 여섯 가지 기본 표정이 놀람, 공포, 혐오, 행복감, 두려움, 슬픔은 문화에 영향을 받지 않고 공통적으로 인식되는 보편성을 가지고 있는 것으로 연구됐다. 사람의 행동에 대한 로봇의 반응이 학습되어 감정모델이 결정되고, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 본 논문에서는 인간과 로봇과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나 갈 수 있는 감정 처리 모델을 제안한다.

  • PDF

Model Behavior selection based on the motivation and hierarchicalized emotions. (동기와 계층화된 감정에 기반한 로봇의 행동결정)

  • 안형철;박명수;최진영
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.29-33
    • /
    • 2004
  • 본 논문에서는 인간과 엔터테인먼트 로봇의 상호작용을 위해, 동기(motivation)와 계층화된 감정(hierarchical emotion)에 기반한 행동결정 모델을 설계하였다. 감정모델은 계층화되고 학습 가능하도록 하여, 인간의 행동결정과 유사하게 동작하도록 하였다. 감정모델을 통해 로봇의 행동에 대한 인간의 반응이 학습되는데, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 감정모델과 함께 동기가 행동결정에 영향을 주는데, 초기에는 외부에서 주어지는 동기가 주로 행동을 결정하고, 감정모델이 학습될수록 점차 감정의 영향이 증가하여 동기와 계층화된 감정을 함께 고려하여 행동을 결정하도록 하였다. 그럼으로써, 인간과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나갈 수 있게 하였다

  • PDF

Emotion Recognition of User using 2D Face Image in the Mobile Robot (이동로봇에서의 2D얼굴 영상을 이용한 사용자의 감정인식)

  • Lee, Dong-Hun;Seo, Sang-Uk;Go, Gwang-Eun;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2006.11a
    • /
    • pp.131-134
    • /
    • 2006
  • 본 논문에서는 가정용 로봇 및 서비스 로봇과 같은 이동로봇에서 사용자의 감정을 인식하는 방법중 한가지인 얼굴영상을 이용한 감정인식 방법을 제안한다. 얼굴영상인식을 위하여 얼굴의 여러 가지 특징(눈썹, 눈, 코, 입)의 움직임 및 위치를 이용하며, 이동로봇에서 움직이는 사용자를 인식하기 위한 움직임 추적 알고리즘을 구현하고, 획득된 사용자의 영상에서 얼굴영역 검출 알고리즘을 사용하여 얼굴 영역을 제외한 손과 배경 영상의 피부색은 제거한다. 검출된 얼굴영역의 거리에 따른 영상 확대 및 축소, 얼굴 각도에 따른 영상 회전변환 등의 정규화 작업을 거친 후 이동 로봇에서는 항상 고정된 크기의 얼굴 영상을 획득 할 수 있도록 한다. 또한 기존의 특징점 추출이나 히스토그램을 이용한 감정인식 방법을 혼합하여 인간의 감성 인식 시스템을 모방한 로봇에서의 감정인식을 수행한다. 본 논문에서는 이러한 다중 특징점 추출 방식을 통하여 이동로봇에서의 얼굴 영상을 이용한 사용자의 감정인식 시스템을 제안한다.

  • PDF

Development of Emotion Recognition and Expression module with Speech Signal for Entertainment Robot (엔터테인먼트 로봇을 위한 음성으로부터 감정 인식 및 표현 모듈 개발)

  • Mun, Byeong-Hyeon;Yang, Hyeon-Chang;Sim, Gwi-Bo
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.82-85
    • /
    • 2007
  • 현재 가정을 비롯한 여러 분야에서 서비스 로봇(청소 로봇, 애완용 로봇, 멀티미디어 로봇 둥)의 사용이 증가하고 있는 시장상황을 보이고 있다. 개인용 서비스 로봇은 인간 친화적 특성을 가져야 그 선호도가 높아질 수 있는데 이를 위해서 사용자의 감정 인식 및 표현 기술은 필수적인 요소이다. 사람들의 감정 인식을 위해 많은 연구자들은 음성, 사람의 얼굴 표정, 생체신호, 제스쳐를 통해서 사람들의 감정 인식을 하고 있다. 특히, 음성을 인식하고 적용하는 것에 관한 연구가 활발히 진행되고 있다. 본 논문은 감정 인식 시스템을 두 가지 방법으로 제안하였다. 현재 많이 개발 되어지고 있는 음성인식 모듈을 사용하여 단어별 감정을 분류하여 감정 표현 시스템에 적용하는 것과 마이크로폰을 통해 습득된 음성신호로부터 특정들을 검출하여 Bayesian Learning(BL)을 적용시켜 normal, happy, sad, surprise, anger 등 5가지의 감정 상태로 패턴 분류를 한 후 이것을 동적 감정 표현 알고리즘의 입력값으로 하여 dynamic emotion space에 사람의 감정을 표현할 수 있는 ARM 플랫폼 기반의 음성 인식 및 감정 표현 시스템 제안한 것이다.

  • PDF

Emotional Behavior Decision Method and Its Experiments of Generality for Applying to Various Social Robot Systems (목적과 사양이 다른 다양한 인간 친화 로봇에 적용하기 위한 감성 행동 생성 방법 및 범용성 실험)

  • Ahn, Ho-Seok;Choi, Jin-Young;Lee, Dong-Wook
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.48 no.4
    • /
    • pp.54-62
    • /
    • 2011
  • Emotional reaction should be different from the purpose of the robot system. The method for emotional reaction is also different from the specification of the robot system. Therefore, emotional behavior decision model, which is applied to social robots regardless of specifications and purposes, is necessary. This paper introduces a universal emotional behavior decision model designed for applying to various social robots that have different specifications and purposes. Multiple emotions, a set of probability value of every emotion, are calculated independently and expressed according to the purpose of the robot system. Then, behavior, for emotional reaction according to the calculated multiple emotions, is decided regarding the specification of the robot system. The decided behavior is a combination of unit behaviors that indicates the smallest expressible behaviors in each expression parts. It is possible to express various undefined behaviors by generating unit behavior combinations according to multiple emotions. The universal emotional behavior decision model is applied to three kinds of social robot systems that have different specifications and purposes.

Personality Based Emotional Model Using 3D Character Head Robot System (3D 캐릭터 기반의 헤드 로봇을 이용한 성격 기반 감정 모델)

  • Ahn, Ho-Seok;Choi, Jin-Young
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.325-326
    • /
    • 2008
  • 서비스 로봇은 인간과 상호 교감을 하기 때문에 감성기반 인터렉션을 가지고 있어야 한다. 그리고 로봇이 인지하는 상황과 환경이 같을지라도 감정 기반 행동 결정 모델의 출력이 달라질수 있도록 한다. 이는 설계하고자 하는 감정 기반 행동 결정 모델의 특성을 변화함으써 해결하고자 하며, 감정 모델의 특성은 성격을 의미한다. 따라서 사람과 같이 성격을 달리함으로써 로봇이 감정을 느끼고 이에 따른 반응을 행동으로 옮길 때, 성격을 반영한 결과를 보이게 된다. 본 논문에서 제안하는 감정 엔진 모델은 reaction dynamics와 internal dynamics, emotional dynamics, behavior dynamics, 성격 등의 다섯 가지 요소로 구성되어 있다. 모든 dynamics는 성격에 영향을 받아 결과를 출력한다. 실험을 위하여 시뮬레이터를 구현하여 성능을 검증하고, 실제 로봇에 적용하기 위하여 3D 캐릭터기반의 헤드 로봇 시스템을 사용하였다.

  • PDF

Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity (로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어)

  • Kim, Min-Gyu;Lee, Hui-Sung;Park, Jeong-Woo;Jo, Su-Hun;Chung, Myung-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.547-552
    • /
    • 2008
  • Human and robot will have closer relation in the future, and we can expect that the interaction between human and robot will be more intense. To take the advantage of people's innate ability of communication, researchers concentrated on the facial expression so far. But for the robot to express emotional intensity, other modalities such as gesture, movement, sound, color are also needed. This paper suggests that the intensity of emotion can be expressed with color and blinking so that it is possible to apply the result to LED. Color and emotion definitely have relation, however, the previous results are difficult to implement due to the lack of quantitative data. In this paper, we determined color and blinking period to express the 6 basic emotions (anger, sadness, disgust, surprise, happiness, fear). It is implemented on avatar and the intensities of emotions are evaluated through survey. We figured out that the color and blinking helped to express the intensity of emotion for sadness, disgust, anger. For fear, happiness, surprise, the color and blinking didn't play an important role; however, we may improve them by adjusting the color or blinking.

  • PDF

State-of-the-Art of Domestic Emotional Robots (국내 감성로봇 연구 현황)

  • Cha, Go-Eum;Kim, Eun Jin;Lee, Kang-Hee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.161-162
    • /
    • 2017
  • 외부환경을 인식하고 상황을 판단해 자율적으로 행동하는 지능형 서비스 로봇은 앞으로 새로운 시장을 열어줄 것으로 기대되며 이와 관련된 연구와 개발이 빠르게 확대되고 있다. 이러한 서비스 로봇에게 가장 중요한 기능은 인간과의 원활한 상호작용이다. 여기서 말하는 상호작용이란 단순히 인간이 원하는 것을 명령하고, 로봇이 이 명령을 수행하는 것에 그치는 것이 아니라, 로봇이 스스로 인간의 감정을 파악하고, 이에 대한 적절한 로봇 자신의 감정 표출이나 서비스, 행동을 제공함으로써 직접적인 소통이 이루어지는 것을 의미한다. 이렇게 로봇이 자연스럽게 인간과 함께 공존하기 위해서 감성 로봇(Emotional Robot) 분야에서 관련된 연구가 활발히 진행되고 있다 본 논문에서는 국내의 감성 로봇의 연구 현황과 발전 방향에 대해 서술한다.

  • PDF

Speech emotion recognition for affective human robot interaction (감성적 인간 로봇 상호작용을 위한 음성감정 인식)

  • Jang, Kwang-Dong;Kwon, Oh-Wook
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.555-558
    • /
    • 2006
  • 감정을 포함하고 있는 음성은 청자로 하여금 화자의 심리상태를 파악할 수 있게 하는 요소 중에 하나이다. 음성신호에 포함되어 있는 감정을 인식하여 사람과 로봇과의 원활한 감성적 상호작용을 위하여 특징을 추출하고 감정을 분류한 방법을 제시한다. 음성신호로부터 음향정보 및 운율정보인 기본 특징들을 추출하고 이로부터 계산된 통계치를 갖는 특징벡터를 입력으로 support vector machine (SVM) 기반의 패턴분류기를 사용하여 6가지의 감정- 화남(angry), 지루함(bored), 기쁨(happy), 중립(neutral), 슬픔(sad) 그리고 놀람(surprised)으로 분류한다. SVM에 의한 인식실험을 한 경우 51.4%의 인식률을 보였고 사람의 판단에 의한 경우는 60.4%의 인식률을 보였다. 또한 화자가 판단한 감정 데이터베이스의 감정들을 다수의 청자가 판단한 감정 상태로 변경한 입력을 SVM에 의해서 감정을 분류한 결과가 51.2% 정확도로 감정인식하기 위해 사용한 기본 특징들이 유효함을 알 수 있다.

  • PDF