효과적인 로봇 행동 생성을 위한 선형의 정서-표정 공간 내 감정 경계의 결정 -비선형의 제스처 동기화를 위한 정서, 표정 공간의 영역 결정

The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation

  • 조수훈 (한국과학기술원 전자전산학부) ;
  • 이희승 (한국과학기술원 전자전산학부) ;
  • 박정우 (한국과학기술원 전자전산학부) ;
  • 김민규 (한국과학기술원 전자전산학부) ;
  • 정영진 (한국과학기술원 전자전산학부)
  • 발행 : 2008.02.13

초록

미래에는 로봇이 사람의 감정 상태를 이해하거나 적절하게 자신의 행동을 표현하는 기능은 중요해 질 것이다. 사람간의 교류에서 메세지의 93%가 행동 표현에 있으며, 바디 랭귀지는 감정의 양을 표현하므로 행동 표현은 중요한 감정 표현 수단이다. 최근의 로봇들은 얼굴, 제스처, LED, 소리 등의 복합적 방법을 이용하여 사람과 교류하고 있지만 포즈는 위치와 방위, 얼굴이나 제스처는 속도, 말이나 색 풍은 시간에 대한 정보가 필요하기 때문에 하나의 모델로 통합하거나 동기화 시키기 어렵다. 한편 작은 세기의 감정에서, 얼굴은 쉽게 표현이 가능하지만 제스처는 표현이 힘들다. 또한 기존의 감정 경계는 같은 형태와 크기를 가지거나, HHI 분야에 국한되어 연구되어 왔다. 본 논문에서는 정서 공간에서 감정의 경계를 어떻게 정의할 것이며, 복합적 표현 방법을 시스템적으로 어떻게 동기화할 수 있을지를 제안한다.

In the near future, robots should be able to understand human's emotional states and exhibit appropriate behaviors accordingly. In Human-Human Interaction, the 93% consist of the speaker's nonverbal communicative behavior. Bodily movements provide information of the quantity of emotion. Latest personal robots can interact with human using multi-modality such as facial expression, gesture, LED, sound, sensors and so on. However, a posture needs a position and an orientation only and in facial expression or gesture, movements are involved. Verbal, vocal, musical, color expressions need time information. Because synchronization among multi-modalities is a key problem, emotion expression needs a systematic approach. On the other hand, at low intensity of surprise, the face could be expressed but the gesture could not be expressed because a gesture is not linear. It is need to decide the emotional boundaries for effective robot behavior generation and synchronization with another expressible method. If it is so, how can we define emotional boundaries? And how can multi-modality be synchronized each other?

키워드