Gesture Interface for Controlling Intelligent Humanoid Robot

지능형 로봇 제어를 위한 제스처 인터페이스

  • 배기태 (전남대학교 대학원 컴퓨터 정보통신공학과) ;
  • 김만진 (전남대학교 대학원 컴퓨터 정보통신공학과) ;
  • 이칠우 (전남대학교 전자컴퓨터정보통신공학부) ;
  • 오재용 (전남대학교 대학원 컴퓨터 정보통신공학과)
  • Published : 2005.10.01

Abstract

In this paper, we describe an algorithm which can automatically recognize human gesture for Human-Robot interaction. In early works, many systems for recognizing human gestures work under many restricted conditions. To eliminate these restrictions, we have proposed the method that can represent 3D and 2D gesture information simultaneously, APM. This method is less sensitive to noise or appearance characteristic. First, the feature vectors are extracted using APM. The next step is constructing a gesture space by analyzing the statistical information of training images with PCA. And then, input images are compared to the model and individually symbolized to one portion of the model space. In the last step, the symbolized images are recognized with HMM as one of model gestures. The experimental results indicate that the proposed algorithm is efficient on gesture recognition, and it is very convenient to apply to humanoid robot or intelligent interface systems.

본 논문에서는 지능형 로봇의 구현을 위한 효율적인 제스처 인식 방법에 대하여 기술한다. 기존의 2차원 기반 제스처 인식 방법들은 제스처의 3차원 특성을 정확하게 표현할 수 없으며, 3차원 정보를 추가로 사용하는 경우 3차원 데이터의 에러와 시스템의 복잡성 때문에 그 활용에 제약이 따랐다. 본 논문에서는 이들 단점을 보완하기 위하여, 3차원 공간에서의 제스처를 효율적으로 정량화하는 방법으로 2차원 형상 정보와 3차원 깊이 정보를 동시에 포함하는 제스처 캡처링 모델 APM(active plane mode)을 제안한다. APM은 외관 특성 및 영상의 노이즈에 덜 민감한 특징이 있으며, 행위자의 변화에도 보다 안정적인 인식을 수행할 수 있는 장점이 있다. 이렇게 추출된 제스처 특징은 주성분 분석법(PCA)과 은닉 마르코프 모델(HMM)을 이용하여 분석되고, 최종적으로 제스처를 인식하게 된다. 본 방법은 서로 다른 15명의 제스처에 대해 실험한 결과 $90\%$ 이상의 인식 결과를 보였으며, 지능형 로봇뿐만 아니라 지적 인터페이스 시스템과 같은 여러 응용 시스템에 적용될 수 있을 것이다.

Keywords