지능형 휠체어를 위한 시선 인식 인터페이스 개발

Gaze Recognition Interface Development for Smart Wheelchair

  • 박세현 (대구대학교 정보통신공학부)
  • 투고 : 2011.11.30
  • 심사 : 2011.12.12
  • 발행 : 2011.12.31

초록

본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

In this paper, we propose a gaze recognition interface for smart wheelchair. The gaze recognition interface is a user interface which recognize the commands using the gaze recognition and avoid the detected obstacles by sensing the distance through range sensors on the way to driving. Smart wheelchair is composed of gaze recognition and tracking module, user interface module, obstacle detector, motor control module, and range sensor module. The interface in this paper uses a camera with built-in infra red filter and 2 LED light sources to see what direction the pupils turn to and can send command codes to control the system, thus it doesn't need any correction process per each person. The results of the experiment showed that the proposed interface can control the system exactly by recognizing user's gaze direction.

키워드

참고문헌

  1. Takeshi Saitoh, Noriyuki Takahashi, Ryosuke Konishi, "Development of an Intelligent Wheelchair with Visual Oral Motion", IEEE International Conference on Robot & Human Interactive Communication, pp.145-150, 2007.
  2. L.M. Bergasa, M. Mazo, A. Gardel, R. Barea, L. Boquete, "Commands Generation by Face Movements Applied to the Guidance of a Wheelchair for Handicappen People", Pattern Recognition, 2000. Proceedings. 15th International Conference, Vol.4, pp.660-663, 2000.
  3. 박진우, 권용무, 손광훈, "동공과 글린트의 특징점 관계를 이용한 시선 추적 시스템", 방송공학회 논문지, 제11권, 제1호, pp.80-90, 2006
  4. 최승억, 정종우, 서영완, "테이블탑기기와 인터랙티브 벽면 디스플레이의 기술동향과 응용", 정보과학회지, 제26권, 제3호, 제226호, pp.5-14, 2008.
  5. Y. Nakazato, M. Kanbara, N. Yokoya, "Wearable augmented reality system using invisible visual markers and an IR camera", Proc. of International Symposium on Wearable Computers, pp.198-199, 2005.
  6. Y. Kishino, M. Tsukamoto, Y. Sakane, S. Nishio, "Realizing a visual marker using LEDs for wearable computing environment", In Proc. of International Conference on Distributed Computing Systems Workshops, pp.314-319, 2003.
  7. Q. Chen, N.D Georganas, and E.M. Petriu, "Realtime Vision-based Hand Gesture Recognition Using Haar-like Features ", Instrum entation and Measurement Technology Conference Proceedings, IEEE, pp.1-6, 2007.
  8. K.H. Kim, H.K. Kim, J.S. Kim, W.Son, and S.Y.Lee, "A biosignal - based human interface controlling a power - wheelchair for people with motor disabilities", ETRI journal, pp.111-114, 2006.
  9. 문인석, 홍원기, 류정탁, " 이동로봇의 장애물 회피 알고리즘 연구" 2010 대한 임베디드공학회 추계학술대회, pp.504-507, 2010.