제스처 영상 인식기반의 인터렉티브 전시용 제어기술 연구

A Controlled Study of Interactive Exhibit based on Gesture Image Recognition

  • 차재상 (서울과학기술대학교 NID융합기술대학원 방송통신융합프로그램) ;
  • 강준상 (서울과학기술대학교 NID융합기술대학원 방송통신융합프로그램) ;
  • 노정규 (서경대학교 컴퓨터과학과) ;
  • 최정원 ((주)이응) ;
  • 구은자 (청운대학교 공연기획경영학과)
  • 투고 : 2014.01.08
  • 심사 : 2014.02.25
  • 발행 : 2014.03.30

초록

최근 산업의 발달로 인한 빌딩 등의 인텔리젼트화가 빠른 속도로 진행됨에 따라, 사무실환경, 주거환경에 있어서 쾌적성, 효율성, 편리성을 추구하게 되면서, 인간은 생활에서 다양한 디바이스를 사용 할 수 있게 되었다. 특히, 스마트TV 과 스마트폰 등이 널리 보급되면서 인간과 스마트 기기간의 인터랙션에 대한 관심이 증대되고 이러한 인터랙션을 위해 다양한 방법들이 연구되었지만 사람이 컨트롤러를 이용하여 인터랙션 해야 한다는 불편함과 한계점이 발생하였다. 본 논문에서는 사용자가 LED 제어를 컨트롤러 없이 제스처(손동작)를 통해 간편하게 인터랙션 및 제어 할 수 있도록 Kinect를 이용한 방법을 소개한다. Kinect 센서로부터 획득한 제스처의 관절 정보를 이용하여 발광 소재를 제어하는 인터페이스를 설계 및 구현하였다. 제스처(손동작)을 구현한 인터페이스를 통해 LED를 사용자가 원하는 대로 개별 제어 가능하다. 본 논문에서 설계한 인터페이스는 LED 제어 및 다양한 분야에 응용하여 유용하게 사용될 수 있을 것으로 기대된다.

Recently, building is rapidly develop more intelligently because of the development of industries. And people seek such as comfort, efficiency, and convenience in office environment and the living environment. Also, people were able to use a variety of devices. Smart TV and smart phones were distributed widely so interaction between devices and human has been increase the interest. A various method study for interaction but there are some discomfort and limitations using controller for interaction. In this paper, a user could be easily interaction and control LED through using Kinect and gesture(hand gestures) without controller. we designed interface which is control LED using the joint information of gesture obtained from Kinect. A user could be individually controlled LED through gestures (hand movements) using the implementation of the interface. We expected developed interface would be useful in LED control and various fields.

키워드

참고문헌

  1. 이민규, 전재봉, "키넥트를 이용한 개인용 컴퓨터 제어", 한국 컴퓨터종합할술대회 논문집, 제 39권 1호, pp. 343-345, 2012.
  2. I. Oikonomidis, N. Kyriazis, and A.A. Argyros, "Efficient model-based 3D tracking of hand articulations using Kinect," In British Machine Vision Conference, pp. 101.1-101.11, 2011.
  3. J. Sung, C. Ponce, B. Selman, and A. Saxena, "Human activity detectionfrom RGBD images," In AAAI 2011 Workshop, pp. 47-55, 2011.
  4. W. Li, Z. Zhang, and Z. Liu, "Action recognition based on a bag of 3dpoints," In Computer Vision and Pattern Recognition Workshops(CVPRW), pp. 9-14, 2010.
  5. R. Munoz-Salinas, R. Medina-Carnicer, F.J. Madrid-Cuevas, and A. Carmona-Poyato, "Depth silhouettes for gesture recognition," Pattern Recognition Letters, vol. 29, no. 3, pp. 319-329, 2008. https://doi.org/10.1016/j.patrec.2007.10.011
  6. P. Suryanarayan, A. Subramanian, and D. Mandalapu, "Dynamic hand pose recognition using depth data," In Conf. on Pattern Recognition, pp. 3105-3108, 2010.
  7. I. Oikonomidis, N. Kyriazis, and A.A. Argyros, "Efficient model-based 3D tracking of hand articulations using Kinect," In British Machine Vision Conference, pp. 101.1-101.11, 2011.
  8. 윤성호, 송영수, 이성국, 장홍순, 허헌, "키넥트를 이용한 프리젠테이션 장치 개발에 관한 연구" 대한전기학회 하계학술대회 논문집, 제 17권 3호, pp. 91-92, 2013.
  9. 조선영, 변혜란, 이희경, 차지훈, "키넥트 센서 데이터를 이용한 손 제스처 인식" 방송공학회논문지, 제 39권 10호, pp. 447-458, 2012
  10. G.R.S Murthy and R.S. Jadon, "A review of vision based hand gestures recognition", Journal of Information Technology and Knowledge Management, pp.405-410, 2009
  11. V. Ganapathi, C. Plageman, D. Koller, and S. Thrun, "Real time motion capture using a single time-of-flight camera", In Conf. on Computer Vision and Pattern Recognition, pp. 755-762, 2010