DOI QR코드

DOI QR Code

멀티터치를 위한 테이블-탑 디스플레이 기술 동향

Survey: Tabletop Display Techniques for Multi-Touch Recognition

  • 김송국 (전남대학교 컴퓨터정보통신공학과) ;
  • 이칠우 (전남대학교 컴퓨터정보통신공학과)
  • 발행 : 2007.02.28

초록

최근에 인간과 컴퓨터 상호작용을 위한 사용자 의도 및 행위 인식에 관한 비전 기반 연구가 활발히 진행되고 있다. 그 중에서도 테이블-탑 디스플레이 시스템은 터치 감지 기술의 발전, 협력적인 작업 추구에 발맞추어 다양한 응용으로 발전하였다. 이전의 테이블-탑 디스플레이는 오직 한 명의 사용자만을 지원하였으나 현재에는 멀티터치를 통한 멀티유저를 지원하게 되었다. 따라서 테이블-탑 디스플레이의 궁극적인 목적인 협력적인 작업과 네 가지 원소 (인간, 컴퓨터, 투영된 객체, 물리적 객체) 의 상호작용이 실현 가능하게 되었다. 일반적으로 테이블-탑 디스플레이 시스템은 다음의 네 가지 측면; 맨 손을 이용한 멀티 터치 상호작용, 동시적인 사용자 상호작용을 통한 협력적인 작업의 구현, 임의의 위치 터치를 이용한 정보 조작, 상호작용의 도구로서 물리적인 객체의 사용을 중심으로 설계되어 있다. 본 논문에서는 테이블-탑 디스플레이 시스템을 위한 최첨단의 멀티터치 센싱 기술을 시각기반 방법, 비-시각 기반 방법으로 분류하고 비판적인 견해에서 분석을 하였다. 또한 테이블-탑 디스플레이 관련 연구들을 시스템 구성방식에 따라 분류하고 그 장단점과 실제 사용되는 응용 분야에 대해 기술하였다.

Recently, the researches based on vision about user attention and action awareness are being pushed actively for human computer interaction. Among them, various applications of tabletop display system are developed more in accordance with touch sensing technique, co-located and collaborative work. Formerly, although supported only one user, support multi-user at present. Therefore, collaborative work and interaction of four elements (human, computer, displayed objects, physical objects) that is ultimate goal of tabletop display are realizable. Generally, tabletop display system designs according to four key aspects. 1)multi-touch interaction using bare hands. 2)implementation of collaborative work, simultaneous user interaction. 3)direct touch interaction. 4)use of physical objects as an interaction tool. In this paper, we describe a critical analysis of the state-of-the-art in advanced multi-touch sensing techniques for tabletop display system according to the four methods: vision based method, non-vision based method, top-down projection system and rear projection system. And we also discuss some problems and practical applications in the research field.

키워드

참고문헌

  1. In the section of "Emerging technologies," of ACM SIGGRAPH Full Conference, 2006.
  2. M. mastushtia, M. Idia,T. Ohguro, Shirai, Y.Kakehi andi and T. Naemura, "Lumisight Table: A face-to-face collaboration support system that optimizes direction of projected inforrnation to each stackeholder," In Proceedings of CSCW2OO4, pp.274-283, 2004.
  3. Y. Kakehi,M Iida,T. Naemura, Y. Shirai, M. Matsushita, and T. Ohguro, "Lumisight Table: Interactive View-Dependent Tabletop Display," In Proceedings of IEEE Computer Graphics & Applications, Vol.25, No.1, pp.48-53, 2005.
  4. P. Dietz and D. Leigh, "DiamondTouch: A Multi-User Touch TechnoIogy," In Proceedings of the 14th Annual ACM Symposium on User Interface Software and Technology pp.219-226, 2001.
  5. J. Y. Han,"Low-cost -MultiTouch Sensing through Frustra뼈 Total Internal Reflection," In Proceedings of the 18th Annual ACM symposium on User Interface Software and Technology, pp.15-118, 2005.
  6. S. Milk and J. Laszlo, "Visual Touchpad: A Two-Handed Gestural Input Device," In Proceedings of the 6th Intemational Conference on Multimodal Interfaces, pp.289-296, 2004.
  7. N. Matsushita and J. Rekimoto, "Holowall: Designing a Finger, Hand, Body, and Object Sensitive Wall," In Proceedings of the 10th Annual ACM Symposim on User Interface Software and Technology, pp.209-210, 1997.
  8. J. Rekimoto, "SmartSkin: An Infrastructure for Freehand Maniplation on Interactive Surfaces," In Proceedings of the SIGCHl Conference on Human Factors in Computing Systems, pp.113-120, 2002.
  9. K Oka, Y. Sato, and H Koike, "Real-Time Tracking of Multiple Fingertips and Gesture Recongnition for Augmented Desk Interface Systems," In Proceedings of the Automatic Face and Gesture Recognition, pp.429-434, 2002.
  10. A D. Wilson, "TouchLight: An lmaging Touch Screen and Display for Gesture-Based Interaction," In Proceedings of the 6th Intemational Conference on Multimodel Interfaces, pp.69-76, 2004.
  11. H. Koike, Y. Sato, Y. Kobayashi,H. Tobita, and M. Kobayashi, "Interactive textbook and interactive venn diagram: natural and intuitive interfaces on augrrented desk system," In proceedings of the CHl, pp.121-128, 2000.
  12. A Wilson, "PlayAnywhere: A Compact lnteractive Tabletop Projection-Vision System," In Proceedings of User Interface Software and Technology, pp.83-92, 2005.

피인용 문헌

  1. Visual multi-touch air interface for barehanded users by skeleton models of hand regions vol.11, pp.1, 2013, https://doi.org/10.1007/s12555-012-9217-y