• 제목/요약/키워드: Gesture interface markup language

검색결과 4건 처리시간 0.018초

A Gesture Interface Description Language for a Unified Gesture Platform

  • Geun-Hyung Kim;EunJi Song
    • 아시아태평양융합연구교류논문지
    • /
    • 제4권2호
    • /
    • pp.1-12
    • /
    • 2018
  • Nowadays, the advent of smart devices equipped with the latest input technologies has changed the way users interact with smart devices. The gesture based user interface, as the natural user interface technologies, has attracted a lot of attention from researchers and developers. Gestures can be constituted in different ways; touching a screen, moving a pointing device, or making hand or body movements in a three-dimensional (3D) space. The various gesture input devices make application developers to maintain multiple source code families for the same applications adapting different gesture input devices. In this paper, we defined the gesture interface markup language (GIML) based on extensible markup language (XML) to describe gestures independently of the input devices. It also provides constraints necessary to determine which gesture has occurred and information required when UGesture platform interact with the gesture based application. The proposed GIML is based on our previous implemented the UGesture platform and the evaluation results, and so the GIML can be used to define new gestures for the UGesture platform and support new input hardwares.

사용자 인터페이스 마크업 언어 표준 분석 및 설계 (Analysis and Design for User Interface Markup Language Standardization)

  • 김성한;이승윤
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 춘계학술대회
    • /
    • pp.662-665
    • /
    • 2015
  • 본 논문은 사용자와 시스템간의 인터페이스 관련 표준화를 추진 중인 ISO/IEC/JTC1의 SC35 UI의 제스처 기반 UI 요소 및 요구사항 및 제스처 기반 UI 표준 프레임워크를 분석하고, 이를 기반으로 GIML(Gesture-based Markup language) 마크업 언어 설계에 대해 제안 한다.

  • PDF

GUI 어플리케이션 제어를 위한 제스처 인터페이스 모델 설계 (Design of Gesture based Interfaces for Controlling GUI Applications)

  • 박기창;서성채;정승문;강임철;김병기
    • 한국콘텐츠학회논문지
    • /
    • 제13권1호
    • /
    • pp.55-63
    • /
    • 2013
  • 사용자 인터페이스 기술은 CLI(Command Line Interfaces), GUI(Graphical User Interfaces)를 거쳐 NUI(Natural User Interfaces)로 발전하고 있다. NUI는 멀티터치, 모션 트래킹, 음성, 스타일러스 등 다양한 입력형식을 사용한다. 기존 GUI 어플리케이션에 NUI를 적용하기 위해서는 이러한 장치관련 라이브러리 추가, 관련 코드 수정, 디버그 등의 과정이 필요하다. 본 논문에서는 기존 이벤트 기반 GUI 어플리케이션의 수정 없이 제스처 기반 인터페이스를 적용할 수 있는 모델을 제안한다. 또한 제안한 모델을 명세하기 위한 XML 스키마를 제시하고, 3D 제스처와 마우스 제스처 프로토타입 개발을 통해 제안모델의 활용방안을 보인다.

W3C 기반 상호연동 가능한 멀티모달 커뮤니케이터 (W3C based Interoperable Multimodal Communicator)

  • 박대민;권대혁;최진혁;이인재;최해철
    • 방송공학회논문지
    • /
    • 제20권1호
    • /
    • pp.140-152
    • /
    • 2015
  • 최근 사용자와 컴퓨터간의 양방향 상호작용을 가능하게 하는 HCI(Human Computer Interaction) 연구를 위해 인간의 의사소통 체계와 유사한 인터페이스 기술들이 개발되고 있다. 이러한 인간과의 의사소통 과정에서 사용되는 커뮤니케이션 채널을 모달리티라고 부르며, 다양한 단말기 및 서비스 환경에 따라 최적의 사용자 인터페이스를 제공하기 위해서 두 개 이상의 모달리티를 활용하는 멀티모달 인터페이스가 활발히 연구되고 있다. 하지만, 멀티모달 인터페이스를 사용하기에는 각각의 모달리티가 갖는 정보 형식이 서로 상이하기 때문에 상호 연동이 어려우며 상호 보완적인 성능을 발휘하는데 한계가 있다. 이에 따라 본 논문은 W3C(World Wide Web Consortium)의 EMMA(Extensible Multimodal Annotation Markup language)와 MMI(Multimodal Interaction Framework)표준에 기반하여 복수의 모달리티를 상호연동할 수 있는 멀티모달 커뮤니케이터를 제안한다. 멀티모달 커뮤니케이터는 W3C 표준에 포함된 MC(Modality Component), IM(Interaction Manager), PC(Presentation Component)로 구성되며 국제 표준에 기반하여 설계하였기 때문에 다양한 모달리티의 수용 및 확장이 용이하다. 실험에서는 시선 추적과 동작 인식 모달리티를 이용하여 지도 탐색 시나리오에 멀티모달 커뮤니케이터를 적용한 사례를 제시한다.