• Title/Summary/Keyword: Gesture-Based User Interface

Search Result 107, Processing Time 0.025 seconds

A Study on Structuring and Classification of Input Interaction

  • Pan, Young-Hwan
    • Journal of the Ergonomics Society of Korea
    • /
    • v.31 no.4
    • /
    • pp.493-498
    • /
    • 2012
  • Objective: The purpose of this study is to suggest the hierarchical structure with three layers of input task, input interaction, and input device. Background: Understanding the input interaction is very helpful to design an interface design. Method: We made a model of three layered input structure based on empirical approach and applied to a gesture interaction in TV. Result: We categorized the input tasks into six elementary tasks which are select, position, orient, text, and quantify. The five interactions described in this paper could accomplish the full range of input interaction, although the criteria for classification were not consistent. We analyzed the Microsoft kinect with this structure. Conclusion: The input interactions of command, 4 way, cursor, touch, and intelligence are basic interaction structure to understanding input system. Application: It is expected the model can be used to design a new input interaction and user interface.

A Color Marker Detection Algorithm for Gesture-based User Interfaces (제스처 기반 사용자 인터페이스를 위한 색상 마커 인식 알고리즘)

  • Lee, Doo-Hee;Kim, Yoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.401-404
    • /
    • 2010
  • 고성능 단말기와 다양한 컨텐츠가 제공되면서 제스처 기반 사용자 인터페이스에 대한 관심이 높아지고 있다. 하지만 기존의 알고리즘을 사용하기 위해서는 센서 장치를 사용하거나 사용자가 부자연스러운 장비를 착용해야 하는 경우가 많다. 본 논문에서는 카메라를 통해 입력된 영상 정보만으로 사용자가 착용한 색상 마커를 실시간으로 검출하는 알고리즘을 제안한다. 본 논문이 제안하는 마커 인식 알고리즘은 색상 감지와 움직임 감지로 나뉜다. 단일 프레임에서 영상 성분 평균을 이용한 조건검사를 통하여 색상 영역을 검출한다. 다음으로, 인접한 프레임간의 평균 영상과 현재 영상과의 차를 가중치로 이용하여 배경 범위를 설정하고 이 범위를 벗어난 영역을 움직임 영역으로 검출한다. 마지막으로 색상 검출 영역과 움직임 검출 영역을 동시에 만족하고 이웃한 픽셀들도 위 조건을 동시에 만족하면 최종적으로 사용자의 마커로 인식한다. 본 논문이 제안하는 알고리즘은 영상 정보만 사용하기 때문에 사용자는 센서나 부자연스러운 장비를 착용할 필요가 없고 일조량에 따른 조도의 변화에 강건하기 때문에 효과적인 사용자 움직임 검출이 가능하다.

A Study on Hand Gesture Recognition with Low-Resolution Hand Images (저해상도 손 제스처 영상 인식에 대한 연구)

  • Ahn, Jung-Ho
    • Journal of Satellite, Information and Communications
    • /
    • v.9 no.1
    • /
    • pp.57-64
    • /
    • 2014
  • Recently, many human-friendly communication methods have been studied for human-machine interface(HMI) without using any physical devices. One of them is the vision-based gesture recognition that this paper deals with. In this paper, we define some gestures for interaction with objects in a predefined virtual world, and propose an efficient method to recognize them. For preprocessing, we detect and track the both hands, and extract their silhouettes from the low-resolution hand images captured by a webcam. We modeled skin color by two Gaussian distributions in RGB color space and use blob-matching method to detect and track the hands. Applying the foodfill algorithm we extracted hand silhouettes and recognize the hand shapes of Thumb-Up, Palm and Cross by detecting and analyzing their modes. Then, with analyzing the context of hand movement, we recognized five predefined one-hand or both-hand gestures. Assuming that one main user shows up for accurate hand detection, the proposed gesture recognition method has been proved its efficiency and accuracy in many real-time demos.

Designing Effective Virtual Training: A Case Study in Maritime Safety

  • Jung, Jinki;Kim, Hongtae
    • Journal of the Ergonomics Society of Korea
    • /
    • v.36 no.5
    • /
    • pp.385-394
    • /
    • 2017
  • Objective: The aim of this study is to investigate how to design effective virtual reality-based training (i.e., virtual training) in maritime safety and to present methods for enhancing interface fidelity by employing immersive interaction and 3D user interface (UI) design. Background: Emerging virtual reality technologies and hardware enable to provide immersive experiences to individuals. There is also a theory that the improvement of fidelity can improve the training efficiency. Such a sense of immersion can be utilized as an element for realizing effective training in the virtual space. Method: As an immersive interaction, we implemented gesture-based interaction using leap motion and Myo armband type sensors. Hand gestures captured from both sensors are used to interact with the virtual appliance in the scenario. The proposed 3D UI design is employed to visualize appropriate information for tasks in training. Results: A usability study to evaluate the effectiveness of the proposed method has been carried out. As a result, the usability test of satisfaction, intuitiveness of UI, ease of procedure learning, and equipment understanding showed that virtual training-based exercise was superior to existing training. These improvements were also independent of the type of input devices for virtual training. Conclusion: We have shown through experiments that the proposed interaction design results are more efficient interactions than the existing training method. The improvement of interface fidelity through intuitive and immediate feedback on the input device and the training information improve user satisfaction with the system, as well as training efficiency. Application: Design methods for an effective virtual training system can be applied to other areas by which trainees are required to do sophisticated job with their hands.

WiSee's trend analysis using Wi-Fi (Wi-Fi를 이용한 WiSee의 동향 분석)

  • Han, Seung-Ah;Son, Tae-Hyun;Kim, Hyun-Ho;Lee, Hoon-Jae
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2015.05a
    • /
    • pp.74-77
    • /
    • 2015
  • WiSee is by utilizing the frequency of Wi-Fi(802.11n/ac), a technique for performing the operation recognized by the user's gesture. Current motion recognition scheme are using a dedicated device (leaf motion, Kinekuto) and the recognition range is 30cm ~ 3.5m. also For recognition range increases the narrow recognition rate, there is inconvenience for maintaining a limited distance. But WiSee is used by Wi-Fi it is possible to anywhere motion recognition if available location. Permeability also has advantages as compared with the conventional recognition method. In this paper I take a look at the operation process and the recent trend of WiSee.

  • PDF

Repetitive hand gesture recognition based on frequency analysis (주파수 분석을 이용한 반복적인 손동작 인식)

  • Kim, Jiye;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.06a
    • /
    • pp.166-167
    • /
    • 2017
  • 가상 현실에 대한 관심이 높아지면서, 가상 물체와 사람 사이의 보다 자연스러운 상호작용이 중요하게 되었다. 그 중 가장 많이 사용되는 방식 중 하나가 바로 손동작이다. 사람들은 손동작을 통해 자신의 감정을 전달하거나 자신의 의견을 표현할 수 있기 때문에 손동작은 Natural User Interface(NUI)의 중요한 위치를 차지하고 있다. 본 논문에서는 사람들의 손동작 중 비교적 큰 비중을 차지하는 반복적인 궤적을 그리는 손동작 인식을 위한 방법을 제안한다. 손이 움직이는 방향과 거리의 3 차원 좌표 값을 이용하여 벡터화를 한 후, 이 데이터를 Fast Fourier transform(FFT)와 Support Vector Machine(SVM)을 통해 반복적인 손동작을 인식함으로써 자연스러운 손동작을 비교적 정확히 인식할 수 있다.

  • PDF

Design and Implementation of Gesture based Interactive User Interface for Virtual Experiential Learning (가상체험 학습을 위한 제스처 기반 상호작용 사용자 인터페이스 설계 및 구현)

  • Jeong, Ji-Seong;Park, Chan;Im, Myeong-Sook;Han, Jae-Jong;Lee, Hae Seong;Jang, Rae-Hyun;Yoo, Kwan-Hee
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2011.05a
    • /
    • pp.75-76
    • /
    • 2011
  • 멀티미디어 기술의 발달로 멀티미디어 교육용 콘텐츠가 다양하게 개발되고 있으며, 교수자와 학습자가 3D 가상공간에서 실제 체험을 통해 학습할 수 있는 시스템[1]이 등장하고 있다. 본 논문에서는 [1]과 같은 시스템에 사용자의 몰입도와 현실감을 높이기 위한 방법으로 사용자 제스처 인식 기술을 사용한 결과를 제시하며, 이들 제스처를 통해 3차원 가상공간에 있는 여러 객체를 조작할 수 있는 기법을 소개한다.

  • PDF

CNN-Based Hand Gesture Recognition for Wearable Applications (웨어러블 응용을 위한 CNN 기반 손 제스처 인식)

  • Moon, Hyeonchul;Yang, Anna;Chun, Sungmoon;Kim, Jae-Gon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.11a
    • /
    • pp.58-59
    • /
    • 2017
  • 손 제스처는 스마트 글라스 등 웨어러블 기기의 NUI(Natural User Interface)를 구현하기 위한 수단으로 주목받고 있다. 최근 손 제스처 인식에서의 인식률 개선을 위하여 다양한 인식기법이 제안되고 있으며, 딥러닝 기반의 손 제스처 인식 기법 또한 활발히 연구되고 있다. 본 눈문에서는 웨어러블 기기에서의 미디어 소비 등 다양한 응용을 위하여 CNN(Convolutional Neural Network) 기반의 손 제스처 인식 기법을 제시한다. 제시된 기법은 스테레오 영상으로부터 깊이 정보와 색 정보를 이용하여 손 윤곽선을 검출하고, 검출된 손 윤곽선 영상을 데이터 셋으로 구성하여 CNN 에 학습을 시킨 후, 이를 바탕으로 손 윤곽선 영상으로부터 제스처를 인식하는 알고리즘을 제안한다.

  • PDF

An Implementation of User Interface Using Vision-based Gesture Recognition (비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현)

  • Ko, Min-Sam;Lee, Kwang-Hee;Kim, Chang-Woo;Ahn, Jun-Ho;Kim, In-Jung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF

Gesture-based User-Interface Through Hand-region Detection and Hand-movement Recognition (손영역 획득과 손동작 인식에 의한 제스처 기반 사용자 인터페이스의 구현)

  • Ko, Il-Ju;Bae, Young-Lae;Choi, Hyung-Il
    • Korean Journal of Cognitive Science
    • /
    • v.8 no.4
    • /
    • pp.35-53
    • /
    • 1997
  • 본 논문은 컴퓨터 시각을 이용하여 제스처를 인식함으로써 사용자에게 보다 편리한 인터페이스를 제공하는 것을 목표로 한다. 제안하는 제스처 인식 방법은 손영역을 획득하는 손영역 획득 모듈?손영역을 인식하는 인식 모듈로 나누어 수행한다. 손영역 획득 모듈에서는 손색상 모델?손색상 결정함수를 정의하여 칼라영상의 영역 분리를 수행하였고, 칼만필터를 이용하여 손색상 모델을 갱신하고 탐색영역을 제한하여 영역 추적을 용이하게 하였다. 영역 추적은 전 시점의 손영역 정보를 이용하여 현 시점의 손영역을 획득한다. 인식 모듈에서는 정적인 제스처를 표현하는 객체 프레임?행동 프레임, 그리고 동적인 제스처를 표현하는 스키마를 정의한다. 그리고 획득된 손영역?정합을 수행함으로써 제스처를 인식한다. 실험 결갬灌?제안하는 제스처 기반 인터페이스를 적용한 삼목(Tic-Tac-Toe) 게임 프로그램을 구현하였다. 사용자는 제스처를 이용하여 컴퓨터와 게임을 진행한다. 제안하는 시스템은 다른 종류의 게임 프로그램이나 마우스의 역할을 수행하는 윈도우 시스템의 제어, 그리고 가상 현실 시스템에 적용될 수 있다.

  • PDF