• Title/Summary/Keyword: 제스처입력

Search Result 131, Processing Time 0.033 seconds

Hand Gesture Recognition Method based on the MCSVM for Interaction with 3D Objects in Virtual Reality (가상현실 3D 오브젝트와 상호작용을 위한 MCSVM 기반 손 제스처 인식)

  • Kim, Yoon-Je;Koh, Tack-Kyun;Yoon, Min-Ho;Kim, Tae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1088-1091
    • /
    • 2017
  • 최근 그래픽스 기반의 가상현실 기술의 발전과 관심이 증가하면서 3D 객체와의 자연스러운 상호작용을 위한 방법들 중 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 본 논문은 가상현실 3D 오브젝트와의 상호작용을 위한 MCSVM 기반의 손 제스처 인식을 제안한다. 먼저 다양한 손 제스처들을 립모션을 통해 입력 받아 전처리를 수행한 손 데이터를 전달한다. 그 후 이진 결정 트리로 1차 분류를 한 손 데이터를 리샘플링 한 뒤 체인코드를 생성하고 이에 대한 히스토그램으로 특징 데이터를 구성한다. 이를 기반으로 MCSVM 학습을 통해 2차 분류를 수행하여 제스처를 인식한다. 실험 결과 3D 오브젝트와 상호작용을 위한 16개의 명령 제스처에 대해 평균 99.2%의 인식률을 보였고 마우스 인터페이스와 비교한 정서적 평가 결과에서는 마우스 입력에 비하여 직관적이고 사용자 친화적인 상호작용이 가능하다는 점에서 게임, 학습 시뮬레이션, 설계, 의료분야 등 많은 가상현실 응용 분야에서의 입력 인터페이스로 활용 될 수 있고 가상현실에서 몰입도를 높이는데 도움이 됨을 알 수 있었다.

Design and Implementation of a Sign Language Gesture Recognizer using Data Glove and Motion Tracking System (장갑 장치와 제스처 추적을 이용한 수화 제스처 인식기의 실계 및 구현)

  • Kim, Jung-Hyun;Roh, Yong-Wan;Kim, Dong-Gyu;Hong, Kwang-Seok
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2005.11a
    • /
    • pp.233-237
    • /
    • 2005
  • 수화의 인식 및 표현 기술에 대한 관련 연구는 수화 인식을 통한 건청인과의 의사 전달, 가상현실에서의 손동작 인식 등을 대상으로 여러 방면으로의 접근 및 연구 결과를 도출하고 있다. 그러나 이들 연구의 대부분 데스크탑 PC기반의 수신호(Hand signal) 제어 및 수화 - 손 동작 인식에 목적을 두었고 수화 신호의 획득을 위하여 영상장비를 이용하였으며 이를 바탕으로 단어 위주의 수화 인식 및 표현에 중점을 둔 수화 인식 시스템의 구현을 통해 비장애인과의 자유로운 의사소통을 추구하고 있다. 따라서 본 논문에서는 햅틱 장치로부터 사용자의 의미있는 수화 제스처를 획득하기 위한 접근 방식을 차세대 착용형 PC 플랫폼 기반의 유비쿼터스 환경으로 확대, 적용시켜 제스처 데이터 입력 모듈로부터 새로운 정보의 획득에 있어 한계성을 극복하고 사용자의 편의를 도모할 수 있는 효율적인 데이터 획득 방안을 제시한다. 또한 퍼지 알고리즘 및 RDBMS 모듈을 이용하여 언제, 어디에서나 사용자의 의미 있는 문장형 수화 제스처를 실시간으로 인식하고 표현하는 수화 제스처 인식기를 구현하였다. 본 논문에서는 수화 제스처 입력 모듈(5th Data Glove System과 $Fastrak{\circledR}$)과 차세대 착용형 PC 플랫폼(embedded I.MX21 board)간의 이격거리를 반경 10M의 타원 형태로 구성하고 규정된 위치로 수화 제스처 데이터 입력모듈을 이동시키면서 5인의 피실험자에 대하여 연속적으로 20회의 반복 실험을 수행하였으며 사용자의 동적 제스처 인식 실험결과 92.2% 평균 인식률을 도출하였다.

  • PDF

A Hangul Input Interface Using Continuous Gestures and Language Models (연속적인 제스처와 언어 모델을 이용한 한글 입력 인터페이스)

  • Kim Dongho;Kwon Younghee;Kim Jin-Hyung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.586-588
    • /
    • 2005
  • 휴대 전화와 PDA의 급속한 보급과 더불어, 휴대용 장치에서의 간단한 텍스트 입력 방식 연구의 중요성도 나날이 증대되고 있다. 현재 다양한 방식의 입력 방법들이 존재하나, 한글의 특성을 반영하지 않아 한글 입력에 적용하기 어려운 단점들이 존재한다. 본 연구에서는 2차원 평면상의 연속적인 제스처와 언어 모델을 이용하고, 한글의 특성을 고려한 새로운 한글 입력 방식을 제안한다.

  • PDF

Depth Image Poselets via Body Part-based Pose and Gesture Recognition (신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처 인식)

  • Park, Jae Wan;Lee, Chil Woo
    • Smart Media Journal
    • /
    • v.5 no.2
    • /
    • pp.15-23
    • /
    • 2016
  • In this paper we propose the depth-poselets using body-part-poses and also propose the method to recognize the gesture. Since the gestures are composed of sequential poses, in order to recognize a gesture, it should emphasize to obtain the time series pose. Because of distortion and high degree of freedom, it is difficult to recognize pose correctly. So, in this paper we used partial pose for obtaining a feature of the pose correctly without full-body-pose. In this paper, we define the 16 gestures, a depth image using a learning image was generated based on the defined gestures. The depth poselets that were proposed in this paper consists of principal three-dimensional coordinates of the depth image and its depth image of the body part. In the training process after receiving the input defined gesture by using a depth camera in order to train the gesture, the depth poselets were generated by obtaining 3D joint coordinates. And part-gesture HMM were constructed using the depth poselets. In the testing process after receiving the input test image by using a depth camera in order to test, it extracts foreground and extracts the body part of the input image by comparing depth poselets. And we check part gestures for recognizing gesture by using result of applying HMM. We can recognize the gestures efficiently by using HMM, and the recognition rates could be confirmed about 89%.

Gesture Input System in 3-D Space by Using Inertial Sensors (관성 센서를 이용한 공간상의 제스처 입력 시스템)

  • Cho, Sung-Jung;Bang, Won-Chul;Chang, Wook;Choi, Eun-Seok;Yang, Jing;Oh, Jong-Gu;Kang, Kyung-Ho;Cho, Joon-Kee;Kim, Dong-Yoon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.709-711
    • /
    • 2004
  • 본 논문은 3차원 상에서 사용자의 동작을 관성센서로 입력받아 제스처를 인식하는 시스템을 소개한다. 사용자가 취한 제스처 동작은 관성 센서를 통하여 각속도 및 가속도 신호열로 변환된다. 궤적 추정 알고리즘은 이를 2차원 상의 동작 궤적으로 변환한다. 인식 알고리즘은 이 동작 궤적을 입력받아 베이지안 네트웍에 기반한 제스처 모델들로부터의 likelihood를 계산한 후, 최대 likelihood를 갖는 모델을 선택하여 인식을 수행한다. 16명의 필자로부터 13개의 제스처 동작을 각 24회씩 수집하여 실험한 결과 평균 99.4%의 인식률을 얻었다.

  • PDF

A Study on Machine Learning-Based Real-Time Gesture Classification Using EMG Data (EMG 데이터를 이용한 머신러닝 기반 실시간 제스처 분류 연구)

  • Ha-Je Park;Hee-Young Yang;So-Jin Choi;Dae-Yeon Kim;Choon-Sung Nam
    • Journal of Internet Computing and Services
    • /
    • v.25 no.2
    • /
    • pp.57-67
    • /
    • 2024
  • This paper explores the potential of electromyography (EMG) as a means of gesture recognition for user input in gesture-based interaction. EMG utilizes small electrodes within muscles to detect and interpret user movements, presenting a viable input method. To classify user gestures based on EMG data, machine learning techniques are employed, necessitating the preprocessing of raw EMG data to extract relevant features. EMG characteristics can be expressed through formulas such as Integrated EMG (IEMG), Mean Absolute Value (MAV), Simple Square Integral (SSI), Variance (VAR), and Root Mean Square (RMS). Additionally, determining the suitable time for gesture classification is crucial, considering the perceptual, cognitive, and response times required for user input. To address this, segment sizes ranging from a minimum of 100ms to a maximum of 1,000ms are varied, and feature extraction is performed to identify the optimal segment size for gesture classification. Notably, data learning employs overlapped segmentation to reduce the interval between data points, thereby increasing the quantity of training data. Using this approach, the paper employs four machine learning models (KNN, SVC, RF, XGBoost) to train and evaluate the system, achieving accuracy rates exceeding 96% for all models in real-time gesture input scenarios with a maximum segment size of 200ms.

Robust Gesture Spotting and Recognition in Continuous Full Body Gesture (연속적인 전신 제스처에서 강인한 행동 적출 및 인식)

  • Park A.-V.;Shin H.-K.;Lee S.-W
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.898-900
    • /
    • 2005
  • 강인한 행동 인식을 하기 위해서는 연속적인 전신 제스처 입력에서부터 의미 있는 부분만을 분할하는 기술이 필요하다. 하지만 의미 없는 행동을 정의하고, 모델링 하기 어렵기 때문에, 연속적인 행동에서 중요한 행동만을 분할한다는 것은 어려운 문제이다. 본 논문에서는 연속적인 전신 행동의 입력으로부터 의미있는 부분을 분할하고, 동시에 인식하는 방법을 제안한다. 의미 없는 행동을 제거하고, 의미 있는 행동만을 적출하기 위해 garbage 모델을 제안한다. 이 garbage 모델에 의해 의미 있는 부분만 HMM의 입력으로 사용되어지며, 학습되어진 HMM 중에서 가장 높은 확률 값을 가지는 모델을 선택하여. 행동으로 인식한다. 제안된 방법은 20명의 3D motion capture data와 Principal Component Analysis를 이용하여 생성된 80개의 행동 데이터를 이용하여 평가하였으며, 의미 있는 행동과, 의미 없는 행동을 포함하는 연속적인 제스처 입력열에 대해 $98.3\%$의 인식률과 $94.8\%$의 적출률을 얻었다.

  • PDF

Design of Multi-Finger Flick Interface for Fast File Management on Capacitive-Touch-Sensor Device (정전기식 입력 장치에서의 빠른 파일 관리를 위한 다중 손가락 튕김 인터페이스 설계)

  • Park, Se-Hyun;Park, Tae-Jin;Choy, Yoon-Chul
    • Journal of Korea Multimedia Society
    • /
    • v.13 no.8
    • /
    • pp.1235-1244
    • /
    • 2010
  • Most emerging smart phones support capacitive touch sensors. It renders existing gesture-based interfaces not suitable since they were developed for the resistive touch sensors and pen-based input. Unlike the flick gestures from the existing gesture interfaces, the finger flick gesture used in this paper reduces the workload about half by selecting the target and the command to perform on the target at a single touch input. With the combination with multi-touch interface, it supports various menu commands without having to learn complex gestures, and is suitable for the touch-based devices hence it minimizes input error. This research designs and implements the multi-touch and flick interface to provide an effective file management system on the smart phones with capacitive touch input. The evaluation proves that the suggested interface is superior to the existing methods on the capacitive touch input devices.

General Touch Gesture Definition and Recognition for Tabletop display (테이블탑 디스플레이에서 활용 가능한 범용적인 터치 제스처 정의 및 인식)

  • Park, Jae-Wan;Kim, Jong-Gu;Lee, Chil-Woo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06b
    • /
    • pp.184-187
    • /
    • 2010
  • 본 논문에서는 터치 제스처의 인식을 위해 시도된 여러 방법 중 테이블탑 디스플레이상에서 HMM을 이용한 제스처의 학습과 사용에 대해 제안한다. 터치 제스처는 제스처의 획(stroke)에 따라 single stroke와 multi stroke로 분류할 수 있다. 그러므로 제스처의 입력은 영상프레임에서 터치 궤적에 따라 변하는 방향 벡터를 이용하여 방향코드로 분석될 수 있다. 그리고 분석된 방향코드를 기계학습을 통하여 학습시킨 후, 인식실험에 사용한다. 제스처 인식 학습에는 총 10개의 제스처에 대하여 100개 방향코드 데이터를 이용하였다. 형태를 갖추고 있는 제스처는 미리 정의되어 있는 제스처와 비교를 통하여 인식할 수 있다. (4 방향 드래그, 원, 삼각형, ㄱ ㄴ 모양 >, < ) 미리 정의되어 있는 제스처가 아닌 경우에는 기계학습을 통하여 사용자가 의미를 부여한 후 제스처를 정의하여 원하는 제스처를 선택적으로 사용할 수 있다. 본 논문에서는 테이블탑 디스플레이 환경에서 사용자의 터치제스처를 인식하는 시스템을 구현하였다. 앞으로 테이블탑 디스플레이 환경에서 터치 제스처 인식에 적합한 알고리즘을 찾고 멀티터치 제스처를 인식하는 연구도 이루어져야 할 것이다.

  • PDF

An Implementation of Dynamic Gesture Recognizer Based on WPS and Data Glove (WPS와 장갑 장치 기반의 동적 제스처 인식기의 구현)

  • Kim, Jung-Hyun;Roh, Yong-Wan;Hong, Kwang-Seok
    • The KIPS Transactions:PartB
    • /
    • v.13B no.5 s.108
    • /
    • pp.561-568
    • /
    • 2006
  • WPS(Wearable Personal Station) for next generation PC can define as a core terminal of 'Ubiquitous Computing' that include information processing and network function and overcome spatial limitation in acquisition of new information. As a way to acquire significant dynamic gesture data of user from haptic devices, traditional gesture recognizer based on desktop-PC using wire communication module has several restrictions such as conditionality on space, complexity between transmission mediums(cable elements), limitation of motion and incommodiousness on use. Accordingly, in this paper, in order to overcome these problems, we implement hand gesture recognition system using fuzzy algorithm and neural network for Post PC(the embedded-ubiquitous environment using blue-tooth module and WPS). Also, we propose most efficient and reasonable hand gesture recognition interface for Post PC through evaluation and analysis of performance about each gesture recognition system. The proposed gesture recognition system consists of three modules: 1) gesture input module that processes motion of dynamic hand to input data 2) Relational Database Management System(hereafter, RDBMS) module to segment significant gestures from input data and 3) 2 each different recognition modulo: fuzzy max-min and neural network recognition module to recognize significant gesture of continuous / dynamic gestures. Experimental result shows the average recognition rate of 98.8% in fuzzy min-nin module and 96.7% in neural network recognition module about significantly dynamic gestures.