• Title/Summary/Keyword: 제스쳐 응용

Search Result 8, Processing Time 0.023 seconds

Design and Implementation of a Motion Gesture Framework based on the Smart Phone Accelerometer Sensor (스마트폰 가속도 센서를 이용한 모션 제스쳐 프레임워크의 설계 및 구현)

  • Lee, Gimun;Yi, Shinyoung;Kim, Jonghyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2012.07a
    • /
    • pp.305-308
    • /
    • 2012
  • 본 논문에서는 스마트폰 가속도 센서를 이용한 새로운 사용자 인터페이스인 모션 제스쳐 프레임워크를 제안한다. 최근 IT 패러다임의 변화를 주도하고 있는 스마트폰의 대표적인 특징 중의 하나가 터치 인터페이스이다. Apple 사의 iPhone은 세계 최초로 터치스크린으로 가능한 사용자 입력들을 체계적으로 정리하여 터치 제스처를 정의하고 상용화에 성공 하였다. 본 연구에서는 기존의 터치 인터페이스를 대체하거나 보완할 새로운 인터페이스로서 스마트폰의 가속도 센서를 이용한 모션 제스처 프레임워크를 설계하고, 실제 스마트폰 응용 프로그램의 사용자 인터페이스에 적용하여 활용 가능성을 보여준다.

  • PDF

Hand Gesture Controlled Drone (손 제스쳐를 이용한 드론 활용)

  • Park, So-Yeon;Choi, Min-Gyu;Kim, Jin-Seok;Bae, Jun-Hyeok;Cho, Dong-Woo;Hong, Dong-Kwon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.136-137
    • /
    • 2017
  • 본 논문에서는 컴퓨팅의 응용시스템인 센서 통신과 제스쳐 인식을 이용하여 드론을 제약 없이 조작할 수 있다. 개인이나 기업과 정부 모두에게 새로운 가능성과 기회를 제공하여 상업적 가치 창출할 수 있을 것으로 예상된다.

Microcontroller-based Gesture Recognition using 1D CNN (1D CNN을 이용한 마이크로컨트롤러기반 제스처 인식)

  • Kim, Ji-Hye;Choi, Kwon-Taeg
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.219-220
    • /
    • 2021
  • 본 논문에서는 마이크로컨트롤러에서 6축 IMU 센서를 사용한 제스쳐를 인식하기 위한 최적화된 학습 방법을 제안한다. 6축 센서값을 119번 샘플링할 경우 특징 차원이 매우 크기 때문에 다층 신경망을 이용할 경우 학습파라미터가 마이크로컨트롤러의 메모리 허용량을 초과하게 된다. 본 논문은 성능은 유지하며 학습 파라미터 개수를 효과적으로 줄이기 위한 마이크로컨트롤러에 최적화된 1D CNN을 제안한다.

  • PDF

Character Input Method Based On Gesture for The Visually Impaired (시각장애인의 스마트 기기 사용을 위한 제스처 기반 문자 입력 방법)

  • Bae, Ki-Tae;Sin, Eun-Ae;Bae, Yong-soo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.01a
    • /
    • pp.215-216
    • /
    • 2016
  • 본 논문에서는 물리적 버튼이 존재하지 않는 평면방식의 스마트 기기를 시각 장애인이 기존 음성 인식 기반의 문자 입력 방식 대비 3배 이상 빠른 속도로 문자를 입력할 수 있는 제스처 기반 가상 문자 입력 방법을 제안한다. 제안하는 방식의 원리는 스마트폰의 터치화면을 8개 방향으로 설정하고 사용자의 드래그 동작에 따른 입력값의 초기위치와 중앙점, 드래그 형태 등을 이용하여 숫자, 영문, 한글, 특수기호 등을 입력하거나, 스마트기기의 다양한 응용 프로그램들을 자연스럽게 제어하고 동작시킬 수 있는 제스처 기반의 문자입력 방법이다. 실제 시각장애인의 필드 테스트를 통해 제안하는 방식의 효율성을 입증해보인다.

  • PDF

Gesture Recognition by Analyzing a Trajetory on Spatio-Temporal Space (시공간상의 궤적 분석에 의한 제스쳐 인식)

  • 민병우;윤호섭;소정;에지마 도시야끼
    • Journal of KIISE:Software and Applications
    • /
    • v.26 no.1
    • /
    • pp.157-157
    • /
    • 1999
  • Researches on the gesture recognition have become a very interesting topic in the computer vision area, Gesture recognition from visual images has a number of potential applicationssuch as HCI (Human Computer Interaction), VR(Virtual Reality), machine vision. To overcome thetechnical barriers in visual processing, conventional approaches have employed cumbersome devicessuch as datagloves or color marked gloves. In this research, we capture gesture images without usingexternal devices and generate a gesture trajectery composed of point-tokens. The trajectory Is spottedusing phase-based velocity constraints and recognized using the discrete left-right HMM. Inputvectors to the HMM are obtained by using the LBG clustering algorithm on a polar-coordinate spacewhere point-tokens on the Cartesian space .are converted. A gesture vocabulary is composed oftwenty-two dynamic hand gestures for editing drawing elements. In our experiment, one hundred dataper gesture are collected from twenty persons, Fifty data are used for training and another fifty datafor recognition experiment. The recognition result shows about 95% recognition rate and also thepossibility that these results can be applied to several potential systems operated by gestures. Thedeveloped system is running in real time for editing basic graphic primitives in the hardwareenvironments of a Pentium-pro (200 MHz), a Matrox Meteor graphic board and a CCD camera, anda Window95 and Visual C++ software environment.

Emotion Recognition Based on Human Gesture (인간의 제스쳐에 의한 감정 인식)

  • Song, Min-Kook;Park, Jin-Bae;Joo, Young-Hoon
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.1
    • /
    • pp.46-51
    • /
    • 2007
  • This paper is to present gesture analysis for human-robot interaction. Understanding human emotions through gesture is one of the necessary skills fo the computers to interact intelligently with their human counterparts. Gesture analysis is consisted of several processes such as detecting of hand, extracting feature, and recognizing emotions. For efficient operation we used recognizing a gesture with HMM(Hidden Markov Model). We constructed a large gesture database, with which we verified our method. As a result, our method is successfully included and operated in a mobile system.