• 제목/요약/키워드: Hand-Gesture Recognition

검색결과 311건 처리시간 0.025초

삼차원 핸드 제스쳐 디자인 및 모델링 프레임워크 (A Framework for 3D Hand Gesture Design and Modeling)

  • 권두영
    • 한국산학기술학회논문지
    • /
    • 제14권10호
    • /
    • pp.5169-5175
    • /
    • 2013
  • 본 논문에서는 삼차원 핸드 제스쳐 디자인 및 모델링을 위한 프레임워크를 기술한다. 동작 인식, 평가, 등록을 지원하기위해 동적시간정합(Dynamic Time Warping, 이하 DTW)과 은닉마코브모델 (Hidden Markov Mode, 이하 HMM)을 활용 하였다. HMM은 제스쳐 인식에 활용되며 또한 제스쳐 디자인과 등록 과정에 활용된다. DTW은 HMM 훈련 데이터가 부족한 경우 제스쳐 인식에 활용되고, 수행된 동작이 기준 동작의 차이를 평가하는 데에 활용된다. 동작 움직임에 나타나는 위치 정보와 관성 정보를 모두 획득하기 위해 바디센서와 시각센서를 혼합하여 동작을 감지하였다. 18개의 예제 손동작을 디자인하고 다양한 상황에서 제안된 기법을 테스트하였다. 또한 제스쳐 수행시 나타나는 사용자간 다양성에 대해 토론한다.

손동작 인식 시스템을 위한 동적 학습 알고리즘 (Dynamic Training Algorithm for Hand Gesture Recognition System)

  • 김문환;황선기;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권2호
    • /
    • pp.51-56
    • /
    • 2009
  • 본 논문에서는 카메라-투영 시스템에서 비전에 기반을 둔 손동작 인식을 위한 새로운 알고리즘을 제안하고 있다. 제안된 인식방법은 정적인 손동작 분류를 위하여 푸리에 변환을 사용하였다. 손 분할은 개선된 배경 제거 방법을 사용하였다. 대부분의 인식방법들이 같은 피검자에 의해 학습과 실험이 이루어지고 상호작용에 이전에 학습단계가 필요하다. 그러나 학습되지 않은 다양한 상황에 대해서도 상호작용을 위해 동작 인식이 요구된다. 그러므로 본 논문에서는 인식 작업 중에 검출된 불완전한 동작들을 정정하여 적용하였다. 그 결과 사용자와 독립되게 동작을 인식함으로써 새로운 사용자에게 신속하게 온라인 적용이 가능하였다.

  • PDF

손동작 인식 시스템을 위한 동적 학습 알고리즘 (Dynamic Training Algorithm for Hand Gesture Recognition System)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제11권7호
    • /
    • pp.1348-1353
    • /
    • 2007
  • 본 논문에서는 카메라-투영 시스템에서 비전에 기반을 둔 손동작 인식을 위한 새로운 알고리즘을 제안하고 있다. 제안된 인식방법은 정적인 손동작 분류를 위하여 푸리에 변환을 사용하였다. 손 분할은 개선된 배경 제거 방법을 사용하였다. 대부분의 인식방법들이 같은 피검자에 의해 학습과 실험이 이루어지고 상호작용에 이전에 학습단계가 필요하다. 그러나 학습되지 않은 다양한 상황에 대해서도 상호작용을 위해 동작 인식이 요구된다. 그러므로 본 논문에서는 인식 작업 중에 검출된 불완전한 동작들을 정정하여 적용하였다. 그 결과 사용자와 독립되게 동작을 인식함으로써 새로운 사용자에게 신속하게 온라인 적용이 가능하였다.

Effective Hand Gesture Recognition by Key Frame Selection and 3D Neural Network

  • Hoang, Nguyen Ngoc;Lee, Guee-Sang;Kim, Soo-Hyung;Yang, Hyung-Jeong
    • 스마트미디어저널
    • /
    • 제9권1호
    • /
    • pp.23-29
    • /
    • 2020
  • This paper presents an approach for dynamic hand gesture recognition by using algorithm based on 3D Convolutional Neural Network (3D_CNN), which is later extended to 3D Residual Networks (3D_ResNet), and the neural network based key frame selection. Typically, 3D deep neural network is used to classify gestures from the input of image frames, randomly sampled from a video data. In this work, to improve the classification performance, we employ key frames which represent the overall video, as the input of the classification network. The key frames are extracted by SegNet instead of conventional clustering algorithms for video summarization (VSUMM) which require heavy computation. By using a deep neural network, key frame selection can be performed in a real-time system. Experiments are conducted using 3D convolutional kernels such as 3D_CNN, Inflated 3D_CNN (I3D) and 3D_ResNet for gesture classification. Our algorithm achieved up to 97.8% of classification accuracy on the Cambridge gesture dataset. The experimental results show that the proposed approach is efficient and outperforms existing methods.

궤적의 방향 변화 분석에 의한 제스처 인식 알고리듬 (Gesture Recognition Algorithm by Analyzing Direction Change of Trajectory)

  • 박장현;김민수
    • 한국정밀공학회지
    • /
    • 제22권4호
    • /
    • pp.121-127
    • /
    • 2005
  • There is a necessity for the communication between intelligent robots and human beings because of wide spread use of them. Gesture recognition is currently being studied in regards to better conversing. On the basis of previous research, however, the gesture recognition algorithms appear to require not only complicated algorisms but also separate training process for high recognition rates. This study suggests a gesture recognition algorithm based on computer vision system, which is relatively simple and more efficient in recognizing various human gestures. After tracing the hand gesture using a marker, direction changes of the gesture trajectory were analyzed to determine the simple gesture code that has minimal information to recognize. A map is developed to recognize the gestures that can be expressed with different gesture codes. Through the use of numerical and geometrical trajectory, the advantages and disadvantages of the suggested algorithm was determined.

Automation of an Interactive Interview System by Hand Gesture Recognition Using Particle Filter

  • Lee, Yang-Weon
    • Journal of information and communication convergence engineering
    • /
    • 제9권6호
    • /
    • pp.633-636
    • /
    • 2011
  • This paper describes a implementation of virtual interactive interview system. A hand motion recognition algorithm based on the particle filters is applied for this system. The particle filter is well operated for human hand motion recognition than any other recognition algorithm. Through the experiments, we show that the proposed scheme is stable and works well in virtual interview system's environments.

Leap Motion 시스템을 이용한 손동작 인식기반 제어 인터페이스 기술 연구 (A new study on hand gesture recognition algorithm using leap motion system)

  • 남재현;양승훈;허웅;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제17권11호
    • /
    • pp.1263-1269
    • /
    • 2014
  • As rapid development of new hardware control interface technology, new concepts have been being proposed and emerged. In this paper, a new approach based on leap motion system is proposed. While we employ a position information from sensor, the hand gesture recognition is suggested with the pre-defined patterns. To do this, we design a recognition algorithm with hand gesture and finger patterns. We apply the proposed scheme to 3-dimensional avatar controling and editing software tool for making animation in the cyber space as a representative application. This proposed algorithm can be used to control computer systems in medical treatment, game, education and other various areas.

Navigation of a Mobile Robot Using the Hand Gesture Recognition

  • Kim, Il-Myung;Kim, Wan-Cheol;Yun, Jae-Mu;Jin, Tae-Seok;Lee, Jang-Myung
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.126.3-126
    • /
    • 2001
  • A new method to govern the navigation of a mobile robot is proposed based on the following two procedures: one is to achieve vision information by using a 2 D-O-F camera as a communicating medium between a man and a mobile robot and the other is to analyze and to behave according to the recognized hand gesture commands. In the previous researches, mobile robots are passively to move through landmarks, beacons, etc. To incorporate various changes of situation, a new control system manages the dynamical navigation of a mobile robot. Moreover, without any generally used expensive equipments or complex algorithms for hand gesture recognition, a reliable hand gesture recognition system is efficiently implemented to convey the human commands to the mobile robot with a few constraints.

  • PDF

제스쳐 클리핑 영역 비율과 크기 변화를 이용한 손-동작 인터페이스 구현 (Implement of Hand Gesture Interface using Ratio and Size Variation of Gesture Clipping Region)

  • 최창열;이우범
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권1호
    • /
    • pp.121-127
    • /
    • 2013
  • 본 논문에서는 UI 시스템에서 포인팅 장비를 대신할 수 있는 컴퓨터 비전 기반의 제스쳐 형상의 영역 비율과 크기 변화 특징을 이용한 손-동작 인터페이스를 제안한다. 제안한 방법은 효과적인 손 영역 검출을 위해서 HSI 컬러 모델을 기반으로 손 영역의 피부 색상(Hue)과 채도(Saturation) 값을 혼합하여 적용함으로서 제스쳐 인식에 있어서 손 영역 이외의 피부색 영역을 제거할 수 있으며, 빛에 의한 잡음 영향을 줄이는데 효과적이다. 또한 제시되는 제스쳐의 정적인 포즈 인식이 아닌 실시간으로 변화하는 제스쳐 클리핑 영역에서의 손 영역 화소 비율과 크기 변화를 검출함으로써 계산량을 줄일 수 있으며, 보다 빠른 응답 속도를 보장한다. 제안한 컴퓨터 비전 기반의 포인팅 인터페이스는 우리가 이전 연구에서 구현한 자가 시력 측정 시스템에서 독립적인 포인팅 인터페이스로 적용한 결과, 평균적으로 86%의 제스쳐 인식률과 87%의 좌표이동 인식률을 보여 포인팅 인터페이스로의 활용도를 보였다.

윤곽 분포를 이용한 이미지 기반의 손모양 인식 기술 (Hand Shape Classification using Contour Distribution)

  • 이창민;김대은
    • 제어로봇시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.593-598
    • /
    • 2014
  • Hand gesture recognition based on vision is a challenging task in human-robot interaction. The sign language of finger spelling alphabets has been tested as a kind of hand gesture. In this paper, we test hand gesture recognition by detecting the contour shape and orientation of hand with visual image. The method has three stages, the first stage of finding hand component separated from the background image, the second stage of extracting the contour feature over the hand component and the last stage of comparing the feature with the reference features in the database. Here, finger spelling alphabets are used to verify the performance of our system and our method shows good performance to discriminate finger alphabets.