• 제목/요약/키워드: Hand-motion recognition

검색결과 145건 처리시간 0.031초

자이로센서를 이용한 손 동작 인식형 보조 입력장치 구현 (Implementation of the Hand-motion Recognition based Auxiliary Input Device using Gyro Sensor)

  • 박기홍;이현직;김윤호
    • 한국항행학회논문지
    • /
    • 제13권4호
    • /
    • pp.503-508
    • /
    • 2009
  • 본 논문에서는 특정인(장애인, 재활치료자, 고령자 등)들이 수월하게 컴퓨터를 사용 할 수 있도록 하기 위한 손동작 인식형 보조 입력장치를 설계하였다. 입력장치는 3차원 공간에서 손 동작 인식을 위해 자이로 센서를 사용하였고, 통신 대역은 무선 RF 2.4GHz 대역에서 신호를 송 수신 하도록 하였다. 제작된 보드는 자이로 모듈, RF 통신 모듈, MCU, USB 단자 등으로 구성되었다. 동작인식 실험결과, 마우스 기반의 커서 이동 및 프로그램 제어 등이 설계 규격대로 수행됨을 확인 하였다.

  • PDF

HMM을 이용한 알파벳 제스처 인식 (Alphabetical Gesture Recognition using HMM)

  • 윤호섭;소정;민병우
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.384-386
    • /
    • 1998
  • The use of hand gesture provides an attractive alternative to cumbersome interface devices for human-computer interaction(HCI). Many methods hand gesture recognition using visual analysis have been proposed such as syntactical analysis, neural network(NN), Hidden Markov Model(HMM) and so on. In our research, a HMMs is proposed for alphabetical hand gesture recognition. In the preprocessing stage, the proposed approach consists of three different procedures for hand localization, hand tracking and gesture spotting. The hand location procedure detects the candidated regions on the basis of skin-color and motion in an image by using a color histogram matching and time-varying edge difference techniques. The hand tracking algorithm finds the centroid of a moving hand region, connect those centroids, and thus, produces a trajectory. The spotting a feature database, the proposed approach use the mesh feature code for codebook of HMM. In our experiments, 1300 alphabetical and 1300 untrained gestures are used for training and testing, respectively. Those experimental results demonstrate that the proposed approach yields a higher and satisfying recognition rate for the images with different sizes, shapes and skew angles.

  • PDF

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF

기울기와 위치 정보를 이용한 손동작기반 실시간 숫자 인식기 구현 (An Implementation of Real-Time Numeral Recognizer Based on Hand Gesture Using Both Gradient and Positional Information)

  • 김지호;박양우;한규필
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권3호
    • /
    • pp.199-204
    • /
    • 2013
  • 본 논문에서는 다양한 정보단말기에 활용될 수 있는 손동작기반의 실시간 숫자 인식기 구현 기법을 제안한다. 제안한 알고리즘은 키넥트 센서를 활용하여 3차원 공간에서 손의 움직임을 획득한다. 획득한 손의 궤적은 잡음과 제스처의 크기 변화에 의한 궤적 변화를 최소화하고 일관성 있는 추적을 유지하기 위해 주성분 분석으로 단순화 된다. 또한, 기울기와 위치정보 특징을 동시에 고려한 새로운 특징 기반 은닉 마르코프 모델을 제시한다. 그 결과 제안한 기법은 손동작의 크기와 움직임 속도에 강인한 실시간 인식기를 구현하였다. 실험을 통하여 기존의 기울기 정보만을 사용하였을 때 보다 30% 이상의 높은 인식률을 보였으며, 98%의 높은 숫자 인식률을 나타내었다.

NATURAL INTERACTION WITH VIRTUAL PET ON YOUR PALM

  • Choi, Jun-Yeong;Han, Jae-Hyek;Seo, Byung-Kuk;Park, Han-Hoon;Park, Jong-Il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.341-345
    • /
    • 2009
  • We present an augmented reality (AR) application for cell phone where users put a virtual pet on their palms and play/interact with the pet by moving their hands and fingers naturally. The application is fundamentally based on hand/palm pose recognition and finger motion estimation, which is the main concern in this paper. We propose a fast and efficient hand/palm pose recognition method which uses natural features (e.g. direction, width, contour shape of hand region) extracted from a hand image with prior knowledge for hand shape or geometry (e.g. its approximated shape when a palm is open, length ratio between palm width and pal height). We also propose a natural interaction method which recognizes natural motion of fingers such as opening/closing palm based on fingertip tracking. Based on the proposed methods, we developed and tested the AR application on an ultra-mobile PC (UMPC).

  • PDF

스마트 폰 추적 및 색상 통신을 이용한 동작인식 플랫폼 개발 (Development of Motion Recognition Platform Using Smart-Phone Tracking and Color Communication)

  • 오병훈
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.143-150
    • /
    • 2017
  • 본 논문에서는 스마트 폰 추적 및 색상 통신을 이용한 새로운 동작인식 플랫폼을 개발한다. 카메라가 탑재된 PC 혹은 스마트 TV와 개인 스마트 폰 가지고 영상을 기반으로 한 객체 인식 기술을 이용하여 동작 인식 유저 인터페이스를 제공한다. 사용자는 손으로 스마트 폰을 움직여 모션 컨트롤러처럼 사용할 수 있으며, 플랫폼에서는 이 스마트폰을 실시간으로 검출하고, 3차원 거리와 각도를 추정하여 사용자의 동작을 인식한다. 또한, 스마트 폰과 서버의 통신을 위하여 색상 디지털 코드를 이용한 통신 시스템이 사용된다. 사용자들은 색상 통신 방법을 이용하여 텍스트 데이터를 자유자재로 주고받을 수 있으며, 동작을 취하는 도중에도 끊임없이 데이터를 전송할 수 있다. 제안한 동작인식 플랫폼 기반의 실행 가능한 콘텐츠를 구현하여 결과를 제시한다.

인간의 행동 인식을 위한 얼굴 방향과 손 동작 해석 (Analysis of Face Direction and Hand Gestures for Recognition of Human Motion)

  • 김성은;조강현;전희성;최원호;박경섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권4호
    • /
    • pp.309-318
    • /
    • 2001
  • In this paper, we describe methods that analyze a human gesture. A human interface(HI) system for analyzing gesture extracts the head and hand regions after taking image sequence of and operators continuous behavior using CCD cameras. As gestures are accomplished with operators head and hands motion, we extract the head and hand regions to analyze gestures and calculate geometrical information of extracted skin regions. The analysis of head motion is possible by obtaining the face direction. We assume that head is ellipsoid with 3D coordinates to locate the face features likes eyes, nose and mouth on its surface. If was know the center of feature points, the angle of the center in the ellipsoid is the direction of the face. The hand region obtained from preprocessing is able to include hands as well as arms. For extracting only the hand region from preprocessing, we should find the wrist line to divide the hand and arm regions. After distinguishing the hand region by the wrist line, we model the hand region as an ellipse for the analysis of hand data. Also, the finger part is represented as a long and narrow shape. We extract hand information such as size, position, and shape.

  • PDF

강인한 손가락 끝 추출과 확장된 CAMSHIFT 알고리즘을 이용한 자연스러운 Human-Robot Interaction을 위한 손동작 인식 (A Robust Fingertip Extraction and Extended CAMSHIFT based Hand Gesture Recognition for Natural Human-like Human-Robot Interaction)

  • 이래경;안수용;오세영
    • 제어로봇시스템학회논문지
    • /
    • 제18권4호
    • /
    • pp.328-336
    • /
    • 2012
  • In this paper, we propose a robust fingertip extraction and extended Continuously Adaptive Mean Shift (CAMSHIFT) based robust hand gesture recognition for natural human-like HRI (Human-Robot Interaction). Firstly, for efficient and rapid hand detection, the hand candidate regions are segmented by the combination with robust $YC_bC_r$ skin color model and haar-like features based adaboost. Using the extracted hand candidate regions, we estimate the palm region and fingertip position from distance transformation based voting and geometrical feature of hands. From the hand orientation and palm center position, we find the optimal fingertip position and its orientation. Then using extended CAMSHIFT, we reliably track the 2D hand gesture trajectory with extracted fingertip. Finally, we applied the conditional density propagation (CONDENSATION) to recognize the pre-defined temporal motion trajectories. Experimental results show that the proposed algorithm not only rapidly extracts the hand region with accurately extracted fingertip and its angle but also robustly tracks the hand under different illumination, size and rotation conditions. Using these results, we successfully recognize the multiple hand gestures.

손 제스터 인식을 이용한 실시간 아바타 자세 제어 (On-line Motion Control of Avatar Using Hand Gesture Recognition)

  • 김종성;김정배;송경준;민병의;변증남
    • 전자공학회논문지C
    • /
    • 제36C권6호
    • /
    • pp.52-62
    • /
    • 1999
  • 본 논문에서는 가상 환경에서 움직이는 인체 Avatar의 움직임을 인간의 가장 자연스러운 동작의 하나인 손 제스처를 이용하여 실시간으로 제어하는 인식 시스템의 구현에 관하여 상술한다. 동적 손 제스처는 컴퓨터와 제스처를 사용하는 사람과의 상호 연결 수단이다.가상공간 상에서의 자연스러운 움직임을 표현하기 위해 32개의 자유도(DOF)를 가진 인체 아바타를 구성하였으며, 정지, 전후좌우로 한 걸음 이동, 걷기, 달리기, 좌우로 회전, 뒤로 돌기, 물건 잡기의 동작 모드를 정의하여 가상공간 상의 인체 아바타는 미리 설정된 손 제스처에 따라 실시간에 따라 실시간으로 3차원공간상에서 움직일 수 있다. 실시간의 인체 아바타 이동에는 역 기구학과 기구학을 혼용하여 적용하였으며, 사이버 터치를 착용한 사용자의 손 제스처 인식에는 인공 신경망 이론과 퍼지 이론을 도입하여 실시간 인식이 가능하였다.

  • PDF

기존 3차원 인터랙션 동작인식 기술 현황 파악을 위한 메타분석 (Analysis of 3D Motion Recognition using Meta-analysis for Interaction)

  • 김용우;황민철;김종화;우진철;김치중;김지혜
    • 대한인간공학회지
    • /
    • 제29권6호
    • /
    • pp.925-932
    • /
    • 2010
  • Most of the research on three-dimensional interaction field have showed different accuracy in terms of sensing, mode and method. Furthermore, implementation of interaction has been a lack of consistency in application field. Therefore, this study is to suggest research trends of three-dimensional interaction using meta-analysis. Searching relative keyword in database provided with 153 domestic papers and 188 international papers covering three-dimensional interaction. Analytical coding tables determined 18 domestic papers and 28 international papers for analysis. Frequency analysis was carried out on method of action, element, number, accuracy and then verified accuracy by effect size of the meta-analysis. As the results, the effect size of sensor-based was higher than vision-based, but the effect size was extracted to small as 0.02. The effect size of vision-based using hand motion was higher than sensor-based using hand motion. Therefore, implementation of three-dimensional sensor-based interaction and vision-based using hand motions more efficient. This study was significant to comprehensive analysis of three-dimensional motion recognition for interaction and suggest to application directions of three-dimensional interaction.