• 제목/요약/키워드: Hands gesture recognition

검색결과 47건 처리시간 0.02초

FPS 게임에서 제스처 인식과 VR 컨트롤러를 이용한 게임 상호 작용 제어 설계 (Design of Gaming Interaction Control using Gesture Recognition and VR Control in FPS Game)

  • 이용환;안효창
    • 반도체디스플레이기술학회지
    • /
    • 제18권4호
    • /
    • pp.116-119
    • /
    • 2019
  • User interface/experience and realistic game manipulation play an important role in virtual reality first-person-shooting game. This paper presents an intuitive hands-free interface of gaming interaction scheme for FPS based on user's gesture recognition and VR controller. We focus on conventional interface of VR FPS interaction, and design the player interaction wearing head mounted display with two motion controllers; leap motion to handle low-level physics interaction and VIVE tracker to control movement of the player joints in the VR world. The FPS prototype system shows that the design interface helps to enjoy playing immersive FPS and gives players a new gaming experience.

제스처와 EEG 신호를 이용한 감정인식 방법 (Emotion Recognition Method using Gestures and EEG Signals)

  • 김호덕;정태민;양현창;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권9호
    • /
    • pp.832-837
    • /
    • 2007
  • Electroencephalographic(EEG) is used to record activities of human brain in the area of psychology for many years. As technology develope, neural basis of functional areas of emotion processing is revealed gradually. So we measure fundamental areas of human brain that controls emotion of human by using EEG. Hands gestures such as shaking and head gesture such as nodding are often used as human body languages for communication with each other, and their recognition is important that it is a useful communication medium between human and computers. Research methods about gesture recognition are used of computer vision. Many researchers study Emotion Recognition method which uses one of EEG signals and Gestures in the existing research. In this paper, we use together EEG signals and Gestures for Emotion Recognition of human. And we select the driver emotion as a specific target. The experimental result shows that using of both EEG signals and gestures gets high recognition rates better than using EEG signals or gestures. Both EEG signals and gestures use Interactive Feature Selection(IFS) for the feature selection whose method is based on a reinforcement learning.

HRI 시스템에서 제스처 인식을 위한 Moving Mean-Shift 기반 사용자 손 위치 보정 알고리즘 (A Compensation Algorithm for the Position of User Hands Based on Moving Mean-Shift for Gesture Recognition in HRI System)

  • 김태완;권순량;이동명
    • 한국통신학회논문지
    • /
    • 제40권5호
    • /
    • pp.863-870
    • /
    • 2015
  • 본 논문은 키넥트 센서 (Kinect sensor)를 탑재한 Human Robot Interface (HRI) 시스템에서 손 위치 데이터를 측정하여 제스처 인식 및 처리성능을 높이기 위하여 Moving Mean-Shift 기반 사용자 손 위치 보정 알고리즘($CAPUH_{MMS}$)을 제안하였다. 또한, $CAPUH_{MMS}$의 성능을 자체 개발한 실시간 성능 시뮬레이터로 이동궤적에 대한 평균 오차 성능개선 비율을 다른 보정 기법인 $CA_{KF}$ (Kalman-Filter 기반 보정 알고리즘) 및 $CA_{LSM}$ (Least-Squares Method 기반 보정 알고리즘)의 성능과 비교하였다. 실험결과, $CAPUH_{MMS}$의 이동궤적에 대한 평균 오차 성능개선 비율은 양손 상하 운동에서 평균 19.35%으로, 이는 $CA_{KF}$$CA_{LSM}$ 보다 각각 13.88%, 16.68% 더 높은 평균 오차 성능 개선 비율을, 그리고 양손 좌우 운동에서 평균 28.54%으로 $CA_{KF}$$CA_{LSM}$ 보다 각각 9.51%, 17.31% 더 높은 평균 오차 성능 개선 비율을 나타낸 것이다.

강인한 손가락 끝 추출과 확장된 CAMSHIFT 알고리즘을 이용한 자연스러운 Human-Robot Interaction을 위한 손동작 인식 (A Robust Fingertip Extraction and Extended CAMSHIFT based Hand Gesture Recognition for Natural Human-like Human-Robot Interaction)

  • 이래경;안수용;오세영
    • 제어로봇시스템학회논문지
    • /
    • 제18권4호
    • /
    • pp.328-336
    • /
    • 2012
  • In this paper, we propose a robust fingertip extraction and extended Continuously Adaptive Mean Shift (CAMSHIFT) based robust hand gesture recognition for natural human-like HRI (Human-Robot Interaction). Firstly, for efficient and rapid hand detection, the hand candidate regions are segmented by the combination with robust $YC_bC_r$ skin color model and haar-like features based adaboost. Using the extracted hand candidate regions, we estimate the palm region and fingertip position from distance transformation based voting and geometrical feature of hands. From the hand orientation and palm center position, we find the optimal fingertip position and its orientation. Then using extended CAMSHIFT, we reliably track the 2D hand gesture trajectory with extracted fingertip. Finally, we applied the conditional density propagation (CONDENSATION) to recognize the pre-defined temporal motion trajectories. Experimental results show that the proposed algorithm not only rapidly extracts the hand region with accurately extracted fingertip and its angle but also robustly tracks the hand under different illumination, size and rotation conditions. Using these results, we successfully recognize the multiple hand gestures.

동적 베이스망 기반의 양손 제스처 인식 (Dynamic Bayesian Network based Two-Hand Gesture Recognition)

  • 석흥일;신봉기
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권4호
    • /
    • pp.265-279
    • /
    • 2008
  • 손 제스처를 이용한 사람과 컴퓨터간의 상호 작용은 오랜 기간 많은 사람들이 연구해 오고 있으며 커다란 발전을 보이고 있지만, 여전히 만족스러운 결과를 보이지는 못하고 있다. 본 논문에서는 동적 베이스망 프레임워크를 이용한 손 제스처 인식 방법을 제안한다. 유선 글러브를 이용하는 방법들과는 달리, 카메라 기반의 방법에서는 영상 처리와 특징 추출 단계의 결과들이 인식 성능에 큰 영향을 미친다. 제안하는 제스처 모델에서의 추론에 앞서 피부 색상 모델링 및 검출과 움직임 추적을 수행한다. 특징들간의 관계와 새로운 정보들을 쉽게 모델에 반영할 수 있는 동적 베이스망을 이용하여 두 손 제스처와 한 손 제스처 모두를 인식할 수 있는 새로운 모델을 제안한다. 10가지 독립 제스처에 대한 실험에서 최대 99.59%의 높은 인식 성능을 보였다. 제안하는 모델과 관련 방법들은 수화 인식과 같은 다른 문제들에도 적용 가능할 것으로 판단된다.

TheReviser : 가상 데스크 상의 제스처 기반 문서 교정 시스템 (TheReviser : A Gesture-based Editing System on a Digital Desk)

  • 정기철;강현
    • 정보처리학회논문지B
    • /
    • 제11B권4호
    • /
    • pp.527-536
    • /
    • 2004
  • 리바이저 시스템은 프로젝션 화면 상에서 종이 문서의 수정시 사용되는 교정 제스처와 동일한 제스처를 이용한 온라인 문서 교정 시스템이다. 이를 위해, 프로젝션 화면 상에서 손이나 문서와 같은 전경물체추출 기술과 연속 동작으로 부터의 제스처 인식 기술이 필요하다. 많은 조명 변화와 복잡한 배경 상에서 전경물체를 검출하기 위해서 기하보정과 색상보정을 수행하고, HMM 기반 제스처 인식기를 구현하였다. 실험 결과로부터 연속 제스처에서 93.22%의 인식률을 나타남을 볼 수 있다.

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF

인간의 행동 인식을 위한 얼굴 방향과 손 동작 해석 (Analysis of Face Direction and Hand Gestures for Recognition of Human Motion)

  • 김성은;조강현;전희성;최원호;박경섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권4호
    • /
    • pp.309-318
    • /
    • 2001
  • In this paper, we describe methods that analyze a human gesture. A human interface(HI) system for analyzing gesture extracts the head and hand regions after taking image sequence of and operators continuous behavior using CCD cameras. As gestures are accomplished with operators head and hands motion, we extract the head and hand regions to analyze gestures and calculate geometrical information of extracted skin regions. The analysis of head motion is possible by obtaining the face direction. We assume that head is ellipsoid with 3D coordinates to locate the face features likes eyes, nose and mouth on its surface. If was know the center of feature points, the angle of the center in the ellipsoid is the direction of the face. The hand region obtained from preprocessing is able to include hands as well as arms. For extracting only the hand region from preprocessing, we should find the wrist line to divide the hand and arm regions. After distinguishing the hand region by the wrist line, we model the hand region as an ellipse for the analysis of hand data. Also, the finger part is represented as a long and narrow shape. We extract hand information such as size, position, and shape.

  • PDF

Emotion Recognition Method for Driver Services

  • Kim, Ho-Duck;Sim, Kwee-Bo
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제7권4호
    • /
    • pp.256-261
    • /
    • 2007
  • Electroencephalographic(EEG) is used to record activities of human brain in the area of psychology for many years. As technology developed, neural basis of functional areas of emotion processing is revealed gradually. So we measure fundamental areas of human brain that controls emotion of human by using EEG. Hands gestures such as shaking and head gesture such as nodding are often used as human body languages for communication with each other, and their recognition is important that it is a useful communication medium between human and computers. Research methods about gesture recognition are used of computer vision. Many researchers study Emotion Recognition method which uses one of EEG signals and Gestures in the existing research. In this paper, we use together EEG signals and Gestures for Emotion Recognition of human. And we select the driver emotion as a specific target. The experimental result shows that using of both EEG signals and gestures gets high recognition rates better than using EEG signals or gestures. Both EEG signals and gestures use Interactive Feature Selection(IFS) for the feature selection whose method is based on the reinforcement learning.

상태 오토마타와 기본 요소분류기를 이용한 가상현실용 실시간 인터페이싱 (Virtual Environment Interfacing based on State Automata and Elementary Classifiers)

  • 김종성;이찬수;송경준;민병의;박치항
    • 한국정보처리학회논문지
    • /
    • 제4권12호
    • /
    • pp.3033-3044
    • /
    • 1997
  • 본 논문에서는 가상현실의 기본 요소중의 하나인 사용자 인터페이스 분야에서 동적 손 제스처를 실시간으로 인식하는 시스템의 구현에 관하여 상술한다. 사람의 손과 손가락은 사람마다 같은 동작이라도 데이터의 변화가 다양하며 같은 동작을 반복해서 할 때에도 다른 데이터를 얻게되는등 시간에따른 변화도 존재한다. 또한, 손가락의 외형 및 물리적 구조가 사람마다 다르기 때문에 다른 두사람에 의해 만들어진 같은 손 모양도 일반적인 센싱장비에의해 측정될 때 다른 측정값을 나타낸다. 또한 동적 손제스처에서 동작의 시작과 끝을 명확히 구분하기가 매우 힘들다. 본 논문에서는 동적 손 제스처에 대해 각각의 의미있는 동작을 구분하기위해 상태 오토마타를 이용하였고, 인식 범위의 확장성을 고려하여 동적 손 제스처를 퍼지 이론을 도입한 특징 해석에의해 기본 요소인 손의 운동을 분류하고 퍼지 최대-최소 신경망을 적용하여 손의 모양을 분류함으로써 전체 손 제스처를 인식하는 시스템을 제안한다.

  • PDF