• 제목/요약/키워드: 제스처입력

검색결과 131건 처리시간 0.023초

로컬모션정보와 글로벌모션정보를 이용한 제스처인식 (Gesture Recognition using Combination of Local and Global Information)

  • 이현주;이칠우
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.277-279
    • /
    • 2003
  • 본 논문에서는 입력 시퀀스의 각 영상으로부터 신체 영역을 분리한 후 신체 영역의 2차원 특징정보들을 이용하여 제스처를 자동적으로 인식할 수 있는 알고리듬을 제안한다. 먼저, 샘플 영상들로부터 구한 2차원 특징 벡터들의 통계적 정보를 주성분 분석법으로 분석하고 제스처 모델 공간을 구성한다. 입력 영상들은 미리 구성된 모델과 비교되어지고 각각의 영상은 모델 공간의 한 부분으로 심볼화되어진다. 마지막으로 심볼 시퀀스로 형상화되어진 영상 시퀀스는 은닉 마르코프 모델(HMM)을 이용하여 하나의 제스처로 인식된다. 우리가 이용하는 2차원 특징 정보는 대략적으로 신체의 어느 부분이 움직이는지를 알 수 있는 로컬정보와 전체적인 신체 모션의 정보를 나타내는 글로벌 정보를 이용하는 것으로 실세계에서 적용하기 용이하고, 좋은 인식 결과를 얻을 수 있다.

  • PDF

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF

저차원 특징 공간에서 HMM을 이용한 제스처 인식 (Gesture Recognition Using HMM on Feature Subspace)

  • 이용재;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2001년도 추계학술발표논문집
    • /
    • pp.849-853
    • /
    • 2001
  • 본 논문에서는 연속적인 인간의 제스처 영상을 저차원 제스처 특징 공간과 HMM 이용하여 인식할 수 있는 방법에 대해 소개한다. 일반적으로 제스처 공간에서 모델 패턴들과 매칭하기 위해서는 모든 모델 영상과 연속적인 입력영상들간의 거리평가로 인식을 수행하게 된다. 여기서 제안한 방법은 연속성을 가진 모델영상들을 HMM로 포즈들의 시공간적 특성을 매칭에 이용하였다. 이 방법은 동작의 구분뿐만 인식결과를 학습에 이용할 수 있는 장점이 있다.

  • PDF

일상적 행동양식을 통한 인터페이스의 구현 (Implementing user interface through everyday gesture)

  • 안종윤;이경원
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.409-415
    • /
    • 2006
  • 컴퓨터와 인간사이의 원활한 의사소통 및 인터랙션을 위해 기존의 키보드, 마우스를 대체할 수 있는 다양한 입력장치들이 개발되고 있다. 하지만 정보를 탐색, 접근하는 데에 있어서 기존의 장치들은 클릭과 같은 제한적인 동작만을 입력 값으로 받아들이므로 이러한 방식에 익숙하지 않은 사용자의 입장에서는 부자연스러움을 느끼는 요인이 된다. 사용자의 제스처를 인식할 수 있는 인터페이스를 통해 일상에서 사물을 사용할 때의 행동양식을 그대로 가져올 수 있다면, 디지털 콘텐츠에 접근하는데 있어 보다 직관적이고 편리하게 컴퓨터와 의사소통 될 수 있다. 제스처는 동작의 자율성이 높고 때로 그 의미를 파악하기 모호하기 때문에 동작들을 정확히 인식하여 구분할 필요가 있다. 본 논문에서는 이를 바탕으로 효과적인 제스처 인터페이스의 구현을 위해 필요한 점들을 살펴보고, 기술적 구현을 통해 디지털 콘텐츠와의 인터랙션을 보여주고자 한다. 정보 접근에 있어 가장 익숙하고 전통적이라 할 수 있는 책의 메타포를 통해 페이지를 넘기는 행동양식을 인식할 수 있는 인터페이스를 개발하고 이를 입력장치로 사용한다. 사용자의 동작을 인식, 파악하여 책을 앞뒤로 넘기거나 탐색하며 원하는 정보에 접근할 수 있도록 유도하고 손 동작을 통한 인터페이스를 수단으로 컴퓨터와의 유연한 의사소통이 가능하도록 구현한다.

  • PDF

RGBD 이미지 기반 핸드제스처 분류 딥러닝 기법의 연구 (A Study on Hand Gesture Classification Deep learning method device based on RGBD Image)

  • 박종찬;이연;신병석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.1173-1175
    • /
    • 2019
  • 소음이 심하거나 긴급한 상황 등에서 서로 다른 핸드제스처에 대한 인식을 컴퓨터의 입력으로 받고 이를 특정 명령으로 인식하는 등의 연구가 로봇 분야에서 연구되고 있다. 그러나 핸드제스처에 대한 전처리 과정에서 RGB데이터를 활용하거나 또는 스켈레톤을 활용하는 연구들이 다양하게 연구되었지만, 실생활에서의 노이즈가 많아 분류 정확도가 높지 않거나 컴퓨팅 파워의 사용이 과다한 문제가 발생했다. 본 논문에서는 RGBD 이미지를 사용하여 Hand Gesture를 트레이닝 받은 Keras 모델을 통해 입력받은 Hand Gesture을 분류하는 연구를 진행하였다. Depth Camera를 통하여 입력받은 Hand Gesture Raw-Data를 Image로 재구성하여 딥러닝을 진행하였다.

제스처 인식을 위한 은닉 마르코프 모델 (Hidden Markov Model for Gesture Recognition)

  • 박혜선;김은이;김항준
    • 전자공학회논문지CI
    • /
    • 제43권1호
    • /
    • pp.17-26
    • /
    • 2006
  • 본 논문에서는 은닉 마르코프 모델 (HMM: hidden Markov model)을 이용한 제스처 인식 방법을 제안하고, 이를 게임 시스템의 인터페이스로 적용한 사례를 소개한다. 제안된 방법은 다음의 두 가지 특징을 가진다. 첫 번째는 사전에 분할된 데이터 열을 입력으로 사용하는 기존의 방법과는 달리, 제안된 방법은 카메라로부터 입력되는 비디오 스트림을 HMM의 입력으로 사용한다는 것이다. 두 번째는 제안된 HMM은 제스처의 분할과 인식을 동시에 수행한다는 것이다. 제안된 방법에서 사용자의 제스처는 13개의 제스처들을 인식하는 13개의 specific-HMM들을 결합하는 하나의 통합된 HMM을 통해 인식된다. 제안된 HMM은 사용자의 머리와 양손의 2D-위치 좌표로 구성된 포즈 심볼들의 열을 입력받는다. 그리고 새로운 포즈가 입력될 때마다, HMM의 상태 확률 값을 갱신한다. 그때, 만약 특정 상태의 확률 값이 미리 정해둔 임계치보다 큰 경우, 그 특정 상태를 포함하고 있는 제스처로 인식한다 제안된 방법의 정당성을 입증하기 위하여, 제안된 방법은 Quake II라는 컴퓨터 게임에 적용되었다. 실험결과는 제안된 방법이 높은 인식 정확률과, 계산 시간을 확연하게 감소시킬 수 있었음을 보여주었다.

연속 영상에서의 얼굴표정 및 제스처 인식 (Recognizing Human Facial Expressions and Gesture from Image Sequence)

  • 한영환;홍승홍
    • 대한의용생체공학회:의공학회지
    • /
    • 제20권4호
    • /
    • pp.419-425
    • /
    • 1999
  • 본 논문에서는 흑백 동영상을 사용하여 얼굴 표정 및 제스처를 실시간으로 인식하는 시스템을 개발하였다. 얼굴 인식분야에서는 형판 정합법과 얼굴의 기하학적 고찰에 의한 사전지식을 바탕으로 한 방법을 혼합하여 사용하였다. 혼합 방법에 의해 입력영상에서 얼굴 부위만을 제한하였으며, 이 영역에 옵티컬 플로우를 적용하여 얼굴 표정을 인식하였다. 제스처 인식에서는 엔트로피를 분석하여 복잡한 배경영상으로부터 손 영역을 분리하는 방법을 제안하였으며 , 이 방법을 개선하여 손동작에 대한 제스처를 인식하였다. 실험 결과, 입력 영상의 배경에 크게 영향을 받지 않고서도 동일 영상에서 움직임이 큰 부위를 검출하여 얼굴의 표정 및 손 제스처를 실시간적으로 인식할 수 있었다.

  • PDF

적외선 근접센서 기반 제스처 센싱기술 동향 (State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor)

  • 석정희;전영득;여준기
    • 전자통신동향분석
    • /
    • 제30권6호
    • /
    • pp.31-41
    • /
    • 2015
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고 활용하며, 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF

Kinect 센서를 활용한 제스처 수화인식 시스템

  • 오동식;신민호
    • 정보처리학회지
    • /
    • 제20권3호
    • /
    • pp.45-49
    • /
    • 2013
  • 현재 전 세계 적으로 미래 수익 사업의 일환으로 각광받고 있는 분야 중 하나는 GUS(guestures user interface) 이다. GUS는 키넥트 장비가 도입된 이후 빠르게 발전하여 의학, 로봇, 유통 분야로 까지 융합되고 있으며, 오랫동안 PC의 입력장치로 활용되어 온 마우스의 차세대 대용 입력장치로 서서히 두각을 나타내고 있다 본 연구주제는 GUS의 한 방식인 키넥트를 활용하여 장애인과 비장애인과의 소통을 원활하게 할 수 있는 키넥트 센서를 활용하여 제스처 한국형 수화인식 시스템을 연구개발 하는데 있다.

  • PDF

스마트폰 시장동향 - 적외선 근접센서 기반 제스처 센싱기술 동향 (State-of-the-Art on Gesture Sensing Technology Based on Infrared Proximity Sensor)

  • 석정희;전영득;여준기
    • 광학세계
    • /
    • 통권161호
    • /
    • pp.58-73
    • /
    • 2016
  • 사람은 User Interface(UI)를 통해 기기와 접촉하고, 활용하며 서비스를 제공받는다. 대부분의 입력 도구들은 사용자의 접촉을 필요로 하기 때문에 기기에 접촉이 불가능한 상황에서는 사용자의 의도를 기기에 전달하기 어렵다. 본고에서는 접촉 없이 사용자의 입력을 가능하게 하는 기술 중 적외선 근접센서에 기반을 둔 제스처 센싱기술을 소개한다.

  • PDF