• Title/Summary/Keyword: 손 제스처

검색결과 143건 처리시간 0.029초

딥러닝 기반 실시간 손 제스처 인식 (Real-Time Hand Gesture Recognition Based on Deep Learning)

  • 김규민;백중환
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.424-431
    • /
    • 2019
  • In this paper, we propose a real-time hand gesture recognition algorithm to eliminate the inconvenience of using hand controllers in VR applications. The user's 3D hand coordinate information is detected by leap motion sensor and then the coordinates are generated into two dimensional image. We classify hand gestures in real-time by learning the imaged 3D hand coordinate information through SSD(Single Shot multibox Detector) model which is one of CNN(Convolutional Neural Networks) models. We propose to use all 3 channels rather than only one channel. A sliding window technique is also proposed to recognize the gesture in real time when the user actually makes a gesture. An experiment was conducted to measure the recognition rate and learning performance of the proposed model. Our proposed model showed 99.88% recognition accuracy and showed higher usability than the existing algorithm.

Kinect를 이용한 손 제스처 인식과 EEG 변화 분석 연구 (The winner is determined by using the Kinect and measured changes in EEG)

  • 최정묵;김진;최재홍;이화민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1676-1679
    • /
    • 2013
  • 컴퓨터의 발달과 함께 입력 형태 또한 다양해졌다. 가령, Kinect는 움직이는 동작이나 원근거리, 그리고 소리까지 입력받을 수 있다. 이 연구는 Kinect를 통하여 손가락의 움직임을 입력받은 후, 그에 따른 게임의 결과를 출력한다. MindWave를 사용하여 EEG 데이터의 시각화를 통하여 사용자가 출력 내용을 이해하기 쉽게 구현하였다.

비접촉성 사용자 인터페이스를 통한 이동형 원격 영상 감시 시스템 (Remote Image Monitoring System with Mobility Using Touchless User Interface)

  • 주동훈;강도훈;김광수;임원태;이석호;문미경
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.478-481
    • /
    • 2013
  • a본 논문에서는 스마트폰에 내장된 카메라를 이용하여 원격지의 장면을 고해상도로 촬영한 영상을 실시간으로 감시할 수 있는 시스템을 제안한다. 이 시스템은 영상 촬영의 이동성을 주기 위해 다양한 가격과 종류로 출시되어 있는 무선조종자동차에 스마트폰을 탑재시킨다. 무선조종자동차의 원격 제어는 키넥트의 음성 및 제스처 인식 기능을 활용하여 비접촉성 제어입력이 가능하도록 사용자 인터페이스를 제공한다. 이 시스템은 손이나 몸짓이 불편한 환자 또는 작업 중인 작업자가 원격지의 영상을 보아야하는 경우 다양한 형태로 활용될 수 있을 것이다.

모션 인식을 이용한 수화 번역 웨어러블 기기 (Sign Language Translation Wearable Device Using Motion Recognition)

  • 이준영;강현수;김성준;손준호;유동준;박양우
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.453-454
    • /
    • 2023
  • 현재 선천적인 청각장애인이나 언어 장애가 있는 사람은 다른 사람과의 대화에 많은 불편을 겪고 있다. 매장을 이용하기 어려움은 물론 언어전달 능력이 떨어지기 때문에 간단한 의사소통을 통한 서로 간의 교류 또한 불편함을 감수해야 한다. 현재는 따로 디스플레이가 내장된 장치를 이용하여 지정된 장소에서 수화를 번역해야 하는 불편함을 해당 문제 해결을 위해 본 연구에서는 딥러닝을 적용하여 수화를 인식하고 번역하여 디스플레이에 텍스트를 출력해주는 시스템을 개발하였다. AI 프레임워크 MediaPipe와 SVM 알고리즘을 라즈베리파이에 적용하여 구현하였다. 개발한 시스템은 제스처에 대한 번역 결과를 제공한다. 기존의 지정된 장소가 아닌 대화가 필요한 모든 장소에서 번역이 가능하도록 개선하여 청각장애인과 언어장애가 있는 사람들과 소통의 불편함을 줄일 수 있을 것으로 기대할 수 있다.

  • PDF

RealBook: TouchFace-V 인터페이스 기반 실감형 전자책 (RealBook: A Tangible Electronic Book Based on the Interface of TouchFace-V)

  • 송대현;배기태;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제13권12호
    • /
    • pp.551-559
    • /
    • 2013
  • 본 논문에서는 사용자 중심의 제스처 인식과 직관적인 다중 터치가 가능한 TouchFace-V 인터페이스를 기반으로 제작된 실감형 전자책 RealBook시스템에 대하여 제안한다. 제안한 인터페이스는 기존 테이블탑 디스플레이의 단점으로 지적되는 제한적인 공간 활용 및 이동성 문제를 개선한 인터페이스로 테이블과 같이 평평한 곳이면 사용자가 언제 어디서나 자유롭게 간단한 설치 및 사용이 가능하다. 또한 영상 처리 기술 외에 별도의 센싱 기술을 사용하지 않고 손가락 다중 터치 기능 및 다양한 손 제스쳐 인식 기능을 구현했을 뿐만 아니라, 컴퓨터와 사용자간의 상호작용을 쉽고 자연스럽게 해주는 장점이 있다. 제안한 실감형 RealBook은 종이책의 아날로그적 감성과 디지털 전자책의 멀티미디어 효과를 접목시킨 전자책으로, 책에 있는 내용을 바탕으로 다양한 스토리를 구현하여 독자의 선택에 따라 각기 다른 스토리 진행이 가능하다. 독자들은 책 공간 안에서 다양한 상호작용을 통한 새로운 경험을 체험할 수 있다. 실험을 통해 제안한 시스템의 효율성을 입증하고 나아가 다중 터치 기술을 이용한 콘텐츠 시장이 발전할 수 있는 방안을 제시한다.

공중 손동작 인식을 위한 핸드 헬드형 기기의 설계 및 평가 (Design and Evaluation of a Hand-held Device for Recognizing Mid-air Hand Gestures)

  • 서경은;조현중
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권2호
    • /
    • pp.91-96
    • /
    • 2015
  • 본 논문에서는 원격디스플레이를 제어하기 위하여 공중에서 섬세한 손동작을 인식할 수 있는 핸드 헬드형 포인팅 디바이스인 AirPincher를 제안한다. AirPincher는 현재 존재하고 있는 손동작 인식 기술 중 장갑을 이용한 기술과 디스플레이 근처에 설치하는 카메라를 이용한 기술의 단점을 극복하기 위해 고안되었다. 장갑을 이용한 기술은 사용 시 매번 탈착을 해야 하는 불편함이 존재하고 설치형 카메라를 이용한 기술은 사용자와 원격 디스플레이 간의 거리에 따라 제스처 인식 효율이 상이한 단점이 있다. 이러한 단점을 극복하기 위하여 AirPincher는 사용자가 한 손으로 디바이스를 잡고 사용하도록 설계되었다. 손가락 동작은 AirPincher에 탑재되어있는 근접한 센서들에 의해 인식되어 섬세한 손가락 움직임을 인식할 수 있다. 본 논문에서는 AirPincher를 사용하는 두 가지 포인팅 방법을 제안하고 이들의 성능을 분석하기 위한 실험을 진행하였다. 실험은 AirPincher를 사용하기 위한 공중에서의 효율적인 가상 입력공간의 크기를 찾는 실험과 AirPincher를 사용한 연속 포인팅 방법과 불연속 포인팅 방법을 비교하는 실험으로 구성되었다.

증강현실 기반의 원격 3차원 디자인 협업 환경에 관한 연구 (Augmented Reality Based Remote 3D Collaborative Design Workspace)

  • 사공경;남택진
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.221-226
    • /
    • 2006
  • 원격 3차원 디자인 협업 환경이란 원거리에 있는 디자이너들이 3차원 모델을 함께 동시적으로 다루는 협업 환경으로서, 제품 개발 프로세스의 비용과 시간을 단축하는데 매우 중요한 역할을 한다. 그러나 이에 대한 연구는 아직 미비한 실정이며 기존의 연구들도 2차원 데스크탑 환경에 제한된 문제점이 있다. 따라서 본 연구는 새로운 협업 환경의 제안을 통해 지리적으로 떨어진 디자이너들간의 3D 모델에 관한 원활한 협업을 촉진하는 것을 목표로 한다. 본 연구에서 제안한 증강현실 기반의 원격 3차원 디자인 협업 환경은 3D 모델의 공유를 위한 회전 원반(turntable)과 상대의 위치 및 제스처 정보를 제공하는 가상 그림자(virtual shadows)로 구성된다. 동시적으로 회전하는 회전원반은 물리적인 매개체로서 가상물체와 실제 세계를 자연스럽게 연결하는 동시에 상대의 실재감을 높인다. 가상그림자는 가상물체 주위로 보여지는 사람들의 손과 팔의 움직임을 시각화하여 공유하는 것으로, 상대의 위치뿐 아니라 지시, 제스처 등 행동에 대한 인식이 지속적으로 이루어지게 한다. 프로토타입을 제작하고 사용자 평가 실험을 실시하여 3차원 모델을 검토하는 단계에 그 유용성이 있음을 확인하였다. 데스크탑 환경의 모델링 툴에 익숙한 사용자들은 실제 공간에서 가상물체를 조작할 수 있음에 긍정적인 반응을 보였고 회전원반과 가상그림자의 제공은 태스크 수행의 정확도를 높이며 협업을 촉진하는 결과를 보였다. 본 연구는 환경적 제약으로 원활하게 이루어지지 못했던 3D 모델에 관한 원격 협업에 의사소통의 장을 마련하고 이를 촉진시킨다는 점에서 그 의의가 있다. 본 환경에서 제시한 상대방과 협업대상물에 대한 심리적, 물리적 공유 감을 증대시키는 방법들은 3D 모델에 관한 디자인 협업에서 확장되어 다른 원격 협업을 지원하는 데도 적용될 수 있을 것이다.

  • PDF

HMM을 이용한 자연스러운 손동작 인식 (Recognition of Natural Hand Gesture by Using HMM)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제22권5호
    • /
    • pp.639-645
    • /
    • 2012
  • 본 논문에서는 모바일 로봇이 자연스러운 손동작을 은닉 마르코프 모델(HMM: hidden markov model)을 이용하여 인식해 원하는 명령을 수행하는 방법을 제안한다. 기존의 손동작 기반 로봇 제어 방식은 정해진 몇 종류의 제스처를 사용했었고, 따라서 지시동작이 자연스럽지 않았다. 또한 정해진 제스처를 미리 공부해야하여 불편했었다. 이러한 문제를 해결하기 위해 손동작을 인식하는 방법에 대한 많은 연구가 활발히 진행되고 있다. 본 논문에서는 3차원 카메라를 사용해 색상 데이터와 깊이 데이터를 얻어서, 사람의 손을 검색하고 그 동작을 인식한다. 여기서 동작을 인식하는 방법으로 HMM을 사용하였으며, 인식된 결과를 로봇에게 전달하여 원하는 방향으로 이동시킨다.

좌표 정보를 이용한 손동작 직선 8 방향 인식 알고리즘 (8-Straight Line Directions Recognition Algorithm for Hand Gestures Using Coordinate Information)

  • 섯드게럴;김용기;김미혜
    • 디지털융복합연구
    • /
    • 제13권9호
    • /
    • pp.259-267
    • /
    • 2015
  • 본 논문에서는 직선을 판별하는 판별방법과 또한 직선으로 판정되는 경우 직선의 8가지 방향에 대한 판정을 위하여 좌표정보와 삼각함수 성질을 이용하여 직선 8반향 알고리즘을 제안하였다. 본 실험은 각 동작 별로 100회씩 총 800회를 실험 하였으며, 본 논문에서 제안한 알고리즘을 통한 정확도는 왼쪽 위로의 대각선 방향이 92%로 가장 높았으며 왼쪽 방향, 오른쪽 위로의 대각선 방향과 오른쪽 아래로의 대각선 방향이 모두 82%로 가장 낮은 인식률을 나타내었다. 이 방법은 기존 방법과는 다르게 학습과정 없이 이미지 처리를 통해 얻은 좌표 정보만으로 손 제스처 인식이 가능하다는 것을 보여준다.

윈도우 제어를 위한 시각적 비접촉 사용자 인터페이스 (Visual Touchless User Interface for Window Manipulation)

  • 김진우;정경부;정승도;최병욱
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권6호
    • /
    • pp.471-478
    • /
    • 2009
  • 최근 다양한 3차원 콘텐츠 및 응용 프로그램의 개발되고, 컴퓨터 사용자 계층이 다양화됨으로 인하여 인터페이스에 대한 연구가 활발히 진행되고 있다. 본 연구는 사용자가 손을 이용하여 윈도우를 효율적으로 제어할 수 있도록 하는 것을 목적으로 한다. 기존 인터페이스에 관한 연구들은 고가의 장비를 사용하거나 복잡한 제스처 인식, 또는 부가적인 도구인 마커 등을 사용하는 문제가 있다. 이러한 단점을 개선하기 위하여 새로운 시각적 비접촉 인터페이스를 제안한다. 손을 사용하여 윈도우를 제어하기 위하여 HSV 색상공간을 이용하여 손 영역을 검출한다. 그리고 거리변환 행렬과 손 외곽선의 곡률을 이용하여 손의 중심과 손가락의 위치를 파악한다. 손의 중심과 손가락 위치를 이용하여 본 논문에서 제안하는 7가지의 제어 동작 중 사용자가 의도하는 동작을 파악하여 인터페이스로써 활용한다. 제안하는 인터페이스는 스테레오 카메라를 사용함으로써 사유자가 3차원 공간에서 거리감을 가지고 제어할 수 있도록 하였다. 그리고 간단한 손동작으로 제어하고자 하는 객체를 시각적으로 접촉할 수 있도록 함으로써 직관적인 제어가 가능하도록 하였다. 마지막으로 제안하는 인터페이스를 활용한 응용을 통해서 효율성을 확인한다.