• Title/Summary/Keyword: 손동작 기반

Search Result 126, Processing Time 0.027 seconds

Gesture-based User-Interface Through Hand-region Detection and Hand-movement Recognition (손영역 획득과 손동작 인식에 의한 제스처 기반 사용자 인터페이스의 구현)

  • Ko, Il-Ju;Bae, Young-Lae;Choi, Hyung-Il
    • Korean Journal of Cognitive Science
    • /
    • v.8 no.4
    • /
    • pp.35-53
    • /
    • 1997
  • 본 논문은 컴퓨터 시각을 이용하여 제스처를 인식함으로써 사용자에게 보다 편리한 인터페이스를 제공하는 것을 목표로 한다. 제안하는 제스처 인식 방법은 손영역을 획득하는 손영역 획득 모듈?손영역을 인식하는 인식 모듈로 나누어 수행한다. 손영역 획득 모듈에서는 손색상 모델?손색상 결정함수를 정의하여 칼라영상의 영역 분리를 수행하였고, 칼만필터를 이용하여 손색상 모델을 갱신하고 탐색영역을 제한하여 영역 추적을 용이하게 하였다. 영역 추적은 전 시점의 손영역 정보를 이용하여 현 시점의 손영역을 획득한다. 인식 모듈에서는 정적인 제스처를 표현하는 객체 프레임?행동 프레임, 그리고 동적인 제스처를 표현하는 스키마를 정의한다. 그리고 획득된 손영역?정합을 수행함으로써 제스처를 인식한다. 실험 결갬灌?제안하는 제스처 기반 인터페이스를 적용한 삼목(Tic-Tac-Toe) 게임 프로그램을 구현하였다. 사용자는 제스처를 이용하여 컴퓨터와 게임을 진행한다. 제안하는 시스템은 다른 종류의 게임 프로그램이나 마우스의 역할을 수행하는 윈도우 시스템의 제어, 그리고 가상 현실 시스템에 적용될 수 있다.

  • PDF

Developing User-friendly Hand Mouse Interface via Gesture Recognition (손 동작 인식을 통한 사용자에게 편리한 핸드마우스 인터페이스 구현)

  • Kang, Sung-Won;Kim, Chul-Joong;Sohn, Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.129-132
    • /
    • 2009
  • 컴퓨터의 소형화로 휴대성과 공간의 제약이 없는 컴퓨터 인터페이싱 방법의 필요성이 증가하고 있으며, 이와 관련하여 인간-컴퓨터 상호작용(HCI)을 위한 제스처 기반의 제어방식에 대한 연구가 활발하게 진행되고 있다. 기존의 손동작 인터페이스 구현들은 컴퓨터를 제어하기 위하여 사용방법에 대한 선행학습이 필요하였다. 이 논문은 사용자의 손 모양과 손끝 정보만을 가지고 선행학습이 요구되지 않는 간편한 인터페이스 구현방법을 제안하였다. 이를 위해 1대의 웹캠과 인텔의 오픈소스 영상처리 라이브러리 OpenCv를 사용하였다. 차영상과 화소값 기반의 영상처리과정을 통해 실시간으로 손 영역을 추적하고 이를 이진화 시켰다. 손가락의 움직임도 값이 변하지 않도록 중심모멘트를 설정하여 마우스 커서 움직임을 상대적으로 활용하였다. 상황에 따라 손 끝점을 절대적 좌표로 활용하여 손이 웹캠에서 벋어날 때 움직임을 자연스럽게 연결시켰다. 마지막으로 검지의 움직임 하나 만으로 마우스 클릭 이벤트를 수행함으로써 보다 사용자에게 친숙한 핸드마우스 인터페이스를 구현하였다.

  • PDF

Immersive Electronic Cooking System on Table Top Display (테이블 탑 디스플레이 기반 실감형 전자 요리 시스템)

  • Jang, Han-Byul;Kim, Song-Gook;Kim, Jang-Woon;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.561-566
    • /
    • 2007
  • 본 논문에서는 실감형 요리 시스템의 제작에 대하여 기술한다. 실감형 요리 시스템은 요리를 만드는 과정을 컴퓨터를 이용해 가상적으로 체험해 볼 수 있게 한다. 증강현실 기술을 이용, 모의부엌에서 요리 재료 카드를 인식함으로써 요리재료를 요리 용기에 투입하고 투입된 요리 재료는 증강현실 부엌에 나타나게 된다. 또한 멀티 터치가 가능한 지능형 인터페이스 플랫폼인 테이블 탑 디스플레이를 기반으로 증강현실 오브젝트와 사용자가 서로 상호작용할 수 있도록 한다. 테이블 탑 디스플레이에서의 터치와 hand gesture를 인식하여 맨손의 손동작에 의해 상호작용을 구현한다. 이 시스템은 특히 어린이들을 대상으로 하여 실감나는 요리 체험을 할 수 있으며, 요리 과정을 보다 효과적으로 학습하는데 활용될 수 있다.

  • PDF

Wearless IoT Device Controller based on Deep Neural Network and Hand Tracking (딥 뉴럴 네트워크 및 손 추적 기반의 웨어리스 IoT 장치 컨트롤러)

  • Choi, Seung-June;Kim, Eun-Yeol;Kim, Jung-Hwa;Hwang, Chae-Eun;Choi, Tae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.924-927
    • /
    • 2018
  • 본 논문에서는 거동이 불편한 환자나 장애인들을 위해 신체에 착용하는 부가적인 장비 없이 멀리 있는 가전을 직접 움직이지 않고 편리하게 제어할 수 있는 RGB-D 카메라를 활용한 손 인식과 딥러닝 기반 IoT 장치 컨트롤 시스템을 제안한다. 특히, 제어하고자 하는 장치의 위치를 알기 위하여 YOLO 알고리즘을 이용하여 장치를 인식한다. 또한 그와 동시에 RGB-D 카메라의 라이브러리를 이용하여 사용자의 손을 인식, 현재 사용자 손의 위치와 사용자가 취하는 손동작을 통하여 해당 위치의 장치를 제어한다.

Apparel recommendation service based on image recognition over virtual fitting machine (영상처리 기술을 활용한 가상 피팅기와 머신 러닝 기술을 기반으로 한 옷 추천 서비스)

  • Kim, Nam-Hoon;Kim, Dong-Gyun;Jung, Jae-Jin;Cha, Jae-Sung;Kim, Woongsup
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.786-789
    • /
    • 2018
  • 우리는 가상 현실 환경에서 사람이 직접 옷을 입지 않은 상황에서 미리 피팅 상황을 확인할 수 있는 시스템을 구현하였다. 이를 위하여 우리는 시스템을 이용한 카메라 촬영과 결과를 출력하는 기능, 그리고 영상처리에서 사람 얼굴 인지, 및 그에 대한 내용을 기반으로 옷을 오버레이하는 기능을 구현하였다. 추가 기능으로는 사람 손동작 인지를 통한 커맨드 제어, 딥러닝을 이용하여 사람의 얼굴에 어울리는 옷을 추천해주는 추천 서비스를 구현하였다.

Development of Hand Gesture Recognition Technic based on Image's Skin Color Information (컬러 영상의 스킨컬러 정보 값 기반 손 제스처 인식 기술 개발)

  • Shin, Na-Ra;Heo, Bum-Geun;Hong, Ki-Cheon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.484-489
    • /
    • 2010
  • 본 논문에서는 인간의 신체 중 가장 편리하고 자주 사용되는 손을 인식하여 기계와 사람의 상호작용이 가능하게 하여 보다 편리한 기계의 사용이 이루어질 수 있도록 손인식을 통한 마우스제어 방법을제시하였다. CCD웹캠으로 받은 영상에서 스킨컬러 값을 기반으로 손영역을 추출하여 손동작을 인식하는 알고리즘을 제안한다. 본 논문의 알고리즘의 장점은 손의 추출과 손가락 개수 파악이 저 사항의 환경에서도 빠르게 영상처리가 가능하다는 것이다. 이러한 장점을 이용하여 실생활에 적용, 기계와 더 편리한 커뮤니케이션의 방안을 제시한다.

  • PDF

Virtual Music System that use Touch-Face (Touch-Face기반의 가상 악기 시스템)

  • Song, Dae-Hyeon;Park, Jae-Woan;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.05a
    • /
    • pp.166-168
    • /
    • 2008
  • 본 논문에서는 가상 악기 시스템의 제작에 대하여 기술한다. 가상 악기 시스템은 (이하 VMS라 칭한다.) 가상의 악기를 연주하는 것을 컴퓨터를 이용하여 체험해 볼 수 있게 한다. 또한 멀티 터치가 가능한 지능형 인터페이스 플랫폼인 Touch-Face를 기반으로 동시의 여러 사용자가 악기를 연주 할 수 있도록 한다. Touch-Face에서의 터치를 인식하여 맨손의 손동작에 의해 상호작용을 구현한다. 이 시스템은 특히 별도의 디바이스나 콘솔을 필요로 하지 않고 시스템 내에 가이드창이 있어 사용자로 하여금 쉽게 따라 할 수 있게 하고, 어린이들을 대상으로 하여 실감나는 연주 체험을 할 수 있으며, 악기를 다루는데 보다 경제적이고 효율적으로 학습하는데 활용될 수 있다.

Hand Motion Signal Extraction Based on Electric Field Sensors Using PLN Spectrum Analysis (PLN 성분 분석을 통한 전기장센서 기반 손동작신호 추출)

  • Jeong, Seonil;Kim, Youngchul
    • Smart Media Journal
    • /
    • v.9 no.4
    • /
    • pp.97-101
    • /
    • 2020
  • Using passive electric field sensor which operates in non-contact mode, we can measure the electric potential induced from the change of electric charges on a sensor caused by the movement of human body or hands. In this study, we propose a new method, which utilizes PLN induced to the sensor around the moving object, to detect one's hand movement and extract gesture frames from the detected signals. Signals from the EPS sensors include a large amount of power line noise usually existing in the places such as rooms or buildings. Using the fact that the PLN is shielded in part by human access to the sensor, signals caused by motion or hand movement are detected. PLN consists mainly of signals with frequency of 60 Hz and its harmonics. In our proposed method, signals only 120 Hz component in frequency domain are chosen selectively and exclusively utilized for detection of hand movement. We use FFT to measure a spectral-separated frequency signal. The signals obtained from sensors in this way are continued to be compared with the threshold preset in advance. Once motion signals are detected passing throng the threshold, we determine the motion frame based on period between the first threshold passing time and the last one. The motion detection rate of our proposed method was about 90% while the correct frame extraction rate was about 85%. The method like our method, which use PLN signal in order to extract useful data about motion movement from non-contact mode EPS sensors, has been rarely reported or published in recent. This research results can be expected to be useful especially in circumstance of having surrounding PLN.

A Controlled Study of Interactive Exhibit based on Gesture Image Recognition (제스처 영상 인식기반의 인터렉티브 전시용 제어기술 연구)

  • Cha, Jaesang;Kang, Joonsang;Rho, Jung-Kyu;Choi, Jungwon;Koo, Eunja
    • Journal of Satellite, Information and Communications
    • /
    • v.9 no.1
    • /
    • pp.1-5
    • /
    • 2014
  • Recently, building is rapidly develop more intelligently because of the development of industries. And people seek such as comfort, efficiency, and convenience in office environment and the living environment. Also, people were able to use a variety of devices. Smart TV and smart phones were distributed widely so interaction between devices and human has been increase the interest. A various method study for interaction but there are some discomfort and limitations using controller for interaction. In this paper, a user could be easily interaction and control LED through using Kinect and gesture(hand gestures) without controller. we designed interface which is control LED using the joint information of gesture obtained from Kinect. A user could be individually controlled LED through gestures (hand movements) using the implementation of the interface. We expected developed interface would be useful in LED control and various fields.

Design of Computer Vision Interface by Recognizing Hand Motion (손동작 인식에 의한 컴퓨터 비전 인터페이스 설계)

  • Yun, Jin-Hyun;Lee, Chong-Ho
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.47 no.3
    • /
    • pp.1-10
    • /
    • 2010
  • As various interfacing devices for computational machines are being developed, a new HCI method using hand motion input is introduced. This interface method is a vision-based approach using a single camera for detecting and tracking hand movements. In the previous researches, only a skin color is used for detecting and tracking hand location. However, in our design, skin color and shape information are collectively considered. Consequently, detection ability of a hand increased. we proposed primary orientation edge descriptor for getting an edge information. This method uses only one hand model. Therefore, we do not need training processing time. This system consists of a detecting part and a tracking part for efficient processing. In tracking part, the system is quite robust on the orientation of the hand. The system is applied to recognize a hand written number in script style using DNAC algorithm. Performance of the proposed algorithm reaches 82% recognition ratio in detecting hand region and 90% in recognizing a written number in script style.