• 제목/요약/키워드: gesture detection

검색결과 95건 처리시간 0.022초

운동 축적 트랙킹 기반 손 동작 인식 (Hand Gesture Detection based on Motion History Tracking)

  • 김미나;김만배
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 추계학술대회
    • /
    • pp.146-147
    • /
    • 2016
  • 손동작 인식은 대부분 스킨 컬러 검출을 이용하였다. 하지만 이와 같은 방법으로는 빛이나 주변 사물에 의해 영향을 많이 받기 때문에 정확한 값을 일정하게 도출 해낼 수 없었다. 이에 본 논문은 운동축적 기법을 이용하여 움직임을 파악한 후 손의 움직임을 트랙킹하여 운동 방향을 구한다. 제안된 시스템은 C/C++을 기반으로 구현하여, 실험에서 제안 방법이 안정적이고 우수한 성능을 보여줌을 증명하였다.

  • PDF

모바일 로봇을 위한 저해상도 영상에서의 원거리 얼굴 검출 (Detection of Faces Located at a Long Range with Low-resolution Input Images for Mobile Robots)

  • 김도형;윤우한;조영조;이재연
    • 로봇학회논문지
    • /
    • 제4권4호
    • /
    • pp.257-264
    • /
    • 2009
  • This paper proposes a novel face detection method that finds tiny faces located at a long range even with low-resolution input images captured by a mobile robot. The proposed approach can locate extremely small-sized face regions of $12{\times}12$ pixels. We solve a tiny face detection problem by organizing a system that consists of multiple detectors including a mean-shift color tracker, short- and long-rage face detectors, and an omega shape detector. The proposed method adopts the long-range face detector that is well trained enough to detect tiny faces at a long range, and limiting its operation to only within a search region that is automatically determined by the mean-shift color tracker and the omega shape detector. By focusing on limiting the face search region as much as possible, the proposed method can accurately detect tiny faces at a long distance even with a low-resolution image, and decrease false positives sharply. According to the experimental results on realistic databases, the performance of the proposed approach is at a sufficiently practical level for various robot applications such as face recognition of non-cooperative users, human-following, and gesture recognition for long-range interaction.

  • PDF

정밀하지 않은 깊이정보와 2D움직임 정보를 이용한 사용자 검출과 주요 신체부위 추정 (User Detection and Main Body Parts Estimation using Inaccurate Depth Information and 2D Motion Information)

  • 이재원;홍성훈
    • 방송공학회논문지
    • /
    • 제17권4호
    • /
    • pp.611-624
    • /
    • 2012
  • '제스처'는 음성을 제외한 가장 직관적인 인간의 의사표현 수단이다. 따라서 키보드나 마우스를 대체하여 제스처를 입력으로 컴퓨터를 제어할 수 있는 방법에 대한 연구가 많이 진행되고 있다. 이러한 연구에서 사용자 객체의 검출과 주요 신체부위의 추정은 매우 중요한 과정 중의 하나이다. 본 논문에서는 깊이정보가 부정확한 조건에서 사용자 객체검출과 주요 신체부위를 추정하는 방법을 제시한다. 본 논문에서는 2D 영상정보와 3D 깊이정보를 이용하여 조명 변화와 잡음에 강인하고, 3D 깊이정보를 1D 신호로 변환하여 처리함으로써 실시간에 적합하며, 이전 객체정보를 이용하여 더욱 정확하고 환경변화에 강인한 사용자 검출 방법을 제안한다. 또한 주요 신체부위 추정 방법에서 본 논문에서는 2D 외곽선 정보와 3D 깊이정보 및 추적을 혼합 사용하여 사용자 자세를 추정하는 방법을 제안한다. 실험결과 제안된 사용자 객체 검출방법은 2D정보만을 이용하는 방법에 비해 조명변화와 복잡한 환경에 강인하고, 깊이정보가 부정확한 경우에도 정확한 객체검출을 수행하였다. 또한 제안된 주요 신체부위 추정방법은 2D 외곽선 정보만 이용할 경우 겹친 부분에 대한 검출이 불가능하고, 색상 정보를 사용하는 방법은 조명이나 환경에 민감한 단점을 극복함을 확인할 수 있다.

중력에 기반한 자연스러운 사용자 인터페이스 (Natural User Interface with Self-righting Feature using Gravity)

  • 김승찬;임종관;안드레아 뱐키;구성용;권동수
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.384-389
    • /
    • 2009
  • 일반적으로 사용자의 동작 정보는 human-computer interaction 에 유용하게 사용되는데, 이때 사용자의 의도 파악은 주로 움직임의 가속도 정보를 통해 분석된다. 그러나 일반적인 사람의 움직임은 등속 운동 및 미미한 가속도를 수반하는 경우가 많아 기존의 접근 방식으로는 사용자의 모든 움직임을 검출하기 어려운 단점이 있으며, 경우에 따라서는 부자연스러운 움직임을 유발시키기도 한다. 본 논문에서는 이러한 문제를 해결하기 위해 자연스러운 interaction 을 위한 새로운 인터페이스 방식을 제안하고 이의 활용방안에 대해 논의한다. 제안된 시스템은 중력을 기구부의 복원력으로 활용하여, 초기화와 같은 가속도계 기반의 IMU 의 공통적인 문제를 해결하고 또한 비교적 간단한 움직임으로도 다양한 신호 패턴을 생성시킬 수 있도록 하는 것에 그 목적을 둔다.

  • PDF

Vision- Based Finger Spelling Recognition for Korean Sign Language

  • Park Jun;Lee Dae-hyun
    • 한국멀티미디어학회논문지
    • /
    • 제8권6호
    • /
    • pp.768-775
    • /
    • 2005
  • For sign languages are main communication means among hearing-impaired people, there are communication difficulties between speaking-oriented people and sign-language-oriented people. Automated sign-language recognition may resolve these communication problems. In sign languages, finger spelling is used to spell names and words that are not listed in the dictionary. There have been research activities for gesture and posture recognition using glove-based devices. However, these devices are often expensive, cumbersome, and inadequate for recognizing elaborate finger spelling. Use of colored patches or gloves also cause uneasiness. In this paper, a vision-based finger spelling recognition system is introduced. In our method, captured hand region images were separated from the background using a skin detection algorithm assuming that there are no skin-colored objects in the background. Then, hand postures were recognized using a two-dimensional grid analysis method. Our recognition system is not sensitive to the size or the rotation of the input posture images. By optimizing the weights of the posture features using a genetic algorithm, our system achieved high accuracy that matches other systems using devices or colored gloves. We applied our posture recognition system for detecting Korean Sign Language, achieving better than $93\%$ accuracy.

  • PDF

HAND GESTURE INTERFACE FOR WEARABLE PC

  • Nishihara, Isao;Nakano, Shizuo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.664-667
    • /
    • 2009
  • There is strong demand to create wearable PC systems that can support the user outdoors. When we are outdoors, our movement makes it impossible to use traditional input devices such as keyboards and mice. We propose a hand gesture interface based on image processing to operate wearable PCs. The semi-transparent PC screen is displayed on the head mount display (HMD), and the user makes hand gestures to select icons on the screen. The user's hand is extracted from the images captured by a color camera mounted above the HMD. Since skin color can vary widely due to outdoor lighting effects, a key problem is accurately discrimination the hand from the background. The proposed method does not assume any fixed skin color space. First, the image is divided into blocks and blocks with similar average color are linked. Contiguous regions are then subjected to hand recognition. Blocks on the edges of the hand region are subdivided for more accurate finger discrimination. A change in hand shape is recognized as hand movement. Our current input interface associates a hand grasp with a mouse click. Tests on a prototype system confirm that the proposed method recognizes hand gestures accurately at high speed. We intend to develop a wider range of recognizable gestures.

  • PDF

Hand Language Translation Using Kinect

  • Pyo, Junghwan;Kang, Namhyuk;Bang, Jiwon;Jeong, Yongjin
    • 전기전자학회논문지
    • /
    • 제18권2호
    • /
    • pp.291-297
    • /
    • 2014
  • Since hand gesture recognition was realized thanks to improved image processing algorithms, sign language translation has been a critical issue for the hearing-impaired. In this paper, we extract human hand figures from a real time image stream and detect gestures in order to figure out which kind of hand language it means. We used depth-color calibrated image from the Kinect to extract human hands and made a decision tree in order to recognize the hand gesture. The decision tree contains information such as number of fingers, contours, and the hand's position inside a uniform sized image. We succeeded in recognizing 'Hangul', the Korean alphabet, with a recognizing rate of 98.16%. The average execution time per letter of the system was about 76.5msec, a reasonable speed considering hand language translation is based on almost still images. We expect that this research will help communication between the hearing-impaired and other people who don't know hand language.

영상처리 기반의 운전자 중심 정보처리 기술 개발 (A Driving Information Centric Information Processing Technology Development Based on Image Processing)

  • 양승훈;홍광수;김병규
    • 융합보안논문지
    • /
    • 제12권6호
    • /
    • pp.31-37
    • /
    • 2012
  • 오늘날 자동차 기술의 핵심은 IT 기반 융합 시스템기술로 변화하고 있다. 다양한 IT 기술을 접목하여 운전 중 다양한 상황에 대응하고 또한 운전자의 편의성을 지원하는 기술적 추세를 보이고 있다. 본 논문에서는 운전자의 안전성과 편의성을 증대하기 위해 영상 정보를 기반으로 도로 정보를 검출해 운전자에게 알려주고, 버튼을 직접 손으로 눌러야 하는 물리적 인터페이스를 대체할 비접촉식 인터페이스 기술을 융합한 Augmented Driving System (ADS) 기술을 제안한다. 본 기술은 카메라로부터 입력 받은 영상 정보를 제안된 알고리즘을 통해 앞차와의 거리, 차선, 교통 표지판을 검출하고 차량 내부를 주시하는 카메라와 운전자의 음성을 인식할 마이크를 기반으로 기본 음성인식과 동작인식이 융합된 인터페이스 기술을 제공한다. 이러한 요소 기술들은 운전자가 인지하지 못하더라도 운전자에게 현재의 주행상황을 인지하여 자동으로 알려줌으로써 교통사고 확률을 크게 낮출 수 있을 것이며, 또한 다양한 운전 중 기능 조작을 편리하게 지원함으로써 운전자의 전방 주시에 도움을 줄 수 있다. 본 논문에서 개발된 기술을 통해 테스트를 실시해 본 결과 표지판인식, 차선검출, 앞차와의 거리 검출 등의 인식률이 약 90% 이상이 되었다.

Design of Image Extraction Hardware for Hand Gesture Vision Recognition

  • Lee, Chang-Yong;Kwon, So-Young;Kim, Young-Hyung;Lee, Yong-Hwan
    • 한국정보기술학회 영문논문지
    • /
    • 제10권1호
    • /
    • pp.71-83
    • /
    • 2020
  • In this paper, we propose a system that can detect the shape of a hand at high speed using an FPGA. The hand-shape detection system is designed using Verilog HDL, a hardware language that can process in parallel instead of sequentially running C++ because real-time processing is important. There are several methods for hand gesture recognition, but the image processing method is used. Since the human eye is sensitive to brightness, the YCbCr color model was selected among various color expression methods to obtain a result that is less affected by lighting. For the CbCr elements, only the components corresponding to the skin color are filtered out from the input image by utilizing the restriction conditions. In order to increase the speed of object recognition, a median filter that removes noise present in the input image is used, and this filter is designed to allow comparison of values and extraction of intermediate values at the same time to reduce the amount of computation. For parallel processing, it is designed to locate the centerline of the hand during scanning and sorting the stored data. The line with the highest count is selected as the center line of the hand, and the size of the hand is determined based on the count, and the hand and arm parts are separated. The designed hardware circuit satisfied the target operating frequency and the number of gates.

표정분석을 위한 얼굴 구성 요소 검출 (Detection of Face-element for Facial Analysis)

  • 이철희;문성룡
    • 전자공학회논문지CI
    • /
    • 제41권2호
    • /
    • pp.131-136
    • /
    • 2004
  • 미디어의 발달에 따라 다양한 정보가 미디어에 실리게 되는데 이중에서 표정은 흥미있는 정보중에 하나이다. 표정에는 인간 내면의 의중이 포함되어 있기 때문이다. 내면의 상태는 표정 뿐만 아니라 제스처로 나타나기도 하지만 중요도는 표정이 높다고 할 수 있다. 이 표정은 임의로 조작할 수도 있지만 대체로 내면의 의중을 포함한다. 또한 표정은 사람마다 독특한 개성을 가지고 있지만 대체로 일정 구분 가능한 공통점 또한 가지고 있다. 본 논문에서는 USB CCD 카메라 환경의 동영상에서 표정을 분석하기 위해서 얼굴의 구성 요소를 검출 하고자 한다. 얼굴 구성요소에는 사람마다의 공통적인 표정 변화에 따른 특징점이 분포하기 때문이다. 구성 요소 검출을 위해서 먼저 동영상에서 한 프레임을 캡처하여 얼굴의 위치를 파악하고 얼굴영역을 분리한 다음 특징 점을 검출하게 된다.