• Title/Summary/Keyword: 손동작 기반

Search Result 126, Processing Time 0.026 seconds

Effective Hand Region Detection for Natural Augmented Reality Interface (자연스러운 증강현실 인터페이스를 위한 효과적인 손 검출)

  • Choi, Jun-Yeong;Han, Jae-Hyek;Seo, Byung-Kuk;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.367-370
    • /
    • 2009
  • 증강현실에서 자연스럽고 인간 친화적인 인터페이스로는 비전 기반의 손동작을 이용한 인터페이스가 가장 각광받고 있다. 그러나 복잡한 배경에서 손을 찾고 손동작을 인식하는 것은 여전히 어려운 문제로 남아 있다. 특히, 배경에 살색을 가진 물체가 많이 있다면 이 문제는 더욱 해결하기 어려워진다. 이 논문은 손 영역을 정확하게 검출 하는 방법에 초점이 맞춰져 있으며, 효과적인 방법을 제안한다. 제안하는 방법은 기본적으로 손과 팔을 포함하는 영역이 다른 피부색 영역과 다른 밝기를 가지고 있다고 가정한다. 구체적으로 제안하는 방법은 밝기 차이를 이용하여 피부색 영역으로부터 손과 팔을 포함하는 영역을 검출한다. 본 논문에서는 밝기 차이를 구분하는 방법으로 �o지(edge) 영상을 이용한다. 그 다음 손과 팔의 기하학적 특징을 이용하여 손목을 찾고 손을 포함하는 사각형 영역을 검출한다. 마지막으로 사각형 영역으로부터 손을 찾아낸다. 손을 찾는 방법 또한 약간 다르지만 비슷한 밝기 기반의 추출 방법을 사용한다. 우리는 간단한 손동작 기반의 증강현실 인터페이스를 구현함으로써 제안한 방법의 효용성을 검증한다.

  • PDF

Hand Motion Design for Performance Enhancement of Vision Based Hand Signal Recognizer (영상기반의 안정적 수신호 인식기를 위한 손동작 패턴 설계 방법)

  • Shon, Su-Won;Beh, Joung-Hoon;Yang, Cheol-Jong;Wang, Han;Ko, Han-Seok
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.4
    • /
    • pp.30-37
    • /
    • 2011
  • This paper proposes a language set of hand motions for enhancing the performance of vision-based hand signal recognizer. Based on the statistical analysis of the angular tendency of hand movements in sign language and the hand motions in practical use, we construct four motion primitives as building blocks for basic hand motions. By combining these motion primitives, we design a discernable 'fundamental hand motion set' toward increasing the hand signal recognition. To demonstrate the validity of proposed designing method, we develop a 'fundamental hand motion set' recognizer based on hidden Markov model (HMM). The recognition system showed 99.01% recognition rate on the proposed language set. This result validates that the proposed language set enhances discernaility among the hand motions such that the performance of hand signal recognizer is improved.

Design and Implementation of Hand Gesture Recognizer Based on Artificial Neural Network (인공신경망 기반 손동작 인식기의 설계 및 구현)

  • Kim, Minwoo;Jeong, Woojae;Cho, Jaechan;Jung, Yunho
    • Journal of Advanced Navigation Technology
    • /
    • v.22 no.6
    • /
    • pp.675-680
    • /
    • 2018
  • In this paper, we propose a hand gesture recognizer using restricted coulomb energy (RCE) neural network, and present hardware implementation results for real-time learning and recognition. Since RCE-NN has a flexible network architecture and real-time learning process with low complexity, it is suitable for hand recognition applications. The 3D number dataset was created using an FPGA-based test platform and the designed hand gesture recognizer showed 98.8% recognition accuracy for the 3D number dataset. The proposed hand gesture recognizer is implemented in Intel-Altera cyclone IV FPGA and confirmed that it can be implemented with 26,702 logic elements and 258Kbit memory. In addition, real-time learning and recognition verification were performed at an operating frequency of 70MHz.

Virtual Fitting Development Based on Hand Gesture Recognition (손동작 인식 기반 Virtual Fitting 개발)

  • Kim, Seung-Yeon;Yu, Min-Ji;Jo, Ha-Jung;Jung, Seung-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.596-598
    • /
    • 2019
  • 손동작 인식을 기반으로 한 Virtual fitting 시스템은 Kinect Sensor 를 사용하여 자연스러운 Fitting 을 구현할 수 있다. Kinect Sensor 를 이용한 Pose estimation, Gesture recognition, Virtual fitting 을 구현함으로써 가상으로 의복을 착용하는 소프트웨어를 소개한다.

Home device control using hand motion recognition for the disabled (장애인을 위한 손 동작 인식을 이용한 홈 디바이스 제어)

  • Lee, Se-Hoon;Im, So-Jung;Kim, Hyun-A
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.259-260
    • /
    • 2019
  • 장애인은 비장애인보다 극한 상황에 쉽게 노출될 수 있어 큰 주의가 필요하다. 본 논문에서는 OpenCV 라이브러리를 기반으로한 손동작 인식 시스템을 제안한다. 장애인을 비롯한 몸이 불편한 사람들이 간단한 동작만으로 집 안의 모듈을 제어할 수 있도록 시스템을 구현하였다. OpenCV 라이브러리를 기반으로 카메라 촬영을 통해 손동작을 인식하여 물체를 제어하는 시스템을 설계하였다.

  • PDF

Service Robot for the Game of Paper, Stone and Scissors Based on Image Processing (영상 처리 기반의 가위 바위 보 게임 로봇)

  • Ahn, Ho-Seok;Sa, In-Kyu;Baek, Young-Min;Ahn, Youn-Seok;Choi, Jin-Young
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.327-328
    • /
    • 2008
  • 로봇과 상호 작용하기 위한 수단으로 손동작 인식 시스템이 많이 사용되고 있으며, 본 논문에서는 손에 부가적인 장치를 장착하지 않은 상태에서 영상 처리를 이용하여 손동작을 인식하는 시스템을 구현하였다. 먼저 로봇은 영상 입력 장치로써 웹캠을 사용하고, 손 영상을 스킨 컬러를 바탕으로 영상 처리를 하여 추출해내고, 그 이미지를 분석하여 그 모양이 가위인지 바위인지 보인지 인식한다. 가위 바위 보 게임을 위하여 로봇이 손동작을 표현할 수 있도록 손가락이 네 개인 손을 설계 및 구현하였다. 이때, 기존의 와이어 방식이 아닌 제어를 이용한 손가락을 설계하였고, 각각의 손가락이 독립적으로 제어될 수 있기 때문에 가위 바위 보의 손동작을 표현할 수 있다. 그리고 음성 인식을 이용하여 사람과 동시에 가위 바위 보 중 하나를 결정한 후 표현하기 때문에 가위 바위 보 게임이 가능하다. 뿐만 아니라 로봇이 승패도 알 수 있다.

  • PDF

Motion-based Hangul Input Method on Touch Screen (터치 화면 상에서의 손동작 기반 한글 입력 방법)

  • Kim, Min-Ho;Kim, Doo-Hwan;Kim, Do-Kyeong;Park, Hyung-Soon;Park, So-Yeong;Choi, Yoon-Seung;Kang, Seung-Shik
    • Annual Conference on Human and Language Technology
    • /
    • 2015.10a
    • /
    • pp.169-173
    • /
    • 2015
  • 현재 스마트폰이나 태블릿PC 등의 터치화면 상에서 사용되는 한글 입력 방식은 qwerty, 나랏글, 천지인 등 시각 정보를 기반으로 만들어진 가상 키보드들이 사용되고 있다. 이는 시각에 문제가 없는 일반인 사용자에게는 효율적인 방식이지만 시각 장애인(시력장애, 시야 결손장애)들에게는 불편한 점이 있다. 이 문제를 개선하기 위하여 터치화면 상에서 손동작을 기반으로 한 한글 입력 방식을 제안한다. 이 방식은 사용자가 직접 기준 위치를 정하여 사용하므로 시각 정보가 제한된 상황에서도 입력할 수 있다. 또한, 이 방식은 사용자가 쉽게 배울 수 있도록 설계되었다. 모음 입력은 사용자가 쉽게 연상 되는 동작에 할당하였고, 자음 입력은 빈도수를 고려하여 자주 사용되는 자음은 편하게 움직일 수 있는 검지와 중지의 움직임에 주로 할당하였다.

  • PDF

Implementation of hand motion recognition-based rock-paper-scissors game using ResNet50 transfer learning (ResNet50 전이학습을 활용한 손동작 인식 기반 가위바위보 게임 구현)

  • Park, Changjoon;Kim, Changki;Son, Seongkyu;Lee, Kyoungjin;Yoo, Heekyung;Gwak, Jeonghwan
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.77-82
    • /
    • 2022
  • GUI(Graphical User Interface)를 대신하는 차세대 인터페이스로서 NUI(Natural User Interace)에 기대가 모이는 것은 자연스러운 흐름이다. 본 연구는 NUI의 손가락 관절을 포함한 손동작 전체를 인식시키기 위해 웹캠과 카메라를 활용하여 다양한 배경과 각도의 손동작 데이터를 수집한다. 수집된 데이터는 전처리를 거쳐 데이터셋을 구축하며, ResNet50 모델을 활용하여 전이학습한 합성곱 신경망(Convolutional Neural Network) 알고리즘 분류기를 설계한다. 구축한 데이터셋을 입력시켜 분류학습 및 예측을 진행하며, 실시간 영상에서 인식되는 손동작을 설계한 모델에 입력시켜 나온 결과를 통해 가위바위보 게임을 구현한다.

  • PDF

A Personalized Hand Gesture Recognition System using Soft Computing Techniques (소프트 컴퓨팅 기법을 이용한 개인화된 손동작 인식 시스템)

  • Jeon, Moon-Jin;Do, Jun-Hyeong;Lee, Sang-Wan;Park, Kwang-Hyun;Bien, Zeung-Nam
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.18 no.1
    • /
    • pp.53-59
    • /
    • 2008
  • Recently, vision-based hand gesture recognition techniques have been developed for assisting elderly and disabled people to control home appliances. Frequently occurred problems which lower the hand gesture recognition rate are due to the inter-person variation and intra-person variation. The recognition difficulty caused by inter-person variation can be handled by using user dependent model and model selection technique. And the recognition difficulty caused by intra-person variation can be handled by using fuzzy logic. In this paper, we propose multivariate fuzzy decision tree learning and classification method for a hand motion recognition system for multiple users. When a user starts to use the system, the most appropriate recognition model is selected and used for the user.

Implementation of Hand-Gesture-Based Augmented Reality Interface on Mobile Phone (휴대폰 상에서의 손동작 기반 증강현실 인터페이스 구현)

  • Choi, Jun-Yeong;Park, Han-Hoon;Park, Jung-Sik;Park, Jong-Il
    • Journal of Broadcast Engineering
    • /
    • v.16 no.6
    • /
    • pp.941-950
    • /
    • 2011
  • With the recent advance in the performance of mobile phones, many effective interfaces for them have been proposed. This paper implements a hand-gesture-and-vision-based interface on a mobile phone. This paper assumes natural interaction scenario when user holds a mobile phone in a hand and sees the other hand's palm through mobile phone's camera. Then, a virtual object is rendered on his/her palm and reacts to hand and finger movements. Since the implemented interface is based on hand familiar to humans and does not require any additional sensors or markers, user freely interacts with the virtual object anytime and anywhere without any training. The implemented interface worked at 5 fps on mobile phone (Galaxy S2 having a dual-core processor).