• 제목/요약/키워드: Motion recognition technique

검색결과 60건 처리시간 0.028초

VR 환경을 고려한 동작 및 위치 인식에 관한 연구 (A Study on Motion and Position Recognition Considering VR Environments)

  • 오암석
    • 한국정보통신학회논문지
    • /
    • 제21권12호
    • /
    • pp.2365-2370
    • /
    • 2017
  • 본 논문에서는 체험형 VR 환경을 고려한 동작 및 위치 인식 기법을 제안한다. 동작 인식은 신체부위에 복수개의 AHRS 디바이스를 부착하고 이를 기준으로 좌표계를 정의한다. 각각의 AHRS 디바이스로부터 측정되는 9축 움직임 정보를 기반으로 사용자의 동작을 인식하고 신체 분절 간의 관절각을 추출하여 동작을 보정한다. 위치인식은 AHRS 디바이스의 관성센서를 통해 보행 정보를 추출하여 상대위치를 인식하고 BLE Fingerprint를 이용하여 누적오차를 보정한다. 제안하는 동작 및 위치인식 기법의 구현을 위해 AHRS기반의 위치인식과 관절각 추출 실험을 진행하였다. 위치 인식 실험의 평균 오차는 0.25m, 관절 각 추출 실험에서 관절 각 평균 오차는 $3.2^{\circ}$로 나타났다.

Recognition of Virtual Written Characters Based on Convolutional Neural Network

  • Leem, Seungmin;Kim, Sungyoung
    • Journal of Platform Technology
    • /
    • 제6권1호
    • /
    • pp.3-8
    • /
    • 2018
  • This paper proposes a technique for recognizing online handwritten cursive data obtained by tracing a motion trajectory while a user is in the 3D space based on a convolution neural network (CNN) algorithm. There is a difficulty in recognizing the virtual character input by the user in the 3D space because it includes both the character stroke and the movement stroke. In this paper, we divide syllable into consonant and vowel units by using labeling technique in addition to the result of localizing letter stroke and movement stroke in the previous study. The coordinate information of the separated consonants and vowels are converted into image data, and Korean handwriting recognition was performed using a convolutional neural network. After learning the neural network using 1,680 syllables written by five hand writers, the accuracy is calculated by using the new hand writers who did not participate in the writing of training data. The accuracy of phoneme-based recognition is 98.9% based on convolutional neural network. The proposed method has the advantage of drastically reducing learning data compared to syllable-based learning.

Image Processing for Video Images of Buoy Motion

  • Kim, Baeck-Oon;Cho, Hong-Yeon
    • Ocean Science Journal
    • /
    • 제40권4호
    • /
    • pp.213-220
    • /
    • 2005
  • In this paper, image processing technique that reduces video images of buoy motion to yield time series of image coordinates of buoy objects will be investigated. The buoy motion images are noisy due to time-varying brightness as well as non-uniform background illumination. The occurrence of boats, wakes, and wind-induced white caps interferes significantly in recognition of buoy objects. Thus, semi-automated procedures consisting of object recognition and image measurement aspects will be conducted. These offer more satisfactory results than a manual process. Spectral analysis shows that the image coordinates of buoy objects represent wave motion well, indicating its usefulness in the analysis of wave characteristics.

A Study on Taekwondo Training System using Hybrid Sensing Technique

  • Kwon, Doo Young
    • 한국멀티미디어학회논문지
    • /
    • 제16권12호
    • /
    • pp.1439-1445
    • /
    • 2013
  • We present a Taekwondo training system using a hybrid sensing technique of a body sensor and a visual sensor. Using a body sensor (accelerometer), rotational and inertial motion data are captured which are important for Taekwondo motion detection and evaluation. A visual sensor (camera) captures and records the sequential images of the performance. Motion chunk is proposed to structuralize Taekwondo motions and design HMM (Hidden Markov Model) for motion recognition. Trainees can evaluates their trial motions numerically by computing the distance to the standard motion performed by a trainer. For motion training video, the real-time video images captured by a camera is overlayed with a visualized body sensor data so that users can see how the rotational and inertial motion data flow.

제스쳐 인식을 이용한 DID 인터페이스 구현 (Implementation of DID interface using gesture recognition)

  • 이상헌;김대진;최홍섭
    • 디지털콘텐츠학회 논문지
    • /
    • 제13권3호
    • /
    • pp.343-352
    • /
    • 2012
  • 본 논문에서는 DID 시스템에서 사용할 수 있는 제스쳐 인식을 이용한 비접촉식 인터페이스를 구현하였다. 비접촉식 인터페이스는 별도의 부착물 없이 키넥트 카메라만을 사용함으로, 사용자의 편의와 공간적인 활용도를 높일 수 있다. 손 동작인식에는 사용자의 손 움직임의 기울기와 속력을 인식하는 방향성 기반의 인식 기법을 채용하였고 손 모양인식을 위해서 YCbCr 칼라모델을 이용한 손 영역 추출과 손 넓이의 원을 이용한 영상처리 기술로 손가락의 수를 인식하였다. 이러한 손 동작인식과 손 모양인식을 이용하여 다음 페이지, 이전 페이지, 화면 위로, 화면 아래로, 커서 움직임, 클릭 등의 이벤트를 발생시켜 DID 시스템 제어 명령으로 사용하였으며, 구현한 시스템을 갖고 동작 실험한 결과 93%의 명령 인식률을 보여 실용화의 가능성을 확인할 수 있었다.

딥러닝 기반 실시간 손 제스처 인식 (Real-Time Hand Gesture Recognition Based on Deep Learning)

  • 김규민;백중환
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.424-431
    • /
    • 2019
  • In this paper, we propose a real-time hand gesture recognition algorithm to eliminate the inconvenience of using hand controllers in VR applications. The user's 3D hand coordinate information is detected by leap motion sensor and then the coordinates are generated into two dimensional image. We classify hand gestures in real-time by learning the imaged 3D hand coordinate information through SSD(Single Shot multibox Detector) model which is one of CNN(Convolutional Neural Networks) models. We propose to use all 3 channels rather than only one channel. A sliding window technique is also proposed to recognize the gesture in real time when the user actually makes a gesture. An experiment was conducted to measure the recognition rate and learning performance of the proposed model. Our proposed model showed 99.88% recognition accuracy and showed higher usability than the existing algorithm.

Representing Human Motions in an Eigenspace Based on Surrounding Cameras

  • Houman, Satoshi;Rahman, M. Masudur;Tan, Joo Kooi;Ishikawa, Seiji
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2004년도 ICCAS
    • /
    • pp.1808-1813
    • /
    • 2004
  • Recognition of human motions using their 2-D images has various applications. An eigenspace method is employed in this paper for representing and recognizing human motions. An eigenspace is created from the images taken by multiple cameras that surround a human in motion. Image streams obtained from the cameras compose the same number of curved lines in the eigenspace and they are used for recognizing a human motion in a video image. Performance of the proposed technique is shown experimentally.

  • PDF

Combining Dynamic Time Warping and Single Hidden Layer Feedforward Neural Networks for Temporal Sign Language Recognition

  • Thi, Ngoc Anh Nguyen;Yang, Hyung-Jeong;Kim, Sun-Hee;Kim, Soo-Hyung
    • International Journal of Contents
    • /
    • 제7권1호
    • /
    • pp.14-22
    • /
    • 2011
  • Temporal Sign Language Recognition (TSLR) from hand motion is an active area of gesture recognition research in facilitating efficient communication with deaf people. TSLR systems consist of two stages: a motion sensing step which extracts useful features from signers' motion and a classification process which classifies these features as a performed sign. This work focuses on two of the research problems, namely unknown time varying signal of sign languages in feature extraction stage and computing complexity and time consumption in classification stage due to a very large sign sequences database. In this paper, we propose a combination of Dynamic Time Warping (DTW) and application of the Single hidden Layer Feedforward Neural networks (SLFNs) trained by Extreme Learning Machine (ELM) to cope the limitations. DTW has several advantages over other approaches in that it can align the length of the time series data to a same prior size, while ELM is a useful technique for classifying these warped features. Our experiment demonstrates the efficiency of the proposed method with the recognition accuracy up to 98.67%. The proposed approach can be generalized to more detailed measurements so as to recognize hand gestures, body motion and facial expression.

손가락 움직임 인식을 위한 웨어러블 디바이스 설계 및 ML 기법별 성능 분석 (Design and Performance Analysis of ML Techniques for Finger Motion Recognition)

  • 정우순;이형규
    • 한국산업정보학회논문지
    • /
    • 제25권2호
    • /
    • pp.129-136
    • /
    • 2020
  • 손가락 움직임 인식을 통한 제어는 직관적인 인간-컴퓨터 상호작용 방법의 하나이다. 본 연구에서는 여러 가지 ML (Machine learning) 기법을 사용하여 효율적인 손가락 움직임 인식을 위한 웨어러블 디바이스를 구현한다. 움직임 인식을 위한 시계열 데이터 분석에 전통적으로 사용되어 온 HMM (Hidden markov model) 및 DTW (Dynamic time warping) 기법뿐만 아니라 NN (Neural network) 기법을 적용하여 손가락 움직임 인식의 효율성 및 정확성을 비교하고 분석한다. 제안된 시스템의 경우, 경량화된 ML 모델을 설계하기 위해 각 ML 기법에 대해 최적화된 전처리 프로세스를 적용한다. 실험 결과, 최적화된 NN, HMM 및 DTW 기반 손가락 움직임 인식시스템은 각각 99.1%, 96.6%, 95.9%의 정확도를 제공한다.

Wi-Fi를 이용한 WiSee의 동향 분석 (WiSee's trend analysis using Wi-Fi)

  • 한승아;손태현;김현호;이훈재
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 춘계학술대회
    • /
    • pp.74-77
    • /
    • 2015
  • WiSee는 Wi-Fi(802.11n / ac)의 주파수를 이용하여 사용자의 제스처로 동작인식을 하는 기술이다. 현재 모션 인식방식은 전용 장치(리프모션, 키넥트)를 사용하고 있으며, 인식범위는 30cm~3.5m 이며, 인식범위가 좁고 인식률을 높이기 위해서는 제한적인 거리를 유지해야하는 불편함이 있다. 반면에 WiSee에서 사용하는 장비는 Wi-Fi가 사용가능한 장소라면 어디서든 동작인식을 할 수 있으며, 투과성도 기존인식방식에 비해 뛰어난 장점이 있다. 이에 본 논문에서는 WiSee의 동작과정과 최근동향을 살펴본다.

  • PDF