• 제목/요약/키워드: Gesture Analysis

검색결과 140건 처리시간 0.023초

한글 수화용 동적 손 제스처의 실시간 인식 시스템의 구현에 관한 연구 (On-line dynamic hand gesture recognition system for the korean sign language (KSL))

  • 김종성;이찬수;장원;변증남
    • 전자공학회논문지C
    • /
    • 제34C권2호
    • /
    • pp.61-70
    • /
    • 1997
  • Human-hand gestures have been used a means of communication among people for a long time, being interpreted as streams of tokens for a language. The signed language is a method of communication for hearing impaired person. Articulated gestures and postures of hands and fingers are commonly used for the signed language. This paper presents a system which recognizes the korean sign language (KSL) and translates the recognition results into a normal korean text and sound. A pair of data-gloves are used a sthe sensing device for detecting motions of hands and fingers. In this paper, we propose a dynamic gesture recognition mehtod by employing a fuzzy feature analysis method for efficient classification of hand motions, and applying a fuzzy min-max neural network to on-line pattern recognition.

  • PDF

손 동작을 통한 인간과 컴퓨터간의 상호 작용 (Recognition of Hand gesture to Human-Computer Interaction)

  • 이래경;김성신
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2930-2932
    • /
    • 2000
  • In this paper. a robust gesture recognition system is designed and implemented to explore the communication methods between human and computer. Hand gestures in the proposed approach are used to communicate with a computer for actions of a high degree of freedom. The user does not need to wear any cumbersome devices like cyber-gloves. No assumption is made on whether the user is wearing any ornaments and whether the user is using the left or right hand gestures. Image segmentation based upon the skin-color and a shape analysis based upon the invariant moments are combined. The features are extracted and used for input vectors to a radial basis function networks(RBFN). Our "Puppy" robot is employed as a testbed. Preliminary results on a set of gestures show recognition rates of about 87% on the a real-time implementation.

  • PDF

Effect of Tactile Feedback for Button GUI on Mobile Touch Devices

  • Shin, Heesook;Lim, Jeong-Mook;Lee, Jong-Uk;Lee, Geehyuk;Kyung, Ki-Uk
    • ETRI Journal
    • /
    • 제36권6호
    • /
    • pp.979-987
    • /
    • 2014
  • This paper describes new tactile feedback patterns and the effect of their input performance for a button GUI activated by a tap gesture on mobile touch devices. Based on an analysis of touch interaction and informal user tests, several tactile feedback patterns were designed. Using these patterns, three user experiments were performed to investigate appropriate tactile feedback patterns and their input performance during interaction with a touch button. The results showed that a tactile pattern responding to each touch and release gesture with a rapid response time and short falling time provides the feeling of physically clicking a button. The suggested tactile feedback pattern has a significantly positive effect on the number of typing errors and typing task completion time compared to the performance when no feedback is provided.

Correlation Analysis between Cognitive function and Praxis tasks in the Elderly

  • Shin, Su-Jung
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권5호
    • /
    • pp.51-56
    • /
    • 2017
  • The purpose of this study was to identify differences in cognitive function according to the presence or absence of apraxia and the tasks most relevant to the cognitive function among the various types of tasks in the apraxia test. The subjects were 42 community residents who participated in a cognitive rehabilitation program related to dementia in a Chungbuk area. MMSE-K and BCoS(Birmingham Cognitive Screen) apraxia test were administered to all subjects. The apraxia test includes three types of tasks, gesture production tasks that make meaningful movements according to verbal instructions, gesture recognition tasks that display behavior after make sense of meanings, and meaningless imitation task. Apraxia group(n=30, MMSE-K mean score: 25) showed lower cognitive function than group without apraxia(n=12, MMSE-K mean score: 28). All tasks in the apraxia test showed a significant correlation with cognitive function, but the meaningless imitation task had a negligible correlation. The apraxia test is a good way to assess cognitive function, and it may be more effective to use meaningful behavior to replace cognitive testing.

Multimodal Interface Based on Novel HMI UI/UX for In-Vehicle Infotainment System

  • Kim, Jinwoo;Ryu, Jae Hong;Han, Tae Man
    • ETRI Journal
    • /
    • 제37권4호
    • /
    • pp.793-803
    • /
    • 2015
  • We propose a novel HMI UI/UX for an in-vehicle infotainment system. Our proposed HMI UI comprises multimodal interfaces that allow a driver to safely and intuitively manipulate an infotainment system while driving. Our analysis of a touchscreen interface-based HMI UI/UX reveals that a driver's use of such an interface while driving can cause the driver to be seriously distracted. Our proposed HMI UI/UX is a novel manipulation mechanism for a vehicle infotainment service. It consists of several interfaces that incorporate a variety of modalities, such as speech recognition, a manipulating device, and hand gesture recognition. In addition, we provide an HMI UI framework designed to be manipulated using a simple method based on four directions and one selection motion. Extensive quantitative and qualitative in-vehicle experiments demonstrate that the proposed HMI UI/UX is an efficient mechanism through which to manipulate an infotainment system while driving.

로컬 모션정보와 글로벌 모션정보를 조합한 제스쳐 인식 (Gesture Recognition in Video image with Combination of Partial and Global Information)

  • 오재용;이칠우
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2004년도 춘계학술발표대회논문집
    • /
    • pp.279-283
    • /
    • 2004
  • 본 논문에서는 일반적인 비디오 스트림에서 자동으로 인간의 제스처를 인식하는 알고리즘에 대하여 기술한다. 본 알고리즘은 입력된 비디오 영상으로부터 추출된 신체영역의 2차원적 특징 벡터를 사용하며, 주성분 분석법(Principle Component Analysis)을 통하여 모델 제스처 공간(Model Gesture space)을 구성함으로서 제스처를 통계학적으로 분석/표현하며, 이 제스처 공간에서 새로 입력되는 영상을 같은 방법으로 투영시키고, HMM(Hidden Markov Model) 이론을 적용하여 심볼화함으로써 최종적으로 제스처를 인식하게 된다. 본 방법은 기존의 제스처 인식 방법들과는 달리 전체적인 영상 정보(Global Information)와 세부적인 영상 정보(Partial Information)를 조합하여 사용한다는데 특징이 있으며, 본 알고리즘을 통해 보다 정확하게 강건한 제스처 인식 기술을 실생활에 적용할 수 있을 것이다.

  • PDF

3D-CNN에서 동적 손 제스처의 시공간적 특징이 학습 정확성에 미치는 영향 (Effects of Spatio-temporal Features of Dynamic Hand Gestures on Learning Accuracy in 3D-CNN)

  • 정영지
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.145-151
    • /
    • 2023
  • 3D-CNN은 시계열 데이터 학습을 위한 딥 러닝 기법 중 하나이다. 이러한 3차원 학습은 많은 매개변수를 생성할 수 있으므로 고성능 기계학습이 필요하거나 학습 속도에 커다란 영향을 미칠 수 있다. 본 연구에서는 손의 동적인 제스처 동작을 시공간적으로 학습할 때, 3D-CNN 모델의 구조적 변화 없이 입력 영상 데이터의 시공간적 변화에 따른 학습 정확성을 분석함으로써, 3D-CNN을 이용한 동적 제스처 학습의 효율성을 높이기 위한 입력 영상 데이터의 최적 조건을 찾고자 한다. 첫 번째로 동적 손 제스처 영상 데이터에서 동적 이미지 프레임의 학습구간을 설정함으로써 제스처 동작간 시간 비율을 조정한다. 둘째로는 클래스간 2차원 교차 상관 분석을 통해 영상 데이터의 이미지 프레임간 유사도를 측정하여 정규화 함으로써 프레임간 평균값을 얻고 학습 정확성을 분석한다. 이러한 분석을 통하여, 동적 손 제스처의 3D-CNN 딥 러닝을 위한 입력 영상 데이터를 효과적으로 선택하는 두 가지 방법을 제안한다. 실험 결과는 영상 데이터 프레임의 학습구간과 클래스간 이미지 프레임간 유사도가 학습 모델의 정확성에 영향을 미칠 수 있음을 보여준다.

애니메이션의 효과적인 제스처연기 분석 - 찰리 채플린, 버스터 키튼의 과장연기 비교를 중심으로 (Analysis of effective gesture acting animation - Charlie Chaplin, Buster Keaton's acting)

  • 이다나;박진완
    • 만화애니메이션 연구
    • /
    • 통권34호
    • /
    • pp.45-79
    • /
    • 2014
  • 본 연구는 애니메이션 액팅에서 가장 중요한 과장 연기의 요소를 구성하는 제스처를 고찰하는 작업을 통해 애니메이션의 액팅이 획일화하는 데서 벗어날 것을 제안하는데 목적이 있다. 이를 위하여 본 연구는 애니메이션 12원칙과 라반의 에포트 이론을 활용 한다. 무성 코미디 영화와 기준이 되는 2D와 3D 애니메이션의 제스처 표현을 각각 분석 하며 둘의 공통점과 차이점을 도출 한다. 다음으로 무성 코미디 영화의 액팅을 애니메이션에 어떻게 활용할 수 있는지 그 가능성을 모색해 보았다. 찰리 채플린과 버스터 키튼은 초기 애니메이션에서 액팅의 주요한 참고요소가 됐으나, 최근 애니메이션 기술이 발전함에 따라 중요하게 다루지 않고 있다. 그러나 3D 애니메이션이 주를 이루면서 점차 액팅, 역동성과 연기가 차지하는 역할이 더 중요시됨에 따라 찰리 채플린과 버스터 키튼의 제스처 연기에 대한 좀 더 깊이 있는 재조명이 이루어질 필요성이 대두되고 있다.

상태 오토마타와 기본 요소분류기를 이용한 가상현실용 실시간 인터페이싱 (Virtual Environment Interfacing based on State Automata and Elementary Classifiers)

  • 김종성;이찬수;송경준;민병의;박치항
    • 한국정보처리학회논문지
    • /
    • 제4권12호
    • /
    • pp.3033-3044
    • /
    • 1997
  • 본 논문에서는 가상현실의 기본 요소중의 하나인 사용자 인터페이스 분야에서 동적 손 제스처를 실시간으로 인식하는 시스템의 구현에 관하여 상술한다. 사람의 손과 손가락은 사람마다 같은 동작이라도 데이터의 변화가 다양하며 같은 동작을 반복해서 할 때에도 다른 데이터를 얻게되는등 시간에따른 변화도 존재한다. 또한, 손가락의 외형 및 물리적 구조가 사람마다 다르기 때문에 다른 두사람에 의해 만들어진 같은 손 모양도 일반적인 센싱장비에의해 측정될 때 다른 측정값을 나타낸다. 또한 동적 손제스처에서 동작의 시작과 끝을 명확히 구분하기가 매우 힘들다. 본 논문에서는 동적 손 제스처에 대해 각각의 의미있는 동작을 구분하기위해 상태 오토마타를 이용하였고, 인식 범위의 확장성을 고려하여 동적 손 제스처를 퍼지 이론을 도입한 특징 해석에의해 기본 요소인 손의 운동을 분류하고 퍼지 최대-최소 신경망을 적용하여 손의 모양을 분류함으로써 전체 손 제스처를 인식하는 시스템을 제안한다.

  • PDF

손 제스터 인식을 이용한 실시간 아바타 자세 제어 (On-line Motion Control of Avatar Using Hand Gesture Recognition)

  • 김종성;김정배;송경준;민병의;변증남
    • 전자공학회논문지C
    • /
    • 제36C권6호
    • /
    • pp.52-62
    • /
    • 1999
  • 본 논문에서는 가상 환경에서 움직이는 인체 Avatar의 움직임을 인간의 가장 자연스러운 동작의 하나인 손 제스처를 이용하여 실시간으로 제어하는 인식 시스템의 구현에 관하여 상술한다. 동적 손 제스처는 컴퓨터와 제스처를 사용하는 사람과의 상호 연결 수단이다.가상공간 상에서의 자연스러운 움직임을 표현하기 위해 32개의 자유도(DOF)를 가진 인체 아바타를 구성하였으며, 정지, 전후좌우로 한 걸음 이동, 걷기, 달리기, 좌우로 회전, 뒤로 돌기, 물건 잡기의 동작 모드를 정의하여 가상공간 상의 인체 아바타는 미리 설정된 손 제스처에 따라 실시간에 따라 실시간으로 3차원공간상에서 움직일 수 있다. 실시간의 인체 아바타 이동에는 역 기구학과 기구학을 혼용하여 적용하였으며, 사이버 터치를 착용한 사용자의 손 제스처 인식에는 인공 신경망 이론과 퍼지 이론을 도입하여 실시간 인식이 가능하였다.

  • PDF