• 제목/요약/키워드: Gesture Analysis

검색결과 140건 처리시간 0.021초

SOM과 PRL을 이용한 고유얼굴 기반의 머리동작 인식방법 (A Head Gesture Recognition Method based on Eigenfaces using SOM and PRL)

  • 이우진;구자영
    • 한국정보처리학회논문지
    • /
    • 제7권3호
    • /
    • pp.971-976
    • /
    • 2000
  • In this paper a new method for head gesture recognition is proposed. A the first stage, face image data are transformed into low dimensional vectors by principal component analysis (PCA), which utilizes the high correlation between face pose images. The a self organization map(SM) is trained by the transformed face vectors, in such a that the nodes at similar locations respond to similar poses. A sequence of poses which comprises each model gesture goes through PCA and SOM, and the result is stored in the database. At the recognition stage any sequence of frames goes through the PCA and SOM, and the result is compared with the model gesture stored in the database. To improve robustness of classification, probabilistic relaxation labeling(PRL) is used, which utilizes the contextural information imbedded in the adjacent poses.

  • PDF

제스츄어 커뮤니케이션: 새로운 방식의 디지털 커뮤니케이션의 참여 디자인 제안 (Gesture Communication: Collaborative and Participatory Design in a New Type of Digital Communication)

  • 원하연
    • 한국과학예술포럼
    • /
    • 제20권
    • /
    • pp.307-314
    • /
    • 2015
  • Tele-Gesture is a tangible user interface(TUI) device that allows a user to physically point to a 3D object in real life and have their gestures play back by a robotic finger that can point to the same object, either at the same time, or at another point in time. To understand the extent of the gestures as new way of digital collaborative communication, collaboration situation and types were experimented as TUI implementations. The design prototype reveals that there is a rich non-verbal component of communication in the form of gesture-clusters and body movements that happen in an digital communication. This result of analysis can contribute to compile relevant contributions to the fields of communication, human behavior, and interaction with high technology through an interpretive social experience.

모바일 카메라 기기를 이용한 손 제스처 인터페이스 (Hand Gesture Interface Using Mobile Camera Devices)

  • 이찬수;천성용;손명규;이상헌
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제16권5호
    • /
    • pp.621-625
    • /
    • 2010
  • 본 논문에서는 스마트 폰, PDA와 같은 모바일 장치에 있는 카메라 기기를 이용한 손동작 제스처 인터페이스를 위한 손 움직임 추적 방법을 제안하고 이를 바탕으로 한 손 제스처 인식 시스템을 개발한다. 사용자의 손동작에 따라 카메라가 움직임으로써, 전역 optical flow가 발생하며, 이에 대한 우세한 방향 성분에 대한 움직임만 고려함으로써, 노이즈에 강인한 손움직임 추정이 가능하다. 또한 추정된 손 움직임을 바탕으로 속도 및 가속도 성분을 계산하여 동작위상을 구분하고, 동작상태를 인식하여 연속적인 제스처를 개별제스처로 구분한다. 제스처 인식을 위하여, 움직임 상태에서의 특징들을 추출하여, 동작이 끝나는 시점에서 특징들에 대한 분석을 통하여 동작을 인식한다. 추출된 특징점을 바탕으로 제스처를 인식하기 위하여 SVM(Support vector machine), k-NN(k-nearest neighborhood classifier), 베이시안 인식기를 사용했으며, 14개 제스처에 대한 인식률은 82%에 이른다.

초등과학 수업에서 경력교사와 초보교사의 제스처 특징 비교 - 우리 몸의 구조와 기능 단원을 중심으로 - (Comparison of Gesture Characteristics of Career Teachers and Novice Teachers in Elementary Science Class - Focused on the 5th Grade Unit of the Function and Structure of Our Body -)

  • 정준용;신동훈
    • 한국초등과학교육학회지:초등과학교육
    • /
    • 제37권3호
    • /
    • pp.296-308
    • /
    • 2018
  • The purpose of this study is to analyze the characteristics and differences of gesture between career teachers and novice teachers in elementary science class. In order to analyze the gesture of elementary science teachers, gesture analysis framework was developed. The teachers who participated in the experiment were 2 beginner teachers and 2 career teachers. We analyzed 'bones and muscles', 'digestion', 'breathing', and 'excretion' of 'body' section in the second semester of 5th grade. The video recording of the class scene with the camcorder was recorded and analyzed by Observer XT. The results of this study are summarized as follows. First, the career teacher lessens unnecessary gestures than the novice teacher. During the class, the career teachers lessened the gestures not related to the context of the class. These differences were more prominent in the activities of the group with many unexpected situations than those of the teachers who prepared the class contents. Second, career teachers have more communication control act than novice teachers. Career teachers have often made adjustments to induce learner presentations or control unnecessary utterances. Third, career teachers efficiently interacted with learners using gestures that can enhance communication.

3차원 손 특징을 이용한 손 동작 인식에 관한 연구 (A study on hand gesture recognition using 3D hand feature)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제10권4호
    • /
    • pp.674-679
    • /
    • 2006
  • 본 논문에서는 3차원 손 특징 데이터를 이용한 동작 인식 시스템을 제안하고자 한다. 제안된 시스템은 3차원 센서에 의해 조밀한 범위의 영상을 생성하여 손 동작에 대한 3차원 특징을 추출하여 손 동작을 분류한다. 또한 다양한 조명과 배경하에서의 손을 견실하게 분할하고 색상 정보와 상관이 없어 수화와 같은 복잡한 손 동작에 대해서도 견실한 인식능력을 나타낼 수가 있다. 제안된 방법의 전체적인 순서는 3차원 영상 획득, 팔 분할, 손과 팔목 분할, 손 자세 추정, 3차원 특징 추출, 그리고 동작 분류로 구성되어 있고, 수화 자세에 대한 인식 실험으로 제안된 시스템의 효율성을 입증하였다.

차량정보 분석과 제스처 인식을 위한 AVN 소프트웨어 구현 (Development of AVN Software Using Vehicle Information for Hand Gesture)

  • 오규태;박인혜;이상엽;고재진
    • 한국통신학회논문지
    • /
    • 제42권4호
    • /
    • pp.892-898
    • /
    • 2017
  • 본 논문은 차량 내 AVN(Audio Video Navigation)에서 차량정보 분석과 제스처 인식이 가능한 소프트웨어 구조를 설계하고 구현 방법을 서술한다. 설계된 소프트웨어는 차량정보 분석을 위해 CAN(Controller Area Network) 통신 데이터 분석 모듈을 구현하여 차량의 주행 상태를 분석했다. AVN 소프트웨어는 분석된 정보를 웨어러블 디바이스의 제스처 정보와 융합토록 했다. 도출된 융합정보는 운전자의 명령 수행 단계로 매칭하고 서비스를 지원하는데 사용됐다. 설계된 AVN 소프트웨어는 기성 제품과 유사한 환경의 HW 플랫폼 상에 구현되어 차량 주행 상황과 동일하게 모사된 상황에서의 차량정보분석, 제스처 인식 수행 등의 기능을 지원함을 확인했다.

사용자 인터페이스 마크업 언어 표준 분석 및 설계 (Analysis and Design for User Interface Markup Language Standardization)

  • 김성한;이승윤
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 춘계학술대회
    • /
    • pp.662-665
    • /
    • 2015
  • 본 논문은 사용자와 시스템간의 인터페이스 관련 표준화를 추진 중인 ISO/IEC/JTC1의 SC35 UI의 제스처 기반 UI 요소 및 요구사항 및 제스처 기반 UI 표준 프레임워크를 분석하고, 이를 기반으로 GIML(Gesture-based Markup language) 마크업 언어 설계에 대해 제안 한다.

  • PDF

Extracting Flick Operator for Predicting Performance by GOMS Model in Small Touch Screen

  • Choi, Mikyung;Lee, Bong Geun;Oh, Hyungseok;Myung, Rohae
    • 대한인간공학회지
    • /
    • 제32권2호
    • /
    • pp.179-187
    • /
    • 2013
  • Objective: The purpose of this study is to extract GOMS manual operator, except for an experiment with participants. Background: The GOMS model has advantage of rapid modeling which is suitable for the environment of technology development which has a short life cycle products with a fast pace. The GOMS model was originally designed for desktop environment so that it is not adequate for implementing into the latest HCI environment such as small touch screen device. Therefore, this research proposed GOMS manual operator extraction methodology which is excluded experimental method. And flick Gesture was selected to explain application of proposed methodology to extract new operator. Method: Divide into start to final step of hand gesture needed to extract as an operator through gesture task analysis. Then apply the original GOMS operator to each similar step of gesture and modify the operator for implementation stage based on existing Fitts' law research. Steps that are required to move are modified based on the Fitts' law developed in touch screen device. Finally, new operator can be derived from using these stages and a validation experiment, performed to verify the validity of new operator and methodology by comparing human performance. Results: The average movement times of the participants' performance and the operator which is extracted in case study are not different significantly. Also the average of movement times of each type of view study is not different significantly. Conclusion: In conclusion, the result of the proposed methodology for extracting new operator is similar to the result of the experiment with their participants. Furthermore the GOMS model included the operator by the proposed methodology in this research could be applied successfully to predict the user's performance. Application: Using this methodology could be applied to develop new finger gesture in the touch screen. Also this proposed methodology could be applied to evaluate the usability of certain system rapidly including the new finger gesture performance.

형태론적 손짓 인식 알고리즘 (Morphological Hand-Gesture Recognition Algorithm)

  • 최종호
    • 한국정보통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1725-1731
    • /
    • 2004
  • 최근 들어 인간의 의지를 컴퓨터에 전달하기 위한 수단으로 컴퓨터 시각기반 방식으로 제스처를 인식하고자 하는 연구가 널리 진행되고 있다. 제스처 인식에서 가장 중요한 이슈는 알고리즘의 단순화와 처리시간의 감소이다. 이러한 문제를 해결하기 위하여 본 연구에서는 기하학적 집합론에 근거하고 있는 수학적 형태론을 적용하였다. 본 논문에서 제안한 알고리즘의 중요한 아이디어는 형태론적 형상 분해를 적용하여 제스처를 인식하는 것이다. 손짓 형상으로부터 얻은 원시형상요소들의 방향성은 손짓에 관한 중요한 정보를 내포하고 있다. 이러한 특징에 근거하여 본 연구에서는 주 원시형상요소와 부 원시형상요소의 중심점을 연결하는 직선으로부터 특징벡터를 이용한 형태론적 손짓 인식 알고리즘을 제안하고 실험을 통하여 그 유용성을 증명하였다. 자연스러운 손짓을 이용한 인터페이스 설계는 TV 스위치 조정이나 비디오 컨텐츠 검색용 시스템으로 널리 이용할 수 있을 것으로 판단된다.

손 제스처 기반의 애완용 로봇 제어 (Hand gesture based a pet robot control)

  • 박세현;김태의;권경수
    • 한국산업정보학회논문지
    • /
    • 제13권4호
    • /
    • pp.145-154
    • /
    • 2008
  • 본 논문에서는 애완용 로봇에 장착된 카메라로부터 획득된 연속 영상에서 사용자의 손 제스처를 인식하여 로봇을 제어하는 시스템을 제안한다. 제안된 시스템은 손 검출, 특징 추출, 제스처 인식 로봇 제어의 4단계로 구성된다. 먼저 카메라로부터 입력된 영상에서 HSI 색상공간에 정의된 피부색 모델과 연결성분 분석을 이용하여 손 영역을 검출한다. 다음은 연속 영상에서 손 영역의 모양과 움직임에 따른 특징을 추출한다. 이때 의미 있는 제스처의 구분을 위해 손의 모양을 고려한다. 그 후에 손의 움직임에 의해 양자화된 심볼들을 입력으로 하는 은닉 마르코프 모델을 이용하여 손 제스처는 인식된다. 마지막으로 인식된 제스처에 대응하는 명령에 따라 애완용 로봇이 동작하게 된다. 애완용 로봇을 제어하기 위한 명령으로 앉아, 일어서, 엎드려, 악수 등의 제스처를 정의하였다. 실험결과로 제안한 시스템을 이용하여 사용자가 제스처로 애완용 로봇을 제어 할 수 있음을 보였다.

  • PDF