• 제목/요약/키워드: Gestures

검색결과 484건 처리시간 0.028초

로봇 제어를 위한 의미 있는 손동작 추출 방법 (An Extraction Method of Meaningful Hand Gesture for a Robot Control)

  • 김아람;이상용
    • 한국지능시스템학회논문지
    • /
    • 제27권2호
    • /
    • pp.126-131
    • /
    • 2017
  • 본 논문에서는 손짓을 이용하여 로봇에게 명령을 내릴 때, 사용자의 여러 가지 손짓 중 의미 있는 동작을 추출하기 위한 방법을 제시한다. 로봇에게 명령을 내릴 때, 사람들의 손짓은 준비동작, 본 동작, 마무리 동작으로 구분할 수 있다. 여기에서 본 동작이 로봇에게 명령을 전달하는 의미 있는 동작이고 다른 동작은 그 동작을 위한 의미 없는 보조 동작이다. 따라서 연속적인 손짓에서 본 동작만을 추출해야 한다. 또한 사람들은 무위식적으로 손을 움직일 수 있는데 이러한 동작들 역시 의미가 없는 동작으로 로봇이 판단하여야 한다. 본 연구에서는 키넥트 센서를 이용하여 획득한 거리영상에서 사람의 골격자료를 획득하여 손을 추출하고, 칼만필터를 이용하여 손의 위치를 추적하면서 의미 있는 손동작과 의미 없는 손동작을 구분하고 은닉 마코프 모델을 이용하여 손짓을 인식한다.

다중 사용자를 위한 Dynamic Time Warping 기반의 특징 강조형 제스처 인식 모델 (Feature-Strengthened Gesture Recognition Model Based on Dynamic Time Warping for Multi-Users)

  • 이석균;엄현민;권혁태
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권10호
    • /
    • pp.503-510
    • /
    • 2016
  • 최근 제안된 FsGr 모델은 가속도 센서 기반의 제스처 인식을 위한 방법으로 DTW 알고리즘을 두 단계로 적용하여 인식률을 개선하였다. FsGr 모델에서는 유사제스처 집합 개념을 정의하는데 훈련과정에서 유사제스처 집합들을 생성한다. 제스처 인식의 1차 인식 시도에서 유사제스처 집합이 정의된 제스처로 판정되면, 이 유사제스처 집합의 제스처들에 대해 특징이 강조된 부분들을 추출해 DTW를 통한 2차 인식을 시도한다. 그러나 동일 제스처도 사용자의 신체 크기, 나이, 성별, 등의 신체적인 특징에 따라 매우 다른 특성을 보이고 있어 FsGr 모델을 다중 사용자 환경에 적용하기에는 한계가 있다. 본 논문에서는 이를 다중 사용자 환경으로 확장한 FsGrM 모델을 제안하고 이를 사용한 스마트TV의 채널 및 볼륨 제어 프로그램을 보인다.

이중흐름 3차원 합성곱 신경망 구조를 이용한 효율적인 손 제스처 인식 방법 (An Efficient Hand Gesture Recognition Method using Two-Stream 3D Convolutional Neural Network Structure)

  • 최현종;노대철;김태영
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권6호
    • /
    • pp.66-74
    • /
    • 2018
  • 최근 가상환경에서 몰입감을 늘리고 자유로운 상호작용을 제공하기 위한 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 그러나 기존의 연구는 특화된 센서나 장비를 요구하거나, 낮은 인식률을 보이고 있다. 본 논문은 정적 손 제스처와 동적 손 제스처 인식을 위해 카메라 이외의 별도의 센서나 장비 없이 딥러닝 기술을 사용한 손 제스처 인식 방법을 제안한다. 일련의 손 제스처 영상을 고주파 영상으로 변환한 후 손 제스처 RGB 영상들과 이에 대한 고주파 영상들 각각에 대해 덴스넷 3차원 합성곱 신경망을 통해 학습한다. 6개의 정적 손 제스처와 9개의 동적 손 제스처 인터페이스에 대해 실험한 결과 기존 덴스넷에 비해 4.6%의 성능이 향상된 평균 92.6%의 인식률을 보였다. 본 연구결과를 검증하기 위하여 3D 디펜스 게임을 구현한 결과 평균 34ms로 제스처 인식이 가능하여 가상현실 응용의 실시간 사용자 인터페이스로 사용가능함을 알 수 있었다.

메타버스 음악 공연장에서 관객 캐릭터 디자인 제안 연구 (A Study on the Design Proposal of Audience Character in Metaverse Music Performance Hall)

  • 송찬;김정이
    • 문화기술의 융합
    • /
    • 제10권5호
    • /
    • pp.659-666
    • /
    • 2024
  • 본 연구는 메타버스에서 음악 공연을 즐기는 관객들 간의 상호작용성을 높이기 위한 관객 캐릭터 디자인을 제안하였다. 연구 방법으로는 국내외 공연 영상을 조사하여 각각 장르와 규모에 따라 분류하고, 상호작용에 요구되는 표정, 제스처, 도구를 분석하였다. 메타버스 공연 관객 캐릭터의 표정은 선행 연구에서 제시된 9가지 표정에 환호와 감상의 표정을 추가하였다. 제스처는 사례 공연의 동영상을 검토하여 7가지 제스처로 정리하였고, 관객들의 상호작용 특성을 잘 반영할 수 있는 새로운 제스처를 추가하였다. 도구는 조사한 공연 영상에서 발견된 다양한 도구들을 타입별로 분류하여 정리하고, 이를 적절히 디자인하여 제안하였다. 그리고 캐릭터의 신체 비율과 형태를 적절하게 조정하여 관객들이 더 자연스럽게 상호작용을 할 수 있도록 하였다. 본 연구 결과는 메타버스에서의 음악 공연을 위한 캐릭터 디자인에 대한 기초적인 가이드를 제시하고, 이를 통해 관객들 간의 상호작용을 증진시키는데 기여할 수 있을 것으로 기대된다.

초등과학 수업에서 경력교사와 초보교사의 제스처 특징 비교 - 우리 몸의 구조와 기능 단원을 중심으로 - (Comparison of Gesture Characteristics of Career Teachers and Novice Teachers in Elementary Science Class - Focused on the 5th Grade Unit of the Function and Structure of Our Body -)

  • 정준용;신동훈
    • 한국초등과학교육학회지:초등과학교육
    • /
    • 제37권3호
    • /
    • pp.296-308
    • /
    • 2018
  • The purpose of this study is to analyze the characteristics and differences of gesture between career teachers and novice teachers in elementary science class. In order to analyze the gesture of elementary science teachers, gesture analysis framework was developed. The teachers who participated in the experiment were 2 beginner teachers and 2 career teachers. We analyzed 'bones and muscles', 'digestion', 'breathing', and 'excretion' of 'body' section in the second semester of 5th grade. The video recording of the class scene with the camcorder was recorded and analyzed by Observer XT. The results of this study are summarized as follows. First, the career teacher lessens unnecessary gestures than the novice teacher. During the class, the career teachers lessened the gestures not related to the context of the class. These differences were more prominent in the activities of the group with many unexpected situations than those of the teachers who prepared the class contents. Second, career teachers have more communication control act than novice teachers. Career teachers have often made adjustments to induce learner presentations or control unnecessary utterances. Third, career teachers efficiently interacted with learners using gestures that can enhance communication.

파라메트릭 제스처 공간에서 포즈의 외관 정보를 이용한 제스처 인식과 동작 평가 (Gesture Recognition and Motion Evaluation Using Appearance Information of Pose in Parametric Gesture Space)

  • 이칠우;이용재
    • 한국멀티미디어학회논문지
    • /
    • 제7권8호
    • /
    • pp.1035-1045
    • /
    • 2004
  • 본 논문에서는 저차원 제스처 특징 공간에서 연속적인 인간의 제스처 형상을 이용하여 제스처를 인식하고 동작을 구체적으로 평가하는 방법에 대해 소개한다. 기존의 HMM, 뉴럴 넷을 이용한 제스처 인식방법은 주로 인간의 동작 패턴을 구분할 수 있지만 동작의 크기 정보를 이용하기엔 어려움이 있다. 여기서 제안한 방법은 연속적으로 촬영된 인간의 제스처 영상들을 파라메트릭 고유공간이라는 저차원 공간으로 표현하여 모델과 입력 영상간의 거리 계산으로써 포즈뿐만 아니라 동작에 관한 빠르기나 크기와 같은 구체적인 정보를 인식할 수 있다. 이 방법은 단순한 처리와 비교적 안정적인 인식 알고리즘으로 지적 인터페이스 시스템이나 감시 장비와 같은 여러 응용 시스템에 적용 될 수 있다.

  • PDF

연속적인 손 제스처의 실시간 인식을 위한 계층적 베이지안 네트워크 (A Hierarchical Bayesian Network for Real-Time Continuous Hand Gesture Recognition)

  • 허승주;이성환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권12호
    • /
    • pp.1028-1033
    • /
    • 2009
  • 본 논문은 컴퓨터 마우스를 제어하기 위한 실시간 손 제스처 인식 방법을 제안한다. 다양한 제스처를 표현하기 위해, 손 제스처를 연속적인 손 모양의 시퀀스로 정의하고, 이러한 손 제스처를 인식하기 위한 계층적 베이지안 네트워크를 디자인한다. 제안하는 방법은 손 포스처와 제스처 인식을 위한 계층적 구조를 가지며, 이는 특징 추출과정에서 발생하는 잡음에 강인하다는 장점을 가진다. 제안하는 방법의 유용성을 증명하기 위해, 제스처 기반 가상 마우스 인터페이스를 개발하였다. 실험에서 제안한 방법은 단순한 배경에서는 94.8%, 복잡한 배경에서는 88.1%의 인식률을 보였으며, HMM 기반의 기존 방법보다 우수한 성능을 보였다.

인간의 행동 인식을 위한 얼굴 방향과 손 동작 해석 (Analysis of Face Direction and Hand Gestures for Recognition of Human Motion)

  • 김성은;조강현;전희성;최원호;박경섭
    • 제어로봇시스템학회논문지
    • /
    • 제7권4호
    • /
    • pp.309-318
    • /
    • 2001
  • In this paper, we describe methods that analyze a human gesture. A human interface(HI) system for analyzing gesture extracts the head and hand regions after taking image sequence of and operators continuous behavior using CCD cameras. As gestures are accomplished with operators head and hands motion, we extract the head and hand regions to analyze gestures and calculate geometrical information of extracted skin regions. The analysis of head motion is possible by obtaining the face direction. We assume that head is ellipsoid with 3D coordinates to locate the face features likes eyes, nose and mouth on its surface. If was know the center of feature points, the angle of the center in the ellipsoid is the direction of the face. The hand region obtained from preprocessing is able to include hands as well as arms. For extracting only the hand region from preprocessing, we should find the wrist line to divide the hand and arm regions. After distinguishing the hand region by the wrist line, we model the hand region as an ellipse for the analysis of hand data. Also, the finger part is represented as a long and narrow shape. We extract hand information such as size, position, and shape.

  • PDF

HAND GESTURE INTERFACE FOR WEARABLE PC

  • Nishihara, Isao;Nakano, Shizuo
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.664-667
    • /
    • 2009
  • There is strong demand to create wearable PC systems that can support the user outdoors. When we are outdoors, our movement makes it impossible to use traditional input devices such as keyboards and mice. We propose a hand gesture interface based on image processing to operate wearable PCs. The semi-transparent PC screen is displayed on the head mount display (HMD), and the user makes hand gestures to select icons on the screen. The user's hand is extracted from the images captured by a color camera mounted above the HMD. Since skin color can vary widely due to outdoor lighting effects, a key problem is accurately discrimination the hand from the background. The proposed method does not assume any fixed skin color space. First, the image is divided into blocks and blocks with similar average color are linked. Contiguous regions are then subjected to hand recognition. Blocks on the edges of the hand region are subdivided for more accurate finger discrimination. A change in hand shape is recognized as hand movement. Our current input interface associates a hand grasp with a mouse click. Tests on a prototype system confirm that the proposed method recognizes hand gestures accurately at high speed. We intend to develop a wider range of recognizable gestures.

  • PDF

동작 인식을 통한 인터랙티브 애니메이션 (Interactive Animation by Action Recognition)

  • 황지연;임양미;박지완;장성갑
    • 한국콘텐츠학회논문지
    • /
    • 제6권12호
    • /
    • pp.269-277
    • /
    • 2006
  • 본 연구는 인간의 과장적 제스처 중, 팔에 대한 키 프레임을 추출하여 팔 동작(제스처)과 만화적 감정 표현 애니메이션과의 매칭을 위한 인터렉티브 시스템 구현을 목적으로 한다. 실시간 애니메이션 구현을 위하여 필요한 요소는 표정 변화에 따른 수많은 프레임 제작이다. 따라서, 애니메이션 제작에 따르는 시간 을 최소화하기 위해 3D 어플리케이션을 이용한 얼굴 감정 표현의 변형과정을 소개한다. 두 번째는 3D 어플리케이션에서 만들어진 많은 프레임들을 동작과 매칭하는 방법을 소개한다. 팔의 동작 변화에 따른 과장된 표정의 이미지 시퀀스를 매칭 시킴으로서 관객의 동작이 작품의 시동점이 되어 기존의 초상화가 과장된 움직임을 가칠 수 있게 함으로서 직접적으로 초상화와 의사소통을 하는듯한 느낌을 갖도록 했다.

  • PDF