• 제목/요약/키워드: Gesture-based Interaction

검색결과 152건 처리시간 0.028초

RGB-D 카메라를 사용한 사용자-실사물 상호작용 프레임워크 (Human-Object Interaction Framework Using RGB-D Camera)

  • 백용환;임창민;박종일
    • 방송공학회논문지
    • /
    • 제21권1호
    • /
    • pp.11-23
    • /
    • 2016
  • 터치 인터페이스는 가장 최근에 등장한 상호작용 인터페이스 중에서도 그 사용성과 응용성이 뛰어난 인터페이스이다. 기술의 발전과 더불어 터치 인터페이스는 현대 사회에서 시계에서부터 광고판까지 많은 영역에 걸쳐 빠르게 퍼져나가고 있다. 하지만 여전히 터치 상호작용은 접촉식 센서가 내장되어있는 유효한 영역 내에서만 이루어질 수 있다. 따라서 센서가 내장될 수 없는 일반적인 사물들과의 상호작용은 아직 불가능한 상황이다. 본 논문에서는 이와 같은 제약 사항을 극복하기 위해 RGB-D 카메라를 이용한 사람-사물 상호작용 프레임워크를 제안한다. 제안하는 프레임워크는 물체와 사용자의 손이 서로 가려지는 상황에서도 서로 문제없이 상호작용을 수행할 수 있는 장점을 가지고 있으며, 빠르고 크기 변화와 회전에 강인한 물체 인식 알고리즘과 윤곽 정보를 이용한 손 제스처 인식 알고리즘을 통해 실시간으로 사용자가 사물과 상호작용을 수행할 수 있다.

인간의 제스쳐에 의한 감정 인식 (Emotion Recognition Based on Human Gesture)

  • 송민국;박진배;주영훈
    • 한국지능시스템학회논문지
    • /
    • 제17권1호
    • /
    • pp.46-51
    • /
    • 2007
  • 영상을 통한 감정 인식 기술은 사회의 여러 분야에서 필요성이 대두되고 있음에도 불구하고 인식 과정의 어려움으로 인해 풀리지 않는 문제로 남아 있다. 특히, 인간의 움직임을 이용한 감정 인식 기술은 많은 응용이 가능하기 때문에 개발의 필요성이 증대되고 있다. 영상을 통해 감정을 인식하는 시스템은 매우 다양한 기법들이 사용되는 복합적인 시스템이다. 따라서 이를 설계하기 위해서는 영상에서의 움직임 추출, 특징 벡터 추출 및 패턴 인식 등 다양한 기법의 연구가 필요하다. 본 논문에서는 이전에 연구된 움직임 추출 방법들을 바탕으로 한 새로운 감정 인식 시스템을 제안한다. 제안된 시스템은 은닉 마코프 모델을 통해 동정된 분류기를 이용하여 감정을 인식한다. 제안된 시스템의 성능을 평가하기 위해 평가데이터 베이스가 구축되었으며, 이를 통해 제안된 감정 인식 시스템의 성능을 확인하였다.

비접촉식 제스처 기반 3D 조형 태스크를 위한 다중 모달리티 인터페이스 디자인 연구 (Multi - Modal Interface Design for Non - Touch Gesture Based 3D Sculpting Task)

  • 손민지;유승헌
    • 디자인융복합연구
    • /
    • 제16권5호
    • /
    • pp.177-190
    • /
    • 2017
  • 본 연구는 비접촉식 제스처 기반 조형 태스크의 직관성 향상을 위한 다중 모달리티 인터페이스 디자인 GSS를 제안하였다. 디자인 조형 과정 및 조형 형태에 대한 사용자 경험을 조사한 후, 기술 발전에 따른 세대별 조형 시스템을 분석하였다. 또, 비접촉 3D 조형 시스템상에서의 조형 제작 프로세스, 조형 제작 환경, 제스처와 조형 태스크 간의 관계성, 자연스러운 손 조합 패턴과 사용자 손동작 요소들을 정의하였다. 이후, 기존 비접촉 3D 조형 시스템상에서 비접촉식 제스처 인터랙션을 관찰하고 자연스러운 조형 제작을 위해 조형 작성자의 행동체계가 반영된 인터페이스의 시각적 메타포와 자연스러운 제스처 인터랙션을 유도할 수 있는 행동적 메타포를 도출하였다. 프로토타입을 개발한 후, 제안된 주요 조형 태스크별 제스처 세트의 직관성을 알아보기 위해 기존 조형 시스템들과 비교하여 사용성 평가를 진행하였다. 제안된 GSS 시스템의 제스처는 이해도, 기억성, 오류율에서 우수성을 보였다. 제스처 인터페이스는 사용자의 경험에 기반한 시각적/행동적 메타포를 바탕으로 시각적 모달리티가 함께 사용된 제스처 인터페이스를 사용자들에게 제공되어야 한다는 것을 확인하였다.

거리영상 기반 동작인식 기술동향 (Technology Trends of Range Image based Gesture Recognition)

  • 장주용;류문욱;박순찬
    • 전자통신동향분석
    • /
    • 제29권1호
    • /
    • pp.11-20
    • /
    • 2014
  • 동작인식(gesture recognition) 기술은 입력 영상으로부터 영상에 포함된 사람들의 동작을 인식하는 기술로써 영상감시(visual surveillance), 사람-컴퓨터 상호작용(human-computer interaction), 지능로봇(intelligence robot) 등 다양한 적용분야를 가진다. 특히 최근에는 저비용의 거리 센서(range sensor) 및 효율적인 3차원 자세 추정(3D pose estimation)기술의 등장으로 동작인식은 기존의 어려움들을 극복하고 다양한 산업분야에 적용이 가능할 정도로 발전을 거듭하고 있다. 본고에서는 그러한 거리영상(range image) 기반의 동작인식 기술에 대한 최신 연구동향을 살펴본다.

  • PDF

스크립트 기반의 로봇 제스처 자동생성 방법 및 집사로봇에의 적용 (Automatic Generation of Script-Based Robot Gesture and its Application to Steward Robot)

  • 김헌희;이형욱;김용휘;박광현;변증남
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.688-693
    • /
    • 2007
  • 본 논문은 인간과 로봇간의 효과적인 상호작용을 위한 로봇제스쳐의 자동생성 기법을 다룬다. 이는 텍스트 정보 만의 입력으로 의미 있는 단어에 대응되는 특정 제스쳐패턴이 자동적으로 생성되도록 하는 기법으로서 이를 위한 사전조사로 제스쳐가 출현하는 발화시점에서의 단어수집이 우선적으로 요구되었다. 본 논문은 이러한 분석을 위해 두 개 이상의 연속된 제스쳐 패턴을 효과적으로 표현할 수 있는 제스쳐 모델을 제안한다. 또한 제안된 모델이 적용되어 구축된 제스쳐DB와 스크립트 기법을 이용한 로봇제스쳐 자동생성 방법을 제안한다. 제스쳐 생성시스템은 규칙기반의 제스쳐 선택부와 스크립트 기반의 동작 계획부로 구성되고, 집사로봇의 안내기능에 대한 모의실험을 통해 그 효용성을 확인한다.

  • PDF

Cognitive and Emotional Structure of a Robotic Game Player in Turn-based Interaction

  • Yang, Jeong-Yean
    • International journal of advanced smart convergence
    • /
    • 제4권2호
    • /
    • pp.154-162
    • /
    • 2015
  • This paper focuses on how cognitive and emotional structures affect humans during long-term interaction. We design an interaction with a turn-based game, the Chopstick Game, in which two agents play with numbers using their fingers. While a human and a robot agent alternate turn, the human user applies herself to play the game and to learn new winning skills from the robot agent. Conventional valence and arousal space is applied to design emotional interaction. For the robotic system, we implement finger gesture recognition and emotional behaviors that are designed for three-dimensional virtual robot. In the experimental tests, the properness of the proposed schemes is verified and the effect of the emotional interaction is discussed.

A Unit Touch Gesture Model of Performance Time Prediction for Mobile Devices

  • Kim, Damee;Myung, Rohae
    • 대한인간공학회지
    • /
    • 제35권4호
    • /
    • pp.277-291
    • /
    • 2016
  • Objective: The aim of this study is to propose a unit touch gesture model, which would be useful to predict the performance time on mobile devices. Background: When estimating usability based on Model-based Evaluation (MBE) in interfaces, the GOMS model measured 'operators' to predict the execution time in the desktop environment. Therefore, this study used the concept of operator in GOMS for touch gestures. Since the touch gestures are comprised of possible unit touch gestures, these unit touch gestures can predict to performance time with unit touch gestures on mobile devices. Method: In order to extract unit touch gestures, manual movements of subjects were recorded in the 120 fps with pixel coordinates. Touch gestures are classified with 'out of range', 'registration', 'continuation' and 'termination' of gesture. Results: As a results, six unit touch gestures were extracted, which are hold down (H), Release (R), Slip (S), Curved-stroke (Cs), Path-stroke (Ps) and Out of range (Or). The movement time predicted by the unit touch gesture model is not significantly different from the participants' execution time. The measured six unit touch gestures can predict movement time of undefined touch gestures like user-defined gestures. Conclusion: In conclusion, touch gestures could be subdivided into six unit touch gestures. Six unit touch gestures can explain almost all the current touch gestures including user-defined gestures. So, this model provided in this study has a high predictive power. The model presented in the study could be utilized to predict the performance time of touch gestures. Application: The unit touch gestures could be simply added up to predict the performance time without measuring the performance time of a new gesture.

형태론적 손짓 인식 알고리즘 (Morphological Hand-Gesture Recognition Algorithm)

  • 최종호
    • 한국정보통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1725-1731
    • /
    • 2004
  • 최근 들어 인간의 의지를 컴퓨터에 전달하기 위한 수단으로 컴퓨터 시각기반 방식으로 제스처를 인식하고자 하는 연구가 널리 진행되고 있다. 제스처 인식에서 가장 중요한 이슈는 알고리즘의 단순화와 처리시간의 감소이다. 이러한 문제를 해결하기 위하여 본 연구에서는 기하학적 집합론에 근거하고 있는 수학적 형태론을 적용하였다. 본 논문에서 제안한 알고리즘의 중요한 아이디어는 형태론적 형상 분해를 적용하여 제스처를 인식하는 것이다. 손짓 형상으로부터 얻은 원시형상요소들의 방향성은 손짓에 관한 중요한 정보를 내포하고 있다. 이러한 특징에 근거하여 본 연구에서는 주 원시형상요소와 부 원시형상요소의 중심점을 연결하는 직선으로부터 특징벡터를 이용한 형태론적 손짓 인식 알고리즘을 제안하고 실험을 통하여 그 유용성을 증명하였다. 자연스러운 손짓을 이용한 인터페이스 설계는 TV 스위치 조정이나 비디오 컨텐츠 검색용 시스템으로 널리 이용할 수 있을 것으로 판단된다.

A Measurement System for 3D Hand-Drawn Gesture with a PHANToMTM Device

  • Ko, Seong-Young;Bang, Won-Chul;Kim, Sang-Youn
    • Journal of Information Processing Systems
    • /
    • 제6권3호
    • /
    • pp.347-358
    • /
    • 2010
  • This paper presents a measurement system for 3D hand-drawn gesture motion. Many pen-type input devices with Inertial Measurement Units (IMU) have been developed to estimate 3D hand-drawn gesture using the measured acceleration and/or the angular velocity of the device. The crucial procedure in developing these devices is to measure and to analyze their motion or trajectory. In order to verify the trajectory estimated by an IMU-based input device, it is necessary to compare the estimated trajectory to the real trajectory. For measuring the real trajectory of the pen-type device, a PHANToMTM haptic device is utilized because it allows us to measure the 3D motion of the object in real-time. Even though the PHANToMTM measures the position of the hand gesture well, poor initialization may produce a large amount of error. Therefore, this paper proposes a calibration method which can minimize measurement errors.

적외선 영상센서를 이용한 스마트 터치 프로젝터 시스템 기술 연구 (A Study on Smart Touch Projector System Technology Using Infrared (IR) Imaging Sensor)

  • 이국선;오상헌;전국휘;강성수;유동희;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제15권7호
    • /
    • pp.870-878
    • /
    • 2012
  • 최근의 많은 컴퓨터 기술의 발전과 센서 기술의 발전의 결합으로 매우 다양한 형태의 사용자 경험에 기반한 사용자 인터페이스(User interface) 기술들이 출현하고 있다. 본 연구에서는 적외선 영상을 이용한 스마트 터치 프로젝터 시스템 기술에 관한 연구와 그 결과를 소개한다. 제안된 시스템에서는 사용자가 빔 프로젝터를 사용할 때 적외선 펜을 이용하여 이벤트를 발생시키면 적외선 영상센서를 통하여 그 이벤트를 인식하여 마우스 이벤트를 발생시키는 기법을 제안한다. 입력되는 펜의 움직임 추출과 추적을 기반으로 움직임 이벤트 패턴을 설계하였으며, 입력 영상 화면과 실제 사용하는 하드웨어의 해상도에 차이가 있기 때문에 이 오차를 최소화 하기 위해서 화면 좌표보정 알고리즘을 제안한다. 이러한 기술은 빔 프로젝터에 간단한 프로세서만 장착이 된다면 다른 이동식 노트북 등이 필요 없이 언제든지 회의나 발표 등을 진행할 수 있는 차세대 휴먼-컴퓨터 상호작용(Human-Computer Interaction) 기술이다.