• 제목/요약/키워드: human and computer interaction

검색결과 607건 처리시간 0.042초

3차원 공간에서 손가락 제스쳐 인터랙션을 이용한 간접제어의 사용성에 관한 실험연구 (An Experimental Research on the Usability of Indirect Control using Finger Gesture Interaction in Three Dimensional Space)

  • 함경선;이다혜;홍희정;박성재;김진우
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.519-532
    • /
    • 2014
  • 자연스러운 컴퓨터 인터랙션(Natural computer interaction)을 위 신기술의 출현은 기업에게 제품 혁신이라는 새로운 기회를 안겨다 줄 수 있다. 본 연구는 인간이 갖는 소통의 방식 중에서 손가락 제스처 인터랙션에 관심을 갖는다. 그간 십 수 년간 걸친 기술 발전에 힘입어 상용화 수준의 기술이 마련됨에 따라 이를 활용한 제품이나 서비스가 곧 대중화 될 것이라는 생각이 현재는 지배적이다. 이 시점에서 저자는 이 제스처 인터랙션이 과연 쓸 만 할까라는 생각을 가지고 손가락 제스처 인터랙션이 사용자들에게 끼치는 인지적인 영향을 알아보고자 실험연구를 진행한다. 손가락 제스처를 찍기, 집기, 잡기로 정의하고 각각 2차원과 3차원 공간에서 사용할 때 사용자들이 느끼는 사용성을 측정하여 제스처의 효과를 보여주고자 한다. 립모션 기술을 사용하여 2차원, 3차원 실험 도구를 개발하였고 48명의 피실험자를 통해 결과적으로는 2차원에서는 제스처간 사용성의 차이가 없으나 3차원에서는 그 차이를 발견할 수 있었다. 또한 모든 제스처가 3차원보다는 2차원에서 사용성이 좋은 것으로 나타났으며, 특히 3차원에서는 여러 손가락 보다는 하나의 손가락을 사용하는 것이 더 좋은 것으로 나타나 흥미를 끈다.

인터랙티브 제품 디자인을 위한 프로토타이핑 도구: MIDAS의 활용 사례 및 유용성 연구 (Investigation into a Prototyping Tool for Interactive Product Design: Development, Application and Feasibility Study of MIDAS (Media Interaction Design Authoring System))

  • 임지동;남택진
    • 디자인학연구
    • /
    • 제19권5호
    • /
    • pp.213-222
    • /
    • 2006
  • 본 논문은 인터랙션 디자인 관련 디자이너들이 기능적 프로토타입(Working Prototype)을 제작할 때 쉽게 활용할 수 있는 저작 도구 MIDAS(Media Interaction Design Authoring System)를 제안하며, 그에 관련된 조사 연구와 사례 연구를 통해 검증된 유용성에 관해 기술한다. MIDAS는 기술적 구현 경험이 부족한 디자이너들이 디지털 아날로그 입 출력 제어, 소프트웨어-하드웨어 통합, 혼합 현실 기술 등을 디자이너들이 사용하는 기존 멀티미디어 제작 환경 내에서 간편히 응용할 수 있게 한다. 디자이너들에게 필요한 인터랙티브 제품 프로토타이핑 도구의 요구 사항을 도출하기 위해 인터랙션 디자인 과정 고찰, 관련 연구 분석, 실무 디자이너 인터뷰를 수행 하였다. 이를 바탕으로 널리 활용되고 있는 멀티미디어 저작 도구인 디렉터와 플래시를 기반으로 프로토타이핑 도구를 개발하였다. 이 도구를 활용하여 다양한 인터랙션 디자인 프로젝트 사례 연구를 진행하였다. 사례연구를 통하여 디자이너들이 기존 디자인 구현 과정에서 겪던 기술적인 어려움들이 MIDAS를 통해 효과적으로 해소함을 알 수 있었다. 본 연구에서 제안하는 프로토타이핑 도구 및 방법은 인터랙티브 제품 디자인 영역 이외에도 인터랙티브 미디어아트, 탠저블 인터페이스와 연관된 인간 컴퓨터 상호작용 (Human Computer Interaction)분야의 교육 및 연구에도 기여 할 수 있을 것으로 기대된다.

  • PDF

눈동자의 움직임을 이용한 휴먼 컴퓨터 인터랙션 (Eye Gaze toy Human Computer Interaction)

  • 권기문;이정준;박강령;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 컴퓨터소사이어티 추계학술대회논문집
    • /
    • pp.83-86
    • /
    • 2003
  • This paper suggests user's interface with computer by means of detecting gaze under HMD, head mounted display, environment. System is derived as follows; firstly, calibrate a camera in HMD, which determines geometrical relationship between monitor and captured image. Second, detect the center of pupil using algorithm of the center of mass and represent a gazing position on the computer screen. If user blinks or stares at a certain position for a while, message is sent to computer. Experimental results show the center of mass is robust against glint effects, and detecting error was 7.1%. and 4.85% in vertical and horizontal direction, respectively. To adjust detailed movement of a mouse takes 0.8 sec more. The 98% of blinking is detected successfully and 94% of clicking detection is resulted.

  • PDF

Eye-Gaze Interaction On Computer Screen Evaluation

  • Ponglangka, Wirot;Sutakcom, Udom
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.84-88
    • /
    • 2005
  • Eye gaze positions evaluation on computer screen uses the human eye as an input device for computer systems is that it gives low resolution. We proposes a method to determine the eye gaze positions on the screen by using two-eye displacements as the information for mapping, and the perspective projection is applied to map the displacements to a position on a computer screen. The experiments were performed on 20 persons and a 17-inch monitor is used with the screen resolution of 1024x768 pixels. Gaze detection error was 3.18 cm (RMS error), with screen is divided into 5x8 and 7x10 positions on a 17-inch monitor. The results showed 100% and 96% correction, respectively.

  • PDF

A Novel Integration Scheme for Audio Visual Speech Recognition

  • Pham, Than Trung;Kim, Jin-Young;Na, Seung-You
    • 한국음향학회지
    • /
    • 제28권8호
    • /
    • pp.832-842
    • /
    • 2009
  • Automatic speech recognition (ASR) has been successfully applied to many real human computer interaction (HCI) applications; however, its performance tends to be significantly decreased under noisy environments. The invention of audio visual speech recognition (AVSR) using an acoustic signal and lip motion has recently attracted more attention due to its noise-robustness characteristic. In this paper, we describe our novel integration scheme for AVSR based on a late integration approach. Firstly, we introduce the robust reliability measurement for audio and visual modalities using model based information and signal based information. The model based sources measure the confusability of vocabulary while the signal is used to estimate the noise level. Secondly, the output probabilities of audio and visual speech recognizers are normalized respectively before applying the final integration step using normalized output space and estimated weights. We evaluate the performance of our proposed method via Korean isolated word recognition system. The experimental results demonstrate the effectiveness and feasibility of our proposed system compared to the conventional systems.

감정 상태에 따른 컴패니언 로봇의 인터랙션 디자인 : 공감 인터랙션을 중심으로 (A Study on Interaction Design of Companion Robots Based on Emotional State)

  • 오예전;신윤수;이지항;김진우
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권7호
    • /
    • pp.1293-1301
    • /
    • 2017
  • 최근 핵가족화, 개인화 등과 같은 사회구조 변화로 개인 및 사회적 문제가 대두되고 있으며, 부정적 감정 증폭으로 인해 다양한 문제의 원인이 되기도 한다. 과거에 심리적 안정감을 주는 가족 구성원의 부재는 현대인의 감정적 어려움의 대표적인 원인으로 꼽을 수 있다. 이러한 개인 및 사회적 문제를 일상생활에서 사용자와 교감하는 컴패니언 로봇의 공감 인터랙션을 통해 해결하고자 한다. 본 연구에서는 감성 로봇 프로토타입 제작을 통해 정교한 공감 인터랙션 디자인을 하였으며, 실험을 통해 연구를 진행하였다. 그 결과로 감성 로봇의 공감 인터랙션에 얼굴 인터랙션이 크게 영향을 미치며, 부정 감성에서 인터랙션이 로봇의 공감도를 높이는 것을 확인할 수 있었다. 결과적으로 본 연구는 감성 로봇을 제작하여 더욱 정교한 인터랙션을 구현하였다는 점과, 실험 결과를 바탕으로 로봇의 공감 인터랙션 디자인 가이드라인을 제시하였다는 점에서 이론적 및 실용적 의의가 있다.

SDG(Single Display Groupware) 기반의 협동학습 교육퍼즐 시스템 구현에 관한 연구 (An Implementation of Education Puzzle for Cooperative Learning System Based on SDG(Single Display Groupware))

  • 김명관;박한진
    • 컴퓨터교육학회논문지
    • /
    • 제11권6호
    • /
    • pp.95-102
    • /
    • 2008
  • 본 연구에서 SDG를 사용한 교육 퍼즐구현을 통하여 협동학습을 컴퓨터교육에 적용하였다. SDG란 하나의 컴퓨터 디스플레이에 다중 입력장치로 협동적인 작업을 할 수 있는 시스템을 말한다. SDG 기반의 협동학습을 통해 학습자들은 협동 학습을 수행하게 된다. SDG를 이용한 협동학습이 단일 디바이스를 이용한 개별 학습보다 우월하다는 기존의 연구가 있다. 이를 바탕으로 협동학습을 이용한 퍼즐게임을 구현하였다.

  • PDF

Application of Motion Analysis to User Participation Behavior Model: Focused on Interactive Space

  • Kwon, Jieun;Nah, Ken
    • 대한인간공학회지
    • /
    • 제33권3호
    • /
    • pp.175-189
    • /
    • 2014
  • Objective: The goal of this research is to develop new user behavior model using user motion analysis with microscopic perspective for attracting user's participation in interactive space. Background: The interactive space is 'human's place', which is made up of complex elements of digital virtual space and traditional analog and physical environment based on human-computer interaction system. Human behavior has changed in it at the same time. If the user couldn't make participation in interaction, the purpose of the system is not met, which reduces its effect. Therefore, we need to focus on interactive space that is potential future direction from a new point of view. Method: For this research, we would discuss and study fields of interactive space; (1) finding definition of interactive space and studying background of theory about it. (2) providing base of user behavior model with study of user's context that is to be user information and motion. (3) examining user motion, classify basic motion type and making user participation behavior model in phases. Results: Through this process, user's basic twenty motions which are systematized are taken as a standard for analysis of interaction process and participation in interactive space. Then, 'NK-$I^5$ (I Five)' model is developed for user participation types in interactive space. There are five phases of user participation behavior: Imperception, Interest, Involvement, Immersion, and Influence. In this analysis, three indicators which are time, motion types, and user relationship are found to be related to participation. Conclusion: The capabilities and limitation of this research is discussed to attract user participation. This paper focuses especially on contribution of design to lead user's participation in interactive system and expectation to help adapt to user centered design of various interactive space with new aspect of user behavior research. Application: The results of the 'NK-$I^5$ (I Five)' model might help to realize successful interactive space based on user centered design.

휴먼-로봇 상호작용을 위한 비전 기반3차원 손 제스처 인식 (Vision-based 3D Hand Gesture Recognition for Human-Robot Interaction)

  • 노명철;장혜민;강승연;이성환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.421-425
    • /
    • 2006
  • 최근 들어서 휴머노이드 로봇을 비롯한 로봇에 대하여 관심이 증대되고 있다. 이에 따라, 외모를 닮은 로봇 뿐 만 아니라, 사람과 상호 작용을 할 수 있는 로봇 기술의 중요성이 부각되고 있다. 이러한 상호 작용을 위한 효율적이고, 가장 자연스러운 방법 중의 하나가 비전을 기반으로 한 제스처 인식이다. 제스처를 인식하는데 있어서 가장 중요한 것은 손의 모양과 움직임을 인식하는3차원 제스처 인식이다. 본 논문에서는 3차원 손 제스처를 인식하기 위하여3차원 손 모델 추정 방법과 명령형 제스처 인식 시스템을 소개하고, 수화, 지화 등으로의 확장성을 위한 프레임워크를 제안한다.

  • PDF

Design and Implementation of NUI-based Athletic Scene Generation System

  • Choi, Jong-In
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권1호
    • /
    • pp.115-120
    • /
    • 2019
  • In this paper, we propose a system and an intuitive interface that can create an athletic scene among athletes. We allow you to enter motion as if you were playing a game, so that the user's action becomes the player's action. The user can take various actions in front of the motion sensor and control the object flying to him. When a user specifies an opponent to pass or attack, and takes appropriate action in front of the motion sensor, the movement trajectory of the object is automatically generated by the physical optimization technique in accordance with the motion. In this way, you can create scenes where multiple players play together in a virtual environment. The method of this paper will be very useful for rapid prototyping for cinematic trailers of based on athletics games or animations.