• Title/Summary/Keyword: 손 기반 인터페이스

Search Result 163, Processing Time 0.02 seconds

Design of an Intelligent Paper-like Annotation Interface (종이책 환경과 유사한 지능형 Annotation 인터페이스 설계)

  • 손원성;김재경;최윤철;임순범
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05c
    • /
    • pp.507-511
    • /
    • 2002
  • 전자문서 환경에서의 annotation은 종이 문서 환경에 비하여 다양한 장점을 제공하기 때문에, 현재 웹 및 hand-held 환경을 기반으로 하는 여러 분야에서 응용 및 적용되고 있다. 한편 annotation 인터페이스 중 paper-like annotation interface (PLAi)는 직관적인 자유형 마킹 생성 및 최소의 작업 오버헤드 보장 둥의 장점을 제공한다. 그러나 현재의 annotation 시스템에서는 대부분 PLAi를 제외한 서로 다른 인터페이스를 사용하고 있으며 이는 모든 환경에 PLAi을 적용하기에는 기술적 혹은 사용성 측면에서 다수의 부정적인 요인을 포함하기 때문이다. 따라서 본 연구에서는 데스크탑 및 hand-held 등과 같은 다양한 환경에서도 적용 가능한 PLAi를 제안하고자 하며, 특히 자유형 마킹에 대한 인식 및 보정 인터랙션이 지원되는 지능형 annotation 입력 인터페이스를 설계한다. 그 결과 제안된 인터페이스의 인터랙션 기법들은 다양한 환경에서도 PLAi의 장점을 최대한 지원할 수 있는 동시에, e-Learing, 전자교범, 온라인 교정, 전자도서관, 전자책 등의 분야에 적용 가능하다.

  • PDF

Vision based Fast Hand Motion Recognition Method for an Untouchable User Interface of Smart Devices (스마트 기기의 비 접촉 사용자 인터페이스를 위한 비전 기반 고속 손동작 인식 기법)

  • Park, Jae Byung
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.49 no.9
    • /
    • pp.300-306
    • /
    • 2012
  • In this paper, we propose a vision based hand motion recognition method for an untouchable user interface of smart devices. First, an original color image is converted into a gray scaled image and its spacial resolution is reduced, taking the small memory and low computational power of smart devices into consideration. For robust recognition of hand motions through separation of horizontal and vertical motions, the horizontal principal area (HPA) and the vertical principal area (VPA) are defined respectively. From the difference images of the consecutively obtained images, the center of gravity (CoG) of the significantly changed pixels caused by hand motions is obtained, and the direction of hand motion is detected by defining the least mean squared line for the CoG in time. For verifying the feasibility of the proposed method, the experiments are carried out with a vision system.

Development of a Hand Shape Editor for Sign Language Expression (수화 표현을 위한 손 모양 편집 프로그램의 개발)

  • Oh, Young-Joon;Park, Kwang-Hyun;Bien, Zeung-Nam
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.44 no.4 s.316
    • /
    • pp.48-54
    • /
    • 2007
  • Hand shape is one of important elements in Korean Sign Language (KSL), which is a communication method for the deaf. To express sign motion in a virtual reality environment based on OpenGL, we need an editor which can insert and modify sign motion data. However, it is very difficult that people, who lack knowledge of sign 1anguage, exactly edit and express hand shape using the existing editors. We also need a program to efficiently construct and store the hand shape data because the number of data is very large in a sign word dictionary. In this paper we developed a KSL hand shape editor to easily construct and edit hand shape by a graphical user interface (GUI), and to store it in a database. Hand shape codes are used in a sign word editor to synthesize sign motion and decreases total amount of KSL data.

Web-based Animation Interface for User Participation (사용자 참여를 위한 웹 기반 애니메이션 인터페이스)

  • Sohn, Ei-Sung;Sohn, Won-Sung;Lim, Soon-Bum;Choy, Yoon-Chul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06b
    • /
    • pp.130-134
    • /
    • 2008
  • 애니메이션은 이미지나 텍스트와 같이 정적인 방식에 비해 효과적인 정보전달방식이다. 이는 간단한 표현이라도 동적인 움직임으로 구성될 때 더욱 흥미를 유발하며 높은 전달력을 가지게 되기 때문이다. 그러나 현재 웹 환경에서의 애니메이션 제작 방식은 전문적인 제작 도구를 사용하는데 국한되어 있어, 일반적인 사용자들의 참여를 통한 활용에는 적합하지 못한 방식이다. 본 논문은 사용자의 의도를 쉽고 직관적으로 반영할 수 있는 애니메이션 생성 인터페이스 기법을 제안하며, 실제 웹 환경에서 정보의 공유와 의사전달에 있어 직관적이고 쉬운 방식으로 애니메이션을 활용하는 방안을 제시한다.

  • PDF

A Deep Learning-based Hand Gesture Recognition Robust to External Environments (외부 환경에 강인한 딥러닝 기반 손 제스처 인식)

  • Oh, Dong-Han;Lee, Byeong-Hee;Kim, Tae-Young
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.14 no.5
    • /
    • pp.31-39
    • /
    • 2018
  • Recently, there has been active studies to provide a user-friendly interface in a virtual reality environment by recognizing user hand gestures based on deep learning. However, most studies use separate sensors to obtain hand information or go through pre-process for efficient learning. It also fails to take into account changes in the external environment, such as changes in lighting or some of its hands being obscured. This paper proposes a hand gesture recognition method based on deep learning that is strong in external environments without the need for pre-process of RGB images obtained from general webcam. In this paper we improve the VGGNet and the GoogLeNet structures and compared the performance of each structure. The VGGNet and the GoogLeNet structures presented in this paper showed a recognition rate of 93.88% and 93.75%, respectively, based on data containing dim, partially obscured, or partially out-of-sight hand images. In terms of memory and speed, the GoogLeNet used about 3 times less memory than the VGGNet, and its processing speed was 10 times better. The results of this paper can be processed in real-time and used as a hand gesture interface in various areas such as games, education, and medical services in a virtual reality environment.

Multi-modal Sense based Interface for Augmented Reality in Table Top Display (테이블 탑 디스플레이 기반 증강현실 구현을 위한 다중 감각 지원 인터페이스)

  • Jeong, Jong-Mun;Yang, Hyung-Jeong;Kim, Sun-Hee
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.5
    • /
    • pp.708-716
    • /
    • 2009
  • Applications which are implemented on Table Top Display are controlled by hands, so that they support an intuitive interface to users. Users feel the real sense when they interact on the virtual scene in Table Top Display. However, most of conventional augmented reality applications on Table Top Display satisfy only visual sense. In this paper, we propose an interface that supports multi-modal sense in that tactile sense is utilized for augment reality by vibrating a physical control unit when it collides to virtual objects. Users can feel the collision in addition to visual scene. The proposed system facilitates tactile augmented reality through an air hockey game. A physical control unit vibrates when it receives virtual collision data over wireless communication. Since the use of tabletop display environment is extended with a tactile sense based physical unit other than hand, it provides a more intuitive interface.

  • PDF

A 3D User Interface for Mobile SNS Applications (모바일 소셜 네트워크 서비스 응용프로그램을 위한 3D 사용자 인터페이스)

  • Jeong, Han-Gil;Jeon, Jae-Woong;Sohn, Ei-Sung;Choy, Yoon-Chul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06d
    • /
    • pp.24-26
    • /
    • 2012
  • 오늘날 전 세계적으로 스마트폰 사용자가 증가하면서 SNS(Social Network Service)를 활용한 어플리케이션의 이용이 더욱 보편화 되고 있는 추세이다. 이에 따라 모바일 환경의 SNS 어플리케이션에 맞는 사용자 인터페이스에 대한 수요 역시 증가하고 있다. 따라서 본 논문에서는 SNS 어플리케이션에 적용할 수 있는 사용자에게 더 높은 몰입감과 편의성을 제공하기 위한 직관적인 3D 사용자 인터페이스를 제안한다. 제안하는 시스템은 Facebook Open API를 기반으로 소셜 네트워크 구성원의 프로필 사진을 3D 방식으로 배치하는 인터페이스 기법과 효과를 구현하며, 이를 통해 사용자의 SNS 어플리케이션 사용성을 제고한다.

Design of USB Interface Mechanism for Development of Embedded System based on ARM Processors (ARM 프로세서 기반 임베디드 시스템 개발을 위한 USB 인터페이스 메커니즘 설계)

  • Rim, Seong-Rak;Kim, Hyun-Ki;Son, Tae-Yeong;Yu, Young-Chang
    • Proceedings of the KAIS Fall Conference
    • /
    • 2011.05a
    • /
    • pp.447-450
    • /
    • 2011
  • 임베디드 시스템 개발과정에서 호스트 시스템과 임베디드 시스템 사이를 연결하는 인터페이스는 매우 중요하다. 본 논문에서는 최근 널리 사용되고 있는 USB 인터페이스 메커니즘을 이용한 두 시스템 사이의 인터페이스 메커니즘 설계를 제시한다. 제시한 메커니즘의 타당성을 검토하기 위하여 Windows 7 PC와 ARM 프로세서가 탑재된 EZ-AT7 임베디드 시스템 사이의 정상적인 데이터 송 수신 동작 상태를 확인하였다.

  • PDF

A Study on Gesture Interface through User Experience (사용자 경험을 통한 제스처 인터페이스에 관한 연구)

  • Yoon, Ki Tae;Cho, Eel Hea;Lee, Jooyoup
    • Asia-pacific Journal of Multimedia Services Convergent with Art, Humanities, and Sociology
    • /
    • v.7 no.6
    • /
    • pp.839-849
    • /
    • 2017
  • Recently, the role of the kitchen has evolved from the space for previous survival to the space that shows the present life and culture. Along with these changes, the use of IoT technology is spreading. As a result, the development and diffusion of new smart devices in the kitchen is being achieved. The user experience for using these smart devices is also becoming important. For a natural interaction between a user and a computer, better interactions can be expected based on context awareness. This paper examines the Natural User Interface (NUI) that does not touch the device based on the user interface (UI) of the smart device used in the kitchen. In this method, we use the image processing technology to recognize the user's hand gesture using the camera attached to the device and apply the recognized hand shape to the interface. The gestures used in this study are proposed to gesture according to the user's context and situation, and 5 kinds of gestures are classified and used in the interface.

A Development of the Next-generation Interface System Based on the Finger Gesture Recognizing in Use of Image Process Techniques (영상처리를 이용한 지화인식 기반의 차세대 인터페이스 시스템 개발)

  • Kim, Nam-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.15 no.4
    • /
    • pp.935-942
    • /
    • 2011
  • This study aims to design and implement the finger gesture recognizing system that automatically recognizes finger gestures input through a camera and controls the computer. Common CCD cameras were redesigned as infrared light cameras to acquire the images. The recorded images go through the pre-process to find the hand features, the finger gestures are read accordingly, and an event takes place for the follow-up mouse controlling and presentation, and finally the way to control computers is suggested. The finger gesture recognizing system presented in this study has been verified as the next-generation interface to replace the mouse and keyboard for the future information-based units.