• Title/Summary/Keyword: 직관적 제어

Search Result 192, Processing Time 0.024 seconds

Implementation of a Smartphone Interface for a Personal Mobility System Using a Magnetic Compass Sensor and Wireless Communication (지자기 센서와 무선통신을 이용한 PMS의 스마트폰 인터페이스 구현)

  • Kim, Yeongyun;Kim, Dong Hun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.25 no.1
    • /
    • pp.48-56
    • /
    • 2015
  • In the paper, a smartphone-controlled personal mobility system(PMS) based on a compass sensor is developed. The use of a magnetic compass sensor makes the PMS move according to the heading direction of a smartphone controlled by a rider. The proposed smartphone-controlled PMS allows more intuitive interface than PMS controlled by pushing a button. As well, the magnetic compass sensor makes a role in compensating for the mechanical characteristics of motors mounted on the PMS. For adequate control of the robot, two methods: absolute and relative direction methods based on the magnetic compass sensor and wireless communication are presented. Experimental results show that the PMS is conveniently and effectively controlled by the proposed two methods.

Virtual Screen Interface using Motion Vector in Mobile Environment (영상 기반의 움직임 벡터를 이용한 모바일 환경에서의 가상 화면 제어 인터페이스)

  • Kim, Dong-Chul;Lim, Sang-Oh;Han, Tack-Don
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.993-998
    • /
    • 2006
  • 본 논문은 기존의 휴대폰과 같은 모바일 환경에서의 제약적인 화면을 극복하기 위하여 가상의 스크린을 만들고 이를 사용자가 손쉽게 제어할 수 있는 인터페이스에 대해서 제안하였다. 기존의 방법은 버튼을 반복적으로 눌러 스크롤 했던 것에 반해 제안된 인터페이스는 휴대폰 카메라를 통해 입력되는 영상 신호를 기반으로 움직임 벡터 값을 추출하고 이를 통하여 사용자가 움직이는 방향대로 화면을 움직여 줌으로서 사용자에게 편리하고 직관적인 인터페이스를 제공함으로서 휴대폰의 제한적인 화면을 극복 하였다. 모바일 환경에서의 움직임 벡터 값을 추출하기 위한 알고리즘을 제안하고, 제한적인 화면으로 인하여 정보 표현에 한계가 있던 점을 극복하여 모바일 환경에서의 새로운 인터페이스를 제안하였다.

  • PDF

Remote Communication based on 3D Whiteboard (3차원 화이트보드에 기반한 원격 통신)

  • Lee, Jin-Suk;Choe, Chong-Youn
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1019-1024
    • /
    • 2006
  • 각종 온라인 문화가 발달하는 가운데 원거리에서 의사 소통을 가능하게 하는 도구에 관한 관심도 커지게 되었다. 이러한 도구 중에서 2 차원 그림 저작을 지원하는 도구에 기인하여, 본 논문에서는 3 차원 모델을 만들어 내고 조작함으로써 원거리의 사용자와 의사 소통할 수 있는 시스템을 제안한다. 실시간에 수행되는 시스템의 특성상, 3 차원 모델링은 간편하고 직관적으로 수행될 수 있도록 하며, 병행 수행 제어를 고려하여 구현한다. 본 시스템에서의 모델링은 주어진 primitive를 이용하거나 사전에 제작된 mesh를 불러오는 것으로 수행할 수 있으며, 사용자가 직접 그려주는 간략한 외곽선 스케치를 기반으로 하여 3 차원 모델을 생성할 수도 있다. 본 시스템에서 모델의 생성, 제어 등의 모든 연산은 다양한 병행 수행 제어 전략을 이용하여 실시간에 수행된다.

  • PDF

Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding (LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.2
    • /
    • pp.117-124
    • /
    • 2007
  • This paper describes methodology that enables animators to create the facial expression animations and to control the facial expressions in real-time by reusing motion capture datas. In order to achieve this, we fix a facial expression state expression method to express facial states based on facial motion data. In addition, by distributing facial expressions into intuitive space using LLE algorithm, it is possible to create the animations or to control the expressions in real-time from facial expression space using user interface. In this paper, approximately 2400 facial expression frames are used to generate facial expression space. In addition, by navigating facial expression space projected on the 2-dimensional plane, it is possible to create the animations or to control the expressions of 3-dimensional avatars in real-time by selecting a series of expressions from facial expression space. In order to distribute approximately 2400 facial expression data into intuitional space, there is need to represents the state of each expressions from facial expression frames. In order to achieve this, the distance matrix that presents the distances between pairs of feature points on the faces, is used. In order to distribute this datas, LLE algorithm is used for visualization in 2-dimensional plane. Animators are told to control facial expressions or to create animations when using the user interface of this system. This paper evaluates the results of the experiment.

Efficient Construction of Over-approximated CFG on Esterel (Esterel에서 근사-제어 흐름그래프의 효율적인 생성)

  • Kim, Chul-Joo;Yun, Jeong-Han;Seo, Sun-Ae;Choe, Kwang-Moo;Han, Tai-Sook
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.11
    • /
    • pp.876-880
    • /
    • 2009
  • A control flow graph(CFG) is an essential data structure for program analyses based on graph theory or control-/data- flow analyses. Esterel is an imperative synchronous language and its synchronous parallelism makes it difficult to construct a CFG of an Esterel program. In this work, we present a method to construct over-approximated CFGs for Esterel. Our method is very intuitive and generated CFGs include not only exposed paths but also invisible ones. Though the CFGs may contain some inexecutable paths due to complex combinations of parallelism and exception handling, they are very useful for other program analyses.

Layered Object and Script Language Model for Avatar Behavior Scenario Generation (아바타 행위 시나리오 생성을 위한 계층적 객체 및 스크립트 언어 모델)

  • Kim, Jae-Kyung;Sohn, Won-Sung;Lim, Soon-Bum;Choy, Yoon-Chul
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.1
    • /
    • pp.61-75
    • /
    • 2008
  • A script language, which represents and controls avatar behaviors in a natural language style, is especially remarkable, because it can provide a fast and easy way to develop an animation scenario script. However, the studies that consider avatar behavior interactions with various virtual objects and intuitive interface techniques to design scenario script have been lack. Therefore, we proposed a context-based avatar-object behavior model and layered script language. The model defines context-based elements to solve ambiguity problems that occur in abstract behavior interface and it provides user interface to control avatar in the object-based approach. Also, the proposed avatar behavior script language consisted of a layered structure that represents domain user interface, motion sequence, and implement environment information at each level. Using the proposed methods, the user can conveniently and quickly design an avatar-object behavior scenario script.

  • PDF

The Motion Control of the Hand and Arm with KINECT based Robot System (KINECT를 이용한 손가락 움직임 인식 및 로봇핸드 제어)

  • Jung, Ungyeol;In, Chi-Hyeon;Cho, Jae-Min;Lee, Jun-Hyuk;Lee, Young-Jun
    • Proceedings of The KACE
    • /
    • 2017.08a
    • /
    • pp.197-199
    • /
    • 2017
  • 재난 상황이나 우주 공간과 같은 환경에서는 인간이 직접 작업을 수행하기가 매우 어렵다. 따라서 이러한 환경에서 인명 구조나 탐사 등을 진행할 때에는 원격으로 제어가능한 로봇을 활용하는 것이 효과적이다. 특히 이 로봇이 인간의 움직임을 실시간으로 모방한다면 직관적이고 순발력 있는 제어가 가능해진다. 본 연구에서는 키넥트 센서를 이용해 인간의 움직임을 인식하고 이 움직임을 모방하는 로봇핸드와 로봇암을 구현하였다. 하드웨어는 TETRIX와 EV3 플랫폼을 이용하여 설계하였고, 소프트웨어는 C# 기반의 KINECT for Windows SDK와 Visual Studio 2015로 구현하였다. 본 연구에서 구현한 시스템은 재난 현장에서의 인명 구조, 복구 상황에서와 우주 공간에서의 탐사 상황에서 유용하게 사용될 수 있을 것이다.

  • PDF

Automatic Generation Script Language Base on Semantic User Annotation (사용자 시맨틱 어노테이션을 이용한 스크립트 언어 자동생성 기법)

  • Song Teuk-Seob;Shin Sung-Wook;Choy Yoon-Chul;Lim Soon-Bum
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11b
    • /
    • pp.601-603
    • /
    • 2005
  • 2D 또는 3D 아바타는 웹환경에서 효과적인 정보 전달 및 사용자의 흥미 유발등 많은 장점이 있다. 아바타의 다양한 장점을 살려 사이버 교육, 의료, 군사등 다양한 분야에서 응용되고 있다. 아바타를 스크립트 언어를 사용하여 아바타를 제어하고자 하는 연구는 일본 NHK사의 TVML를 비롯하여 AML, CML등 다양한 스크립트 언어가 개발되고 있다. 그러나 기존의 아바타 제어를 위해 개발된 스크립트 언어들은 주로 개발자를 대상으로 개발되어 있어 가상환경이나 스크립트 언어에 익숙하지 않은 최종사용자들이 스크립트 언어를 사용하여 아바타를 제어하는 데는 많은 어려움이 있다. 본 연구에서는 직관적인 인터페이스에 의해 생성된 사용자 정보에 기반하여 자동적으로 스크립트 언어가 생성될 수 있는 기법을 제안 한다.

  • PDF

A study on the interaction for screen contents manipulation (스크린 콘텐츠 제어를 위한 인터랙션에 관한 연구)

  • Kwon, SeungJoon;Lee, YoungWoon;Jee, HyungKeun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2015.07a
    • /
    • pp.208-210
    • /
    • 2015
  • 웹 기반의 스마트 교육 서비스 환경에서 스마트 스크린 단말들 간에 혹은 스마트 스크린 단말과 사용자간의 연결성 및 사용자 경험 증대를 위해서는 직관적이고 손쉬운 사용자 인터페이스 기술 등이 필요하다. 본 논문에서 제안된 방법은 단말에 내장된 웹 브라우저위로 사용자의 손가락 제스쳐 인터랙션 등을 통해 웹소켓 기반의 스마트 스크린 단말간 콘텐츠 제어 서비스를 가능하게 한다.

  • PDF

An IoT Tag and Social Message-based Device Control System (IoT 태그 및 소셜 메시지 기반 사물 제어 시스템)

  • Baek, Seung Min;Jin, Yeon Ju;Ha, Kwon Woo;Han, Sang Wook;Jeong, Jin-Woo
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.9
    • /
    • pp.550-556
    • /
    • 2017
  • Due to the rapid growth and development of Internet of Things (IoT), various devices are now accessible and controllable anytime from anywhere. However, the current IoT system requires a series of complex steps (e.g., launch an application, choose a space and thing, control the thing, etc.) to control the IoT devices; therefore, IoT suffers from a lack of efficient and intuitive methods of interacting with users. To address this problem, we propose a novel IoT control framework based on IoT tags and social messages. The proposed system provides an intuitive and efficient way to control the device based on the device ownership: 1) users can easily control the device by IoT tagging, or 2) users can send an IoT social message to the device owner to request control of the tagged device. Through the development of the prototype system, we show that the proposed system provides an efficient and intuitive way to control devices in the IoT environment.