• Title/Summary/Keyword: 상호작용 인터페이스

Search Result 667, Processing Time 0.033 seconds

Context-assisted Virtual Environment Navigation using Tangible User Interface (감각형 인터페이스를 활용한 컨텍스트 기반의 가상환경 네비게이션)

  • Park, Young-Min;Woo, Woon-Tack
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.626-631
    • /
    • 2006
  • 가상현실 시스템에서의 가장 기본적인 상호작용은 사용자가 원하는 위치와 방향으로 시야를 이동하는 네비게이션이다. 기존의 관련 연구들은 가상환경 네비게이션의 고전적인 문제인 'lost-in-cyberspace'에 대한 명확한 해결책을 제시하지 못하고 있다. 또한, 직관적이고 사용방법이 쉬운 상호작용에 대한 연구가 충분히 이루어지지 않았다. 본 논문에서는 증강현실 기반의 감각형 오브젝트를 이용한 네비게이션 인터페이스 시스템과, 사용자의 컨텍스트를 활용한 네비게이션 방법을 제안한다. 테이블의 표면에는 프로젝터를 이용한 후면 영사를 통해 가상환경의 지도와 사용자를 위한 네비게이션 정보가 보여진다. 사용자는 테이블 공간에서 카메라를 이용해 추적되는 감각형 오브젝트를 조작함으로써 가상환경을 네비게이션 할 수 있다. 또한, 사용자의 관심 지역 및 가상공간의 중요 지역 등의 컨텍스트는 사용자의 간단한 오브젝트 조작 정보와 결합되어 이동 경로 생성에 이용된다. 제안된 시스템은 본 연구실에서 제작된 Responsive Multimedia System (RMS) 의 인터페이스 시스템으로 연동되어 실험을 수행하였다. 제안된 시스템 및 네비게이션 기법은 사용자에게 전체 가상환경에 대한 인지력을 향상시키고, 직관적인 인터페이스를 제공하며, 최소한의 조작으로 만족스러운 네비게이션을 제공한다.

  • PDF

Gesture-Based Display Control Using Nature Interaction System (자연스러운 상호작용 시스템을 이용한 동작 기반 디스플레이 제어)

  • Kim, Sung-Woo;Jin, Moon-Sup;Uhm, Tae Young;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.387-389
    • /
    • 2011
  • 본 논문에서는 원거리에서 디스플레이를 제어하는 인터페이스를 제안한다. 제안하는 인터페이스는 사용자의 얼굴과 손을 관심 영역으로 규정하고, 이를 추적하여 사용자의 특정 동작을 인터페이스 입력으로 사용한다. 사용자에게 익숙한 손 동작을 인터페이스 입력으로 제공하고, 추가적인 장비를 강요하지 않는 비전 기반의 상호작용 방법을 이용하기 때문에, 사용자는 별도의 훈련 과정 없이 편하게 디스플레이를 제어할 수 있다. 빠르고 정확하게 사용자의 손을 검출하기 위해서 적외선 영상과 컬러 영상을 혼합하는 다중 비전 기반 방법을 사용하며, 손가락 끝 검출을 통해서 손가락 동작을 인식 한다. 인식된 동작을 원거리 통신방법을 이용하여 실제 디스플레이에 적용하여 효용성을 검증 한다.

  • PDF

Visualization of interface description for component reuse using UML (UML을 이용한 컴포넌트 재사용을 위한 인터페이스 명세 시각화 방법)

  • 이건화;김강태;이경환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.578-580
    • /
    • 1999
  • 컴포넌트 재사용을 위해서 필요한 정보를 제공하는 일반적인 방법으로 인터페이스를 명세한다. 그러나 일반적인 인터페이스 명세는 단순히 외부적인 관점에서만 표현하므로, 컴포넌트간의 상호작용과 협력관계를 나타내지 못한다. 그러므로 컴포넌트 개선(evolution) 및 합성(composition)시에 발생할 수 있는 문제점(conflict)에 대한 충분한 정보를 제공할 수 없다. 본 논문에서는 외부적으로 요구되는 컴포넌트 인터페이스뿐만 아니라 각 컴포넌트 사이에 발생하는 상호작용을 나타낼 수 있는 방법으로 기존의 계약(contact) 개념을 바탕으로 컴포넌트에 적합하도록 변형하여 이를 시각화하였다. 시각화를 위해서 일반적인 산업표준으로 자리잡아가고 있는 UML의 확장 메커니즘의 하나인 stereotype을 이용하여 기본 컴포넌트 계약 재사용 타입을 나타내고 정의하였다. 그리고 재사용 타입간의 관계를 통하여 컴포넌트 개선 및 합성시에 발생할 수 있는 문제점을 지적하고 이를 감지하는 방법을 제공했다.

  • PDF

An Integrated User Interface for Visualizing User Data Using VR Juggler and OpenSceneGraph (데이터 가시화를 위한 VR Juggler와 OpenSceneGraph를 이용한 통합 사용자 인터페이스)

  • Hur, YoungJu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.455-458
    • /
    • 2011
  • 컴퓨터에서 생성된 시뮬레이션 결과는 가시화(Visualization)라는 과정을 통해 인간이 직관적으로 해석하기 쉬운 형태로 가공된다. 사람이 직관적으로 이해하기 어려운 수치의 나열로 구성돼 있던 데이터가 컴퓨터 그래픽스 기술의 적용을 통해 보다 쉽게 분석할 수 있는 형태로 변형되는 것이다. 최근에는 이런 시뮬레이션 데이터의 크기와 복잡도가 점점 증가하고 있는 추세로, 이런 추세에 따라 고해상도 디스플레이 장치나 몰입형 가상현실 장치의 필요성은 점점 증가하고 있다. 이런 이유로 클러스터 시스템을 이용한 고해상도의 디스플레이 장치에서 해당 시스템에 대한 전문적인 지식을 갖추지 않은 일반 연구자가 상호작용할 수 있는 사용자 인터페이스에 대한 필요성도 높아지고 있다. 본 논문에서는 고해상도 디스플레이 장치에서 데이터를 가시화하는 프레임워크와 그 프레임워크에서 사용하는 통합 환경 인터페이스를 소개하기로 한다. 이 인터페이스는 VR Juggler와 OSG(OpenSceneGraph)를 기반으로 하며, 다양한 형태의 디스플레이 장치와 몰입형 가상현실 환경에서 시뮬레이션 데이터와 실시간 상호작용을 통한 해석을 수행하는데 필요한 기반 환경을 제공한다.

Implementation of VR Interface using 3D Visual Information (3차원 시각정보를 이용한 VR 인터폐이스 구현)

  • 오재용;이칠우
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.165-168
    • /
    • 2001
  • 최근 인간과 컴퓨터간의 원활한 상호작용의 필요성이 커짐에 따라 인간의 행동을 분석하는 연구가 많이 수행되고 있다. 기존의 시스템은 인간과 컴퓨터의 상호작용을 위해 3차원 센서 등의 별도의 장치를 필요로 한다. 그러나, 이러한 시스템은 원활한 상호작용이라는 관점에서 볼 때 자연스럽지 못하게 되고, 또한 시스템의 제약이 많기 때문에 다양한 시스템으로의 응용이 어려워지게 된다. 본 논문에서는 보다 자연스러운 인간과 컴퓨터의 상호작용을 위해서 센서가 아닌 카메라를 이용하여 대상을 입력받고, 이를 분석함으로써 대상이어떠한 상태이고, 어떤 동작을 취하고 있는지를 파악하여, 보다 자연스러운 인간과 컴퓨터간의 인터페이스를 구현하고자 한다.

  • PDF

Hand Gesture Recognition Method based on the MCSVM for Interaction with 3D Objects in Virtual Reality (가상현실 3D 오브젝트와 상호작용을 위한 MCSVM 기반 손 제스처 인식)

  • Kim, Yoon-Je;Koh, Tack-Kyun;Yoon, Min-Ho;Kim, Tae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1088-1091
    • /
    • 2017
  • 최근 그래픽스 기반의 가상현실 기술의 발전과 관심이 증가하면서 3D 객체와의 자연스러운 상호작용을 위한 방법들 중 손 제스처 인식에 대한 연구가 활발히 진행되고 있다. 본 논문은 가상현실 3D 오브젝트와의 상호작용을 위한 MCSVM 기반의 손 제스처 인식을 제안한다. 먼저 다양한 손 제스처들을 립모션을 통해 입력 받아 전처리를 수행한 손 데이터를 전달한다. 그 후 이진 결정 트리로 1차 분류를 한 손 데이터를 리샘플링 한 뒤 체인코드를 생성하고 이에 대한 히스토그램으로 특징 데이터를 구성한다. 이를 기반으로 MCSVM 학습을 통해 2차 분류를 수행하여 제스처를 인식한다. 실험 결과 3D 오브젝트와 상호작용을 위한 16개의 명령 제스처에 대해 평균 99.2%의 인식률을 보였고 마우스 인터페이스와 비교한 정서적 평가 결과에서는 마우스 입력에 비하여 직관적이고 사용자 친화적인 상호작용이 가능하다는 점에서 게임, 학습 시뮬레이션, 설계, 의료분야 등 많은 가상현실 응용 분야에서의 입력 인터페이스로 활용 될 수 있고 가상현실에서 몰입도를 높이는데 도움이 됨을 알 수 있었다.

MPEG-4 Content Authoring Framework for Digital Broadcasting (디지털 방송용 MPEG-4 컨텐트 저작 프레임웍)

  • 이동훈;김희선;차경애;김상욱;김경덕
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.203-205
    • /
    • 2000
  • 디지털 방송용 멀티미디어 컨텐트는 객체 기반의 사용자 상호작용 지원 및 실시간스트리밍 기능을 가질 필요가 있다. 본 논문에서는 객체 기반 상호작용을 지원하는 디지털 방송용 MPEG-4 컨텐트 생성을 위한 저작 모델과 제안된 모델을 적용한 저작 도구를 소개한다. 특히 컨텐트의 상호 운용성을 지원하기 위해서 특정 파일 포맷에 독립적인 저작 인터페이스와 컨텐트 컴포지션 트리를 제안한다. 정의된 트리는 멀티미디어 디스크립션의 한 표준인 MPEG-4 표준안에서 제안한 장면 디스트립션 형식인 BIFS를 포함하여 다양한 포맷의 컨텐트 생성을 지원하고 기능에 대한 확장이 용이하다. 그리고 이를 응용한 저작 도구에서는 객체 기반 상호작용을 지원하는 방송용 컨텐트를 쉽게 생성할 수 있도록 효과나 템플릿 등 고급-수준의 시각적인 사용자 인터페이스를 제공한다.

  • PDF

A study on Materialization of Virtual Reality for Environmental Interface (환경인터페이스를 통한 가상의 현실화에 관한 연구)

  • Kang, Yoon Jeong
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.6
    • /
    • pp.545-551
    • /
    • 2023
  • In this paper, we present the environment interface as a method of bringing the virtual environment in the interface to reality, and explain the experience of the virtual that can be sensed in the real environment. Expanded experience by discussing the transparency of the interface and interactivity that expands synesthesia as a condition for an interface to express virtual without distinction from the real environment, and establishing a discussion on the composition and inevitability of an environment interface that satisfies these conditions The environment interface is discussed as a tool for realizing the interface that extends from the real environment, the expansion of cognition into the environment by interaction, and the virtual for immersion into the environment due to these conditions.

A Hand Gesture Recognition System for Interactive Virtual Environment (인터액티브 가상 환경을 위한 손 제스처 인식 시스템)

  • 조오영;김형곤;고성제;안상철
    • Journal of the Korean Institute of Telematics and Electronics S
    • /
    • v.36S no.4
    • /
    • pp.70-82
    • /
    • 1999
  • 본 논문에서는 복잡한 영상에서 추출해낸 손 영역으로부터 제스처를 인식하여 인간과 컴퓨터의 상호작용(HCI, Human-Computer Interaction)을 위한 보다 자연스러운 인터페이스를 제공한다. 제안하는 방법은 정규화된 RGB 색상 공간에 정의한 피부색의 가우시안 분포를 이용해 조명의 변화나 개인의 차이에도 안정적으로 손 영역을 추출하며, 배경에 대한 상대적인 움직임을 이용해 복잡한 영상에서도 효과적으로 손 영역을 추출해 낸다. 추출된 손 영역은 RBF(Radial Basis Function) 신경망을 이용해 각 제스처로 인식된다. 가상 환경과의 상호작용을 제공하기 위해 두 종류의 기본적인 정적 제스처들을 정의하며 간단한 구문론적 규칙을 사용해 하나 이상의 인식 결과들을 조합함으로써 적은 수의 제스처들만으로 보다 효율적이고 다양한 상호작용이 가능하게 한다. 제안하는 시스템은 TM320C80 DSP 칩을 사용하여 구현되었으며 300×240 영상을 12Hz로 처리함으로써 빠른 속도로 가상 환경의 인터페이스를 제공한다.

  • PDF

A Design and Development of Augmented Reality Based Video Guestbook System (증강현실 기반의 비디오 방명록 시스템 설계 및 개발)

  • Kim, Namkil;Park, Heechan;Park, Kyoung Shin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.415-416
    • /
    • 2009
  • 최근 증강현실 기술이 발전하면서 다양한 환경에서의 상호작용을 위한 증강현실 기반 사용자 인터페이스가 활발히 연구되고 있다. 본 논문에서는 증강현실 기반의 사용자 인터페이스를 이용하여 전시회에서 사용자의 참여를 유도하고 다양한 상호작용을 제공하는 비디오 방명록 시스템을 제안한다. 이 시스템은 기존의 텍스트나 음성 서비스 중심적인 전시장 안내 시스템과는 달리 증강현실 기술과 사용자의 참여와 기록을 남길 수 있도록 유도하는 상호작용 방법을 제시한다. 본 논문에서는 증강현실 기반의 동영상 방명록 시스템의 설계와 구현을 설명하고 추후 연구방향을 논한다.