• 제목/요약/키워드: 모션 제어

검색결과 348건 처리시간 0.033초

상호작용과 몰입 향상을 위한 홀로그램과 햅틱 환경 기반의 동작 인터페이스 (A Gesture Interface based on Hologram and Haptics Environments for Interactive and Immersive Experiences)

  • 편해걸;안향아;육성민;박진호
    • 한국게임학회 논문지
    • /
    • 제15권1호
    • /
    • pp.27-34
    • /
    • 2015
  • 본 논문은 기존 립모션 장비에 홀로그램과 햅틱 장비를 결합함으로써 향상된 몰입감과 사용 용이성을 제공할 수 있는 사용자 인터페이스를 제시한다. 립모션은 사용자 손동작의 물리적 행동이 직접 가상의 화면상에 영향을 주는 장치인데, 화면상의 가상 손모양을 제어해야 한다는 점과 가상환경에서의 영향을 사용자에게 전달할 수 없다는 한계를 가진다. 우리는 홀로그램을 립모션과 결합시켜 사용자로 하여금 실제 손과 가상 화면을 같은 공간에 배치함으로써 몰입감을 향상시킨다. 아울러 사용자의 손에 촉각을 전달할 수 있는 햅틱 장비를 장착하여 감각의 상호 작용을 실현하는 프로타입을 제시한다.

전자기기 사용이 불편한 장애인이나 노인들을 위한 새로운 인터페이스에 대한 연구 (A study of new interface system for the disabled and old people who do not well using electronic equipment)

  • 정성부;김주웅
    • 한국정보통신학회논문지
    • /
    • 제16권12호
    • /
    • pp.2595-2600
    • /
    • 2012
  • 본 연구에서는 전자기기의 사용이 불편한 장애인이나 노인들을 위한 새로운 인터페이스를 제안한다. 제안한 방식은 대부분의 전자기기에 적용되고 있는 물리적 스위치 방식의 인터페이스를 마이크와 3축 가속도 센서가 달린 헤드셋을 이용하여 음성인식과 모션인식을 통해 전자기기를 사용하는 방식이다. 음성인식은 마이크를 통해 명령이 전달되고 음성인식 모듈을 통해 PC의 마우스를 컨트롤한다. 그리고 모션인식은 머리를 움직여 헤드셋에 있는 3축 가속도 센서가 마우스 포인터를 제어하여 명령을 수행하게 된다. 제안한 인터페이스 방식의 유용성을 확인하기 위해 헤드셋을 제작하고, 제작된 헤드셋을 이용하여 실험실과 식당, 도서관 등에서 실험을 한다.

모션캡쳐 애니메이션을 위한 거리 측정방법 (Distance Measuring Method for Motion Capture Animation)

  • 이희만;서정만;정순기
    • 정보처리학회논문지B
    • /
    • 제9B권1호
    • /
    • pp.129-138
    • /
    • 2002
  • 본 논문에서는 모션캡쳐를 위해 컬러 스테레오 카메라를 이용한 거리 측정 알고리즘을 제안하였다. 현실공간의 연기자 각 관절 부위에 컬러마커를 부탁시키고 이를 컬러 스테레오 카메라를 이용해 촬영한 후, 본 논문에서 제안한 컬러 매칭방법과 컬러 영역중심의 분석방법에 의해 카메라로부터 마커가지의 거리를 계산한다. 스테레오 영상에서 마커의 컬러영역을 추출하기 위해 국부지역내의 각 픽셀의 RGB(red, green, blue) 컬러 정보를 CIE(Commission Internationale de1'Eclairage) 컬러 공간으로 변환시켜 컬러의 파장을 계산하고, 국부지역의 우월 파장이 마커의 컬러파장과 일치하는지를 검색한다. 가상공간에서의 캐릭터의 움직임은 시간에 따른 마커의 위치 변화정보를 처리하는 프로그램에 의하여 제어된다.

몰입형 가상교육을 위한 입력장치 (Input Device for Immersive Virtual Education)

  • 정구철;임성민;김상연
    • 한국실천공학교육학회논문지
    • /
    • 제5권1호
    • /
    • pp.34-39
    • /
    • 2013
  • 본 연구에서는 사용자에게 가상환경에 존재하는 교육컨텐츠와 자연스럽게 안터랙션 할 뿐 아니라 인터랙션 양에 따라서 사용자에게 햅틱 정보를 전달해 줄수 있는 휴대용 입력장치를 제시한다. 제안하는 시스템은 사용자의 움직임을 측정하고 움직임에 따라서 사용자에게 햅틱 정보를 되돌려 준다. 교육 컨텐츠와 사용자의 인터랙션에 따른 햅틱 감각을 생성하기 위해 제안하는 입력장치는 모션 제어기, 햅틱 액츄에이터, 무선 통신 모듈, 그리고 모션센서로 구성한다. 사용자의 모션 입력을 측정하기 위해서 가속도 선서를 사용한다. 실험을 통해 제안하는 시스템이 떨림없이 안정적이고 연속적인 햅틱 감각이 생성됨을 파악한다.

  • PDF

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

인간 동작 데이타로 애니메이션되는 아바타의 학습 (Training Avatars Animated with Human Motion Data)

  • 이강훈;이제희
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권4호
    • /
    • pp.231-241
    • /
    • 2006
  • 제어 가능하고 상황에 따라 반응하는 아바타의 제작은 컴퓨터 게임 및 가상현실 분야에서 중요한 연구 주제이다. 최근에는 아바타 애니메이션과 제어의 사실성을 높이기 위해 대규모 동작 캡처 데이타가 활용되고 있다. 방대한 양의 동작 데이타는 넓은 범위의 자연스러운 인간 동작을 수용할 수 있다는 장점을 갖는다. 하지만 동작 데이타가 많아지면 적절한 동작을 찾는데 필요한 계산량이 크게 증가하여 대화형 아바타 제어에 있어 병목으로 작용한다. 이 논문에서 우리는 레이블링(labeling)이 되어있지 않은 모션 데이타로부터 아바타의 행동을 학습시키는 새로운 방법을 제안한다. 이 방법을 사용하면 최소의 실시간 비용으로 아바타를 애니메이션하고 제어하는 것이 가능하다. 본 논문에서 제시하는 알고리즘은 Q-러닝이라는 기계 학습 기법에 기초하여 아바타가 동적인 환경과의 상호작용에 따른 시행착오를 통해 주어진 상황에 어떻게 반응할지 학습하도록 한다. 이 접근 방식의 유효성은 아바타가 서로 간에, 그리고 사용자에 대해 상호작용하는 예를 보임으로써 증명한다.

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.