• 제목/요약/키워드: Gesture-based Interaction

검색결과 152건 처리시간 0.024초

Interactive drawing with user's intentions using image segmentation

  • Lim, Sooyeon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제10권3호
    • /
    • pp.73-80
    • /
    • 2018
  • This study introduces an interactive drawing system, a tool that allows user to sketch and draw with his own intentions. The proposed system enables the user to express more creatively through a tool that allows the user to reproduce his original idea as a drawing and transform it using his body. The user can actively participate in the production of the artwork by studying the unique formative language of the spectator. In addition, the user is given an opportunity to experience a creative process by transforming arbitrary drawing into various shapes according to his gestures. Interactive drawing systems use the segmentation of the drawing image as a way to extend the user's initial drawing idea. The system includes transforming a two-dimensional drawing into a volume-like form such as a three-dimensional drawing using image segmentation. In this process, a psychological space is created that can stimulate the imagination of the user and project the object of desire. This process of drawing personification plays a role of giving the user familiarity with the artwork and indirectly expressing his her emotions to others. This means that the interactive drawing, which has changed to the emotional concept of interaction beyond the concept of information transfer, can create a cooperative sensation image between user's time and space and occupy an important position in multimedia society.

전자주사위 및 손동작 인식을 활용한 아동용 에듀테인먼트 게임 콘텐츠 개발에 관한 연구 (A Study on Children Edutainment Contents Development with Hand Gesture Recognition and Electronic Dice)

  • 옥수열
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1348-1364
    • /
    • 2011
  • 기존의 아동용 에듀테인먼트 콘텐츠는 교육에 사용되는 학습 교구 및 콘텐츠가 교육 대상자에 대하여 반응을 일방적으로 유도하는 수동적인 교육이 이루어져 능동적이고 자발적인 학 습이 가능하도록 하는 콘텐츠 개발 방법이 절실히 요구되고 있다. 이에 본 논문에서는 행위기반 에듀테인먼트 콘텐츠의 상호작용 교구로서 주사위 형태의 체감형 인터페이스 개발과 깊이 영상 정보 기반의 손동작 인식 기술을 활용한 아동용 에듀테인먼트 콘텐츠 개발 방법을 제안하였다. 또한 교수자가 전체적인 학습 코스웨어를 설정하고 관리 할 수 있는 학습 퀴즈 문제 저작 관리 도구 및 교육발달에 대한 실시간 모니터링용 학습 결과 로그 분석 시스템을 제안하였다. 본 연구에서 제안한 행위 기반 체감형 인터페이스 및 에듀테인먼트 콘텐츠는 조작이 간편하고 실체적 인터랙션을 제공하므로 서 흥미를 더해 능동적이고 자발적인 학습이 가능하다. 또한 학습퀴즈 콘텐츠 저작 관리 도구와 학습 결과 로그 분석 시스템은 아동에 대한 수준별 학습프로그램 구성이 가능하고 또한 아동들이 학습을 스스로 문제를 풀어가는 과정과 얻어진 결과를 바탕으로 이용자의 학습 발달 상황 및 행태를 파악하고 학습계획에 대한 평가 자료로 활용하므로 서 아동의 학습발달에 대한 실시간 모니터링이 가능할 것으로 예상된다.

결합된 파티클 필터에 기반한 강인한 3차원 손 추적 (Robust 3D Hand Tracking based on a Coupled Particle Filter)

  • 안우석;석흥일;이성환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권1호
    • /
    • pp.80-84
    • /
    • 2010
  • 손 추적 기술은 인간과 기계와의 효율적인 의사소통을 위한 손동작 인식 기술의 핵심 기반 기술이다. 최근의 손 추적 연구는 3차원 손 모델을 이용한 연구 방향에 초점을 맞추고 있고, 기존의 2차원 손 모델을 이용한 방법보다 강인한 추적 성능을 보이고 있다. 본 논문에서는 결합된 파티클 필터에 기반한 새로운 3차원 손 추적 방법을 제안한다. 이는 전역적 손 형상과 지역적 손가락 움직임을 분리하여 추정하고, 각각의 추정 결과를 서로의 사전 정보로 이용하여 기존의 방법보다 빠르고 강인한 추적을 가능하게 한다. 또한, 추적 성능 향상을 위해 색상과 에지를 함께 고려한 다중 증거 결합 방법을 적용한다. 실험결과, 제안하는 방법은 복잡한 배경이나 동작에서도 강인한 추적 결과를 보였다.

가상현실 수업시뮬레이션에서 가상학생과의 정서적 상호작용이 사용자의 시선응시 및 가상실재감에 미치는 영향 (The Effects of Emotional Interaction with Virtual Student on the User's Eye-fixation and Virtual Presence in the Teaching Simulation)

  • 류지헌;김국현
    • 한국콘텐츠학회논문지
    • /
    • 제20권2호
    • /
    • pp.581-593
    • /
    • 2020
  • 이 연구의 목적은 가상현실 시뮬레이션에서 아바타에 대한 사용자의 주의집중이 어떻게 일어나는가를 분석하기 위한 것이다. 주의집중 정도를 알기 위해서 시선추적 기법을 적용했으며, 이를 통하여 사용자가 아바타의 어느 부분에 초점을 두고 있는지 검증하고자 하였다. 이 연구에서는 수업시뮬레이션에서 아바타에 대한 사용자의 시선응시 시간과 가상실재감을 분석했다. 실험참가자는 대학생 45명(여학생=21명, 남학생=24명)이었다. 이 연구에서는 가상현실 기반의 수업시뮬레이션이 사용되었으며, 교권침해에 대한 시나리오들이 적용되었다. 종속변수는 아바타에 대한 사용자의 시선응시시간이며 3개의 관심영역(AOI)에 대한 차이분석을 실시했다. 또한 실험조건에 대한 사용자의 가상실재감(공간실재감, 몰두감, 사실성)을 측정했다. 실험참가자는 두 가지 시나리오를 모두 경험했으며, 반복측정에 의한 다변량분산분석을 실시했다. 연구결과에 의하면 시나리오와 AOI에 의한 유의미한 상호작용이 있었고, 시나리오와 AOI에 따른 주효과도 유의미한 차이가 보였다. 시나리오의 유형과 상관없이 사용자는 언제나 아바타의 얼굴표정에 상당히 많은 시선응시를 하고 있는 것으로 나타났다.

피부색 및 깊이정보를 이용한 영역채움 기반 손 분리 기법 (Region-growing based Hand Segmentation Algorithm using Skin Color and Depth Information)

  • 서종훈;채승호;심진욱;김하영;한탁돈
    • 한국멀티미디어학회논문지
    • /
    • 제16권9호
    • /
    • pp.1031-1043
    • /
    • 2013
  • 영상에서 배경을 제거하고 손을 분리하는 기술은 손 인식 연구에서 가장 먼저 수행되는 기술이며, 분리된 결과 영상의 성능에 따라 이후의 인식 단계의 성능이 결정되는 중요한 기술이다. 기존의 연구는 조명 및 배경의 변화에 취약하거나 다수의 사용자와 상호작용에 한계가 있었다. 본 논문에서는 컬러 영상과 깊이 영상을 혼용하여 손을 분리하는 기술을 제안한다. 먼저 입력된 컬러 영상을 이용하여 복잡한 환경에서도 정확하게 영역 채움을 위한 초기 위치를 설정하였다. 이 위치를 기준으로 영역 채움 연산을 위한 한계 영역을 재설정하여 조명 변화로 침식된 영역을 포함하도록 하고, 깊이 영상에서 영역 채움 연산을 수행함으로써 조명과 환경의 변화에도 강인하게 손의 영역을 분리하도록 하였다. 또한, 이렇게 분리된 손의 영역을 이용하여 실시간으로 피부 모델을 학습함으로써 조명 환경에 적응적으로 피부 모델을 갱신하여 보다 강인한 인식 성능을 얻을 수 있었다. 이를 다양한 조명 및 배경 환경에서 기존의 알고리즘과 비교 실험을 수행하여 강인한 인식 성능을 확인할 수 있었으며, 특히 역광 환경과 같이 조명 변화가 극심한 환경에서 강인한 성능을 보여주었다.

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.

립모션 기반의 윈도우즈 애플리케이션 제어 모델에 관한 연구 (A Study on the Windows Application Control Model Based on Leap Motion)

  • 김원
    • 한국융합학회논문지
    • /
    • 제10권11호
    • /
    • pp.111-116
    • /
    • 2019
  • 최근 컴퓨터 능력의 급속한 발전으로 인간과 컴퓨터간의 상호 작용을 편리하게 연결할 수 있는 많은 기술들이 연구되고 있는 상황으로, 전통적인 입력장치를 사용한 GUI에서 3D 모션, 햅틱, 멀티 터치와 같은 신체를 이용한 NUI로 패러다임이 변화되고 있는 추세이다. 인간의 동작을 센서를 이용하여 컴퓨터에 전달하는 많은 연구가 이루어지고 있으며, 3D 객체를 획득할 수 있는 광학 센서의 개발과 더불어 산업 및 의료 분야, 사용자 인터페이스 분야 등으로 응용 범위가 확장되고 있다. 본 논문에서는 립모션을 기반으로 사용자의 손동작에 따라 기본 입력장치인 마우스를 대신하여 제스처를 통한 타 프로그램 실행 및 윈도우즈 제어가 가능하며, 안드로이드 앱과 융합하여 메인 클라이언트와 연결을 통하여, 음성인식과 버튼을 사용해 각종 미디어와 음성 명령 기능을 통한 제어가 가능한 모델을 제안한다. 제안 모델을 통하여 영상, 음악과 같은 인터넷 미디어를 클라이언트 컴퓨터 뿐만 아니라 앱을 통한 원거리 제어가 가능하여, 편리하게 미디어를 시청할 수 있을 것으로 기대된다.

휴머노이드 로봇을 위한 사람 검출, 추적 및 실루엣 추출 시스템 (Human Tracking and Body Silhouette Extraction System for Humanoid Robot)

  • 곽수영;변혜란
    • 한국통신학회논문지
    • /
    • 제34권6C호
    • /
    • pp.593-603
    • /
    • 2009
  • 본 논문은 스테레오 카메라가 이동하는 환경에서 카메라 움직임을 보정하여 새로운 다수의 사람을 검출하는 방법과 검출된 사람을 추적하고, 실루엣을 추출하는 통합된 시스템을 제안한다. 제안하는 시스템은 사람 검출, 추적, 실루엣 추출 3가지 모듈로 구성되어 있으며 3가지 모듈은 카메라가 이동하는 환경을 고려한 것이다. 사람 검출 모듈에서는 카메라 움직임(egomotion) 보정을 이용한 움직이는 영역 추출 결과와 스테레오 정보를 결합하여 움직이는 객체를 검출하였으며, 추적모듈은 변위 정보가 가중된 히스토그램 알고리즘으로 검출된 객체를 추적한다. 실루엣을 추출하는 모듈은 트라이맵(trimap)을 이용하여 사람의 실루엣 부분을 대략적으로 추정하는 단계와 그래프컷(graph cut)을 적용하여 정교하게 실루엣 추출하는 단계로 이루어져 있다. 본 논문에서 제안하는 방법을 실내 환경에서 팬-틸트(pan-tilt) 스테레오 카메라로 획득한 실험데이터를 대상으로 실험한 결과 다수의 사람의 검출 및 추적, 정교한 실루엣 추출이 가능한 것을 확인하였다. 본 논문의 실루엣 추출결과는 제스처 인식이나 걸음걸이 인식 등의 다양한 분야에도 적용가능하다.

손동작 인식에 의한 컴퓨터 비전 인터페이스 설계 (Design of Computer Vision Interface by Recognizing Hand Motion)

  • 윤진현;이종호
    • 전자공학회논문지CI
    • /
    • 제47권3호
    • /
    • pp.1-10
    • /
    • 2010
  • 손동작을 통한 입력방법은 컴퓨터와 디지털 기기의 발전에 따라 요구되는 새로운 HCI(Human-Computer Interaction) 방법으로써 그 가능성을 가지고 있으며 이에 대한 다양한 시도가 있었다. 본 논문에서는 컴퓨터 비전을 기반으로 단일 카메라를 사용하는 손 영역 검출 및 추적방법을 제시하고 이에 의한 컴퓨터 인터페이스를 제안한다. 기존에 많이 쓰이는 피부색 매치 방법에 추가하여 형태 정보를 더함으로써 손 영역 검출능력을 향상 시켰다. 이러한 형태 정보를 추출하는 방법으로써 주요 방향 에지 기술자라는 방법을 제안하였고 이는 강력하여 학습 시간 없이 한 가지 손 모델만을 사용하여 손 영역 검출을 할 수 있다. 또한 손 영역 검출과 추적하는 방법을 나누어 추적할 때는 회전에 대한 자유도를 높이도록 설계 하였다. 위 방법을 이용하여 3차원 공간에 그려지는 필기체 숫자 인식에 적용해 보았으며 분류 방법으로 DNAC 알고리즘을 사용하였다. 결과적으로 손 영역 검출은 82%의 검출률을 보였고 필기체 숫자 인식은 90%의 인식률을 보였다.

스마트카의 인터페이스를 위한 경험 디자인 가이드라인 (Experience Design Guideline for Smart Car Interface)

  • 유훈식;주다영
    • 디자인융복합연구
    • /
    • 제15권1호
    • /
    • pp.135-150
    • /
    • 2016
  • 통신 기술의 발달, 지능형교통체계(ITS: Intelligent Transport Systems)의 확산으로 자동차는 단순한 기계장치에서 종합편의 기능을 가진 제2의 생활 공간으로 변모하고 있으며, 이를 위한 인터페이스로써의 역할을 하는 플랫폼으로 진화하고 있다. 탑승자들에게 다양한 정보를 제공하는 인터페이스 영역이 확장됨에 따라 스마트카 기반의 사용자 경험(UX: User Experience) 연구에 대한 중요성이 높아지고 있다. 이 연구는 스마트카의 사용자 경험 요소에 대한 가이드라인을 제안하는데 목적을 두고 있다. 연구의 수행을 위해 기존 연구를 기반으로 스마트카의 사용자 경험 요소를 기능(function), 상호작용(interaction), 표면(surface)으로 정의하였으며, UX/UI 전문가들의 논의를 통해 각 요소 별로 8개의 대표 기술, 14개의 대표 기능, 8개의 유리창의 위치를 정의하였다. 이 후 100명의 운전자를 대상으로 정의된 스마트카 사용자 경험 요소들에 대한 우선순위를 설문조사 방식으로 분석하였다. 분석을 통해 사용자들은 차량에 주요 기술을 적용함에 있어서 안전, 주행, 감성의 순으로, 조작 방식에 있어서는 음성인식, 터치, 제스처, 물리적 버튼, 아이트레킹의 순으로, 디스플레이 위치에 대해서는 운전석을 중심으로 전방에서 후방으로 높은 우선순위를 가지고 있는 것을 알 수 있었다. 성별에 따른 분석에 있어서는 2개의 기능 외에는 큰 차이를 보이지 않아 남성과 여성에 대한 가이드가 공통되게 적용될 수 있음을 알 수 있었다.