• 제목/요약/키워드: HCI(Human Compute Interaction)

검색결과 3건 처리시간 0.015초

HCI 를 위한 멀티터치 테이블-탑 디스플레이 시스템 구현 (Implementation of Multi-touch Tabletop Display for Human Computer Interaction)

  • 김송국;이칠우
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.553-560
    • /
    • 2007
  • 본 논문에서는 양손의 터치를 인식하여 실시간 상호작용이 가능한 테이블 탑 디스플레이 시스템 및 구현 알고리즘에 대해 기술한다. 제안하는 시스템은 FTIR(Frustrated Total Internal Reflection) 메커니즘을 기반으로 제작되었으며 multi-touch, multi-user 방식의 손 제스처 입력이 가능하다. 시스템은 크게 영상 투영을 위한 빔-프로젝터, 적외선 LED를 부착한 아크릴 스크린, Diffuser 그리고 영상을 획득하기 위한 적외선 카메라로 구성되어 있다. 시스템 제어에 필요한 제스처 명령어 종류는 상호작용 테이블에서의 입력과 출력의 자유도를 분석하고 편리함, 의사소통, 항상성, 완벽함의 정도를 고려하여 규정하였다. 규정된 제스처는 사용자가 상호작용을 위해 스크린에 접촉한 손가락의 개수, 위치, 그리고 움직임 변화를 기준으로 세분화된다. 적외선 카메라를 통해 입력받은 영상은 잡음제거 및 손가락 영역 탐색을 위해 간단한 모폴로지 기법이 적용된 후 인식과정에 들어간다. 인식 과정에서는 입력 받은 제스처 명령어들을 미리 정의해놓은 손 제스처 모델과 비교하여 인식을 행한다. 세부적으로는 먼저 스크린에 접촉된 손가락의 개수를 파악하고 그 영역을 결정하며 그 후 그 영역들의 중심점을 추출하여 그들의 각도 및 유클리디언 거리를 계산한다. 그리고 나서 멀티터치 포인트의 위치 변화값을 미리 정의해둔 모델의 정보와 비교를 한다. 본 논문에서 제안하는 시스템의 효율성은 Google-earth를 제어하는 것을 통해 입증될 수 있다.

  • PDF

원격 카메라 로봇 제어를 위한 동적 제스처 인식 (Dynamic Gesture Recognition for the Remote Camera Robot Control)

  • 이주원;이병로
    • 한국정보통신학회논문지
    • /
    • 제8권7호
    • /
    • pp.1480-1487
    • /
    • 2004
  • 본 연구에서는 원격 카메라 로봇 제어를 위한 새로운 제스처 인식 방법을 제안하였다. 제스처 인식의 전처리 단계인 동적 제스처의 세그먼테이션이며, 이를 위한 기존의 방법은 인식 대상에 대한 많은 칼라정보를 필요로 하고, 인식단계에서는 각각 제스처에 대한 많은 특징벡터들을 요구하는 단점이 있다. 이러한 단점을 개선하기 위해, 본 연구에서는 동적 제스처의 세그먼테이션을 위한 새로운 Max-Min 탐색법과 제스처 특징 추출을 위한 평균 공간 사상법과 무게중심법, 그리고 인식을 위한 다층 퍼셉트론 신경망의 구조 둥을 제안하였다 실험에서 제안된 기법의 인식율이 90%이상으로 나타났으며, 이 결과는 원격 로봇 제어를 위한 휴먼컴퓨터 인터페이스(HCI : Human Compute. Interface)장치로 사용 가능함을 보였다.

An Experimental Multimodal Command Control Interface toy Car Navigation Systems

  • Kim, Kyungnam;Ko, Jong-Gook;SeungHo choi;Kim, Jin-Young;Kim, Ki-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.249-252
    • /
    • 2000
  • An experimental multimodal system combining natural input modes such as speech, lip movement, and gaze is proposed in this paper. It benefits from novel human-compute. interaction (HCI) modalities and from multimodal integration for tackling the problem of the HCI bottleneck. This system allows the user to select menu items on the screen by employing speech recognition, lip reading, and gaze tracking components in parallel. Face tracking is a supplementary component to gaze tracking and lip movement analysis. These key components are reviewed and preliminary results are shown with multimodal integration and user testing on the prototype system. It is noteworthy that the system equipped with gaze tracking and lip reading is very effective in noisy environment, where the speech recognition rate is low, moreover, not stable. Our long term interest is to build a user interface embedded in a commercial car navigation system (CNS).

  • PDF