• 제목/요약/키워드: 시선인식 및 추적

검색결과 22건 처리시간 0.021초

시선인식을 이용한 지능형 휠체어 시스템

  • 김태의;이상윤;권경수;박세현
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2009년도 춘계학술대회 미래 IT융합기술 및 전략
    • /
    • pp.88-92
    • /
    • 2009
  • 본 논문에서는 시선인식을 이용한 지능형 휠체어 시스템에 대해 설명한다. 지능형 휠체어는 초음파센서를 이용하여 전동휠체어가 장애물을 감지하여 회피할 수 있게 하고, 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 인터페이스를 제안한다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선 추적을 한다. 시선이 응시하는 곳의 명령어를 사용자 인터페이스를 통해서 하달 받고, 모터 제어 모듈은 하달된 명령과 센서들에 의해 반환된 장애물과의 거리 정보로 모터제어보드에 연결되어 있는 두 개의 좌우 모터들을 조종한다. 센서 모듈은 전등휠체어가 움직이는 동안에 주기적으로 센서들로부터 거리 값을 반환 받아 벽 또는 장애물을 감지하여 장애물 회피 모듈에 의해 장애물을 우회 하도록 움직인다. 제안된 방법의 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 효과적으로 감지하고 보다 정확하게 장애물을 회피 할 수 있음을 보였다.

  • PDF

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

착용형 양안 시선추적기와 기계학습을 이용한 시선 초점 거리 추정방법 평가 (Evaluation of Gaze Depth Estimation using a Wearable Binocular Eye tracker and Machine Learning)

  • 신춘성;이건;김영민;홍지수;홍성희;강훈종;이영호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권1호
    • /
    • pp.19-26
    • /
    • 2018
  • 본 논문은 가상현실 및 증강현실을 위해 양안식 눈추적기 기반의 시선 깊이 추정 기법을 제안한다. 제안한 방법은 먼저 양안식 눈추적기로부터 안구 및 시선과 관련된 다양한 정보를 획득한다. 이후 획득된 정보를 바탕으로 다층퍼셉트론 알고리즘 기반의 시선 추적과 인식 모델을 통해 눈 시선 깊이를 추정한다. 제안한 방법을 검증하기 위해 13명의 참여자를 모집하고 개인별 시선 추적과 범용 시선 추적에 대한 성능을 분석하였다. 실험결과 개인별 모델에서는 90.1%, 그리고 전체 사용자를 대상으로 한 범용 모델에서는 89.7%의 정확도를 보였다.

상황 인식 기반 다중 영역 분류기 비접촉 인터페이스기술 개발 (Technology Development for Non-Contact Interface of Multi-Region Classifier based on Context-Aware)

  • 김송국;이필규
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.175-182
    • /
    • 2020
  • 비접촉식 시선추적 기술은 인간과 컴퓨터간의 인터페이스로서 장애가 있는 사람들에게 핸즈프리 통신을 제공하며, 최근 코로나 바이러스 등으로 인한 비접촉시스템에도 중요한 역할을 할 것으로 기대된다. 따라서 본 논문에서는 인간 중심의 상호 작용을 위한 상황인식 다중영역 분류기 및 ASSL 알고리즘을 기반으로 한 사용자 인터페이스 기술을 개발한다. 이전의 AdaBoost 알고리즘은 안구 특징 사이의 공간적 맥락 관계를 이용할 수 없기 때문에 눈의 커서 포인팅 추정을 위한 안면 추적에서 충분히 신뢰할 수 있는 성능을 제공 할 수 없다. 따라서 본 논문에서는 효율적인 비접촉식 시선 추적 및 마우스 구현을 위한 눈 영역의 상황기반 AdaBoost 다중 영역 분류기를 제시한다. 제안된 방식은 여러 시선 기능을 감지, 추적 및 집계하여 시선을 평가하고 온 스크린 커서 기반의 능동 및 반 감독 학습을 조정한다. 이는 눈 위치에 성공적으로 사용되었으며 눈 특징을 감지하고 추적하는 데에도 사용할 수 있다. 사용자의 시선을 따라 컴퓨터 커서를 제어하며 칼만 필터를 이용하여 실시간으로 추적하며, 가우시안 모델링을 적용함으로써 후처리하였다. Fits law에 의해 실험하였으며, 랜덤하게 대상객체를 생성하여 실시간으로 시선추적성능을 분석하였다. 제안하는 상황인식을 기반 인식기를 통하여 비접촉 인터페이스로서의 활용이 높아질 것이다.

광각 및 협각 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by Wide and Narrow View Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제28권12C호
    • /
    • pp.1239-1249
    • /
    • 2003
  • 시선 위치 추적이란 현재 사용자가 쳐다보고 있는 위치를 컴퓨터 시각 인식 방법을 이용하여 파악하는 연구이다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라를 이용하여 사용자의 얼굴 및 눈동자 움직임을 추적하였다. 그러나 이러한 경우, 광각 카메라 내에 포함된 눈동자 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하지 못하는 문제점이 있었다. 그러므로 이 논문에서는 얼굴 영상을 취득하기 위한 광각 카메라 및 눈 영역을 확대하여 취득하는 협각 카메라, 즉 2개의 카메라를 이용하여 시선 위치추적 시스템을 구현하였다. 또한, 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라에서 추출된 얼굴 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 실험자가 눈동자는 고정으로 하고 얼굴만 움직여서 쳐다보는 경우에 약 3.1cm, 흐리고 얼굴 및 눈동자를 같이 움직여서 쳐다보는 경우에 약 3.57cm의 최소 자승 에러성능을 나타냈다. 처리 속도도 Pentium-IV 1.8 GHz에서 약 30ms 이내의 처리 속도를 나타냈다.

실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System using Real-time Active Vision Camera)

  • 박강령
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권12호
    • /
    • pp.1228-1238
    • /
    • 2003
  • 이 논문에서는 컴퓨터 시각 인식 방법에 의해 모니터 상에 사용자가 쳐다보고 있는 시선 위치를 파악하기 위한 새롭고 실용적인 방법을 제안한다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라 시스템을 주로 많이 이용하였다. 그러나 이러한 경우 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하기 어려운 문제점이 있다. 그러므로 이 논문에서는 광각 카메라(얼굴의 움직임에 의한 시선 위치 추적용) 및 눈 영역을 확대하여 취득하는 협각 카메라(눈동자 움직임에 의한 시선 위치 추적용), 즉 이중 카메라를 이용하여 시선 위치 추적 시스템을 구현하였다. 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라로부터 추출된 눈 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있으며, 눈 특징점을 보다 빠르고 정확하게 추출하기 위해 이중 적외선 조명을 사용하였다. 실험 결과, 본 논문에서는 실시간으로 동작하는 시선 위치 추적 시스템을 구현할 수 있었으며, 이때 얼굴 및 눈동자 움직임을 모두 고려하여 계산한 모니터상의 시선 위치 정확도는 약 3.44cm의 최소 자승 에러성능을 나타냈다.

얼굴 및 눈동자 움직임에 의한 시선 위치 추적 (Gaze Detection by Computing Facial and Eye Movement)

  • 박강령
    • 대한전자공학회논문지SP
    • /
    • 제41권2호
    • /
    • pp.79-88
    • /
    • 2004
  • 시선 위치 추적이란 현재 사용자가 응시하고 있는 위치를 컴퓨터 시각 인식 방법에 의해 파악하는 연구이다. 이러한 시선 위치 추적 기술은 많은 응용 분야를 가지고 있는데, 그 대표적인 예로는 양 손을 사용하지 못하는 심신 장애자를 위한 컴퓨터 인터페이스 및 3차원 시뮬레이터 프로그램에서 사용자의 시선 위치에 따른 화면 제어 등이 있다. 이 논문에서는 적외선 조명이 부착된 단일 카메라를 이용한 컴퓨터 비전 시스템으로 시선 위치 추적 연구를 수행하였다. 사용자의 시선 위치를 파악하기 위해서는 얼굴 특징점의 위치를 추적해야하는데, 이를 위하여 이 논문에서는 적외선 기반 카메라와 SVM(Support Vector Machine) 알고리즘을 사용하였다. 사용자가 모니터상의 임의의 지점을 쳐다볼 때 얼굴 특징점의 3차원 위치는 3차원 움식임량 추정(3D motion estimation) 및 아핀 변환(affine transformation)에 의해 계산되어 질 수 있다. 얼굴 특징점의 변화된 3차원 위치가 계산되면, 이로부터 3개 이상의 얼굴 특징점으로부터 생성되는 얼굴 평면 및 얼굴 평면의 법선 벡터가 구해지게 되며, 이러한 법선 벡터가 모니터 스크린과 만나는 위치가 사용자의 시선위치가 된다. 또한, 이 논문에서는 보다 정확한 시선 위치를 파악하기 위하여 사용자의 눈동자 움직임을 추적하였으면 이를 위하여 신경망(다층 퍼셉트론)을 사용하였다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 약 4.8㎝의 최소 자승 에러성능을 나타냈다.

뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스 연구: 암묵적 적합성 피드백 활용을 중심으로 (Digital Library Interface Research Based on EEG, Eye-Tracking, and Artificial Intelligence Technologies: Focusing on the Utilization of Implicit Relevance Feedback)

  • 김현희;김용호
    • 정보관리학회지
    • /
    • 제41권1호
    • /
    • pp.261-282
    • /
    • 2024
  • 본 연구는 디지털 도서관의 콘텐츠를 탐색하는 동안 이용자의 암묵적 적합성 피드백을 활용하여 적합성을 판단하기 위해 뇌파 기반 및 시선추적 기반 방법들을 제안하고 평가해 보았다. 이를 위해서 32명을 대상으로 하여 동영상, 이미지, 텍스트 데이터를 활용하여 뇌파/시선추적 실험들을 수행하였다. 제안된 방법들의 유용성을 평가하기 위해서, 딥러닝 기반의 인공지능 방법들을 경쟁 기준으로 사용하였다. 평가 결과, 주제에 적합한 동영상과 이미지(얼굴/감정)를 선택하는 데에는 뇌파 컴포넌트 기반 방법들(av_P600, f_P3b)이 높은 분류 정확도를 나타냈고, 이미지(객체)와 텍스트(신문 기사)를 선택하는 데에는 인공지능 기반 방법 즉, 객체 인식 기반 방법과 자연언어 처리 방법이 각각 높은 분류 정확도를 나타냈다. 끝으로, 뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스를 구현하기 위한 지침 즉, 암묵적 적합성 피드백에 기반한 시스템 모형을 제안하고, 분류 정확도를 향상시키기 위해서 미디어별로 적합한 뇌파 기반, 시선추적 기반 및 인공지능 기반 방법들을 제시하였다.

시선추적형 가상현실기기를 통한 광고분석 시스템 (Advertisement Analysis System with Eye Tracking VR HMD(Virtual Reality Head Mounted Display)

  • 박재승;석윤찬
    • 스마트미디어저널
    • /
    • 제5권3호
    • /
    • pp.62-66
    • /
    • 2016
  • 최근 가상현실 기술이 세계적으로 대두되면서 다양한 분야의 기술들과 결합하면서 새로운 트렌드로 형성하고 있다. 광고의 경우, 가상현실에서는 사용자가 화면을 건드리지 못한다는 특성 때문에 사용자가 광고를 시청하였는지에 여부에 대한 탐지와 확인이 어렵다. 그러나 기술의 진화로 가상현실 광고나 가상 쇼룸을 통해 보여 지는 영상을 디텍팅하고 분석이 가능한 솔루션을 통해 소비자의 인지를 확인할 수가 있다. 즉 시선추적(Eye Tracking) 기술은 이러한 가상현실 광고분야에 있어서 사용자가 어떤 광고를 시청하였는지, 얼마나 자주 시청하였는지, 얼마동안 시청하였는지 등에 대한 데이터를 추출하고 분석함으로써 기존의 가상현실상의 광고 탐지와 VR 매체 광고 연구의 어려웠던 부분을 해소할 수 있다. 논문에서는 가상현실에서 광고를 시선추적으로 인식하는 방법에 대해서 제안하고자 한다. 그리하여 새로운 VR플랫폼상 광고효과를 통해 기존의 TV, 인터넷, 지면 광고와 비교 분석을 통한 광고의 몰입도 및 광고 효용성을 연구하고자 한다. 제안된 연구내용은 서버와 VR HMD(Virtual Reality Head Mounted Display)와의 통신 및, 서버 측 출력화면 등이 포함 되어 있다.

연주자를 위한 시선 추적 기반 페이지 터너 애플리케이션 개발 (Development of a Page Turner Application based on Eye Tracking Algorithm for the Performing Artists)

  • 김태유;김석훈
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권4호
    • /
    • pp.829-836
    • /
    • 2018
  • 악보는 성공적인 곡 해석, 연주, 공연 등을 위해 필수적인 요소로 인식되고 있으며, 대부분의 연주자들은 이러한 상황에서 일반적으로 종이악보를 활용하고 있다. 그러나 종이악보는 페이지를 넘겨야 할 때 연주자 및 청중의 집중도를 떨어뜨리는 원인 중 하나가 될 뿐 아니라, 전체적인 연주의 흐름을 저해하는 요소로 작용하기도 한다. 또한 이러한 종이악보의 단점들은 공연장소 주변의 날씨나 환경 등으로 인해 더더욱 부각될 수밖에 없다. 본 논문에서는 이러한 종이악보의 단점들을 해결하기 위한 태블릿 PC기반의 전자악보 페이지 터너 애플리케이션을 제안한다. 제안하는 페이지 터너 애플리케이션은 원활한 연주 진행을 위해 연주자의 시선 또는 동작을 판독하여 전자악보를 다음페이지로 넘길 수 있도록 구현되어 있으며, 시선추적 및 동작 판독 알고리즘은 OpenCV를 통해 구현하였다. 제안하는 페이지 터너 애플리케이션을 통해 기존 종이악보가 갖고 있는 문제점을 상당부분 개선할 수 있을 것으로 기대한다.