• 제목/요약/키워드: gaze tracker

검색결과 35건 처리시간 0.029초

트래킹 Gaze와 실시간 Eye (Real Time Eye and Gaze Tracking)

  • 조현섭;민진경
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2004년도 추계학술대회
    • /
    • pp.234-239
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process fur each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

착용형 양안 시선추적기와 기계학습을 이용한 시선 초점 거리 추정방법 평가 (Evaluation of Gaze Depth Estimation using a Wearable Binocular Eye tracker and Machine Learning)

  • 신춘성;이건;김영민;홍지수;홍성희;강훈종;이영호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권1호
    • /
    • pp.19-26
    • /
    • 2018
  • 본 논문은 가상현실 및 증강현실을 위해 양안식 눈추적기 기반의 시선 깊이 추정 기법을 제안한다. 제안한 방법은 먼저 양안식 눈추적기로부터 안구 및 시선과 관련된 다양한 정보를 획득한다. 이후 획득된 정보를 바탕으로 다층퍼셉트론 알고리즘 기반의 시선 추적과 인식 모델을 통해 눈 시선 깊이를 추정한다. 제안한 방법을 검증하기 위해 13명의 참여자를 모집하고 개인별 시선 추적과 범용 시선 추적에 대한 성능을 분석하였다. 실험결과 개인별 모델에서는 90.1%, 그리고 전체 사용자를 대상으로 한 범용 모델에서는 89.7%의 정확도를 보였다.

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 조현섭;김희숙
    • 한국산학기술학회논문지
    • /
    • 제6권2호
    • /
    • pp.195-201
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.477-483
    • /
    • 2004
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참석하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

Gaze Differences between Expert and Novice Teachers in Science Classes

  • Kim, Won-Jung;Byeon, Jung-Ho;Lee, Il-Sun;Kwon, Yong-Ju
    • 한국과학교육학회지
    • /
    • 제32권9호
    • /
    • pp.1443-1451
    • /
    • 2012
  • This study aims to investigate the gaze patterns of two expert and two novice teachers in one hour of lecture type class. Teachers recruited from the same middle school conducted the class each, wearing an eye-tracker. Gaze rate and gaze movement pattern were analyzed. The scene where teachers faced in the classroom was categorized into three zones; student zone, material zone, and non-teaching zone. Student zone was divided into nine areas of interest to see the gaze distribution within the student zone. Expert teachers showed focused gaze on student zone while novice teachers' gaze rate was significantly higher at the non-teaching zone, compared to expert teachers' one. Within student zone, expert teachers' gaze spread to the rear areas, but novice teachers' one was narrowly resided in the middle areas of the student zone. This difference in gaze caused different eye movement pattern: experts' T pattern and novices' I pattern. On the other hand, both teacher groups showed the least gaze rate onto the left and right front areas. Which change is required to teachers' gaze behavior and what must be considered in order to make effective teacher gaze in the classroom setting were discussed.

분류하기에서 길이와 직각 표기의 효과: 정답률과 안구운동 분석을 중심으로 (The Effect of the Indication of Lengths and Angles on Classifying Triangles: Centering on Correct Answer Rate and Eye Movements)

  • 윤주미;이광호;이재학
    • 한국수학교육학회지시리즈C:초등수학교육
    • /
    • 제20권2호
    • /
    • pp.163-175
    • /
    • 2017
  • 본 연구는 평면 도형의 도형 분류하기 과제를 제시할 때 길이와 각의 표기 여부가 도형의 개념 이해에 어떤 영향을 주는지 알아보는데 목적이 있다. 이를 위해, 초등학교 4학년 학생 33명을 대상으로 분류하기 과제 해결 과정을 Eye-tracker를 통해 녹화하고 정답률과 Gaze Duration을 중심으로 분석하였다. 그 결과, 이등변삼각형과 정삼각형의 분류하기에서는 길이를 제시하였을 때 정답률이 증가하고 Gaze Duration은 감소하였다. 예각삼각형과 둔각삼각형 과제에서도 직각을 표기했을 때 정답률이 증가하고 Gaze Duration이 감소하였다. 이러한 결과로 볼 때, 평면도형을 분류하는 과제를 제시할 때는 길이와 각을 표기하여 학생들이 어림하여 도형을 분류하기 보다는 도형의 개념 이해를 바탕으로 분류하는 것을 측정하는 데 초점을 두어야 할 것이다.

User's Gaze Analysis for Improving Map Label Readability in Way-finding Situation

  • Moon, Seonggook;Hwang, Chul Sue
    • 한국측량학회지
    • /
    • 제37권5호
    • /
    • pp.343-350
    • /
    • 2019
  • Map labels are the most recognizable map elements using the human visual system because they are essentially a natural language. In this study, an experiment was conducted using an eye-tracker to objectively record and analyze the response of subjects regarding visual attention to map labels. A primary building object was identified by analyzing visit counts, average visit duration, fixation counts, and the average fixation duration of a subject's gaze for an area of interest acquired using the eye-tracker. The unmarked rate of map labels in Google map, Naver map, and Daum map was calculated. As a result, this rate exceeded fifty-one percent, with the lowest rate recorded for Google map. It is expected that the results of this study will contribute to an increase in the diversity of research in terms of the spatial cognition approach for map labels, which is more helpful to users than the existing body of work on methods of expression for labels.

시선 깊이 추정 기법을 이용한 OST-HMD 자동 스위칭 방법 (Method for Automatic Switching Screen of OST-HMD using Gaze Depth Estimation)

  • 이영호;신춘성
    • 스마트미디어저널
    • /
    • 제7권1호
    • /
    • pp.31-36
    • /
    • 2018
  • 본 논문에서는 시선 깊이 추정 기술을 이용한 OST-HMD의 자동화면 on/off 기능을 제안한다. 제안하는 방법은 MLP(Multi-layer Perceptron)을 이용하여 사용자의 시선 정보와 보는 물체의 거리를 학습 한 후, 시선 정보만 입력하여 거리를 추정한다. 학습 단계에서는 착용 할 수 있는 양안 추적기를 사용하여 시선 관련 특징을 얻는다. 그런 다음 이 특징을 다층 퍼셉트론 (MLP: Multi-layer Perceptron)에 입력하여 학습하고 모델을 생성한다. 추론 단계에서는 안구 추적기로부터 실시간으로 시선 관련 특징을 얻고 이를 MLP에 입력하여 추정 깊이 값을 얻는다. 마지막으로 HMD의 화면을 켜거나 끌 것인지 여부를 결정하기 위해 이 계산결과를 활용한다. 제안된 방법의 가능성을 평가하기 위해 프로토타입을 구현하고 실험을 수행하였다.

영상정보를 이용한 HMD용 실시간 아이트랙커 시스템 (Development of Real-Time Vision-based Eye-tracker System for Head Mounted Display)

  • 노은정;홍진성;방효충
    • 한국항공우주학회지
    • /
    • 제35권6호
    • /
    • pp.539-547
    • /
    • 2007
  • 본 논문은 영상정보를 이용하여 사용자의 눈의 움직임을 통해 응시점을 추적하는 실시간 아이트랙커 시스템 개발에 대한 연구이다. 개발된 시스템은 광학기반의 동공추적 기법을 이용하여 사용자의 눈의 움직임을 추적한다. 광학기반의 방법은 사용자의 눈에 아무런 장애도 일으키지 않고 눈의 위치를 매우 정확하게 측정 할 수 있다는 장점을 가진다. 동공영상을 획득하기 위해 적외선 카메라를 사용하며, 획득한 영상으로부터 정확한 동공영역을 추출하기 위해 적외선 LED를 사용한다. 실시간 영상처리가 가능하게 하기위해 칼만필터를 적용한 동공추적 알고리즘을 개발하고 DSP(Digital Signal Processing) 시스템을 사용하여 동공영상을 획득한다. 실시간 아이트랙커 시스템을 통하여 실시간으로 사용자의 동공움직임을 추적하고 사용자가 바라보는 배경영상에 사용자의 응시점을 나타낸다.