• 제목/요약/키워드: the eye and the gaze

검색결과 237건 처리시간 0.025초

광각 및 협각 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by Wide and Narrow View Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제28권12C호
    • /
    • pp.1239-1249
    • /
    • 2003
  • 시선 위치 추적이란 현재 사용자가 쳐다보고 있는 위치를 컴퓨터 시각 인식 방법을 이용하여 파악하는 연구이다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라를 이용하여 사용자의 얼굴 및 눈동자 움직임을 추적하였다. 그러나 이러한 경우, 광각 카메라 내에 포함된 눈동자 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하지 못하는 문제점이 있었다. 그러므로 이 논문에서는 얼굴 영상을 취득하기 위한 광각 카메라 및 눈 영역을 확대하여 취득하는 협각 카메라, 즉 2개의 카메라를 이용하여 시선 위치추적 시스템을 구현하였다. 또한, 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라에서 추출된 얼굴 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 실험자가 눈동자는 고정으로 하고 얼굴만 움직여서 쳐다보는 경우에 약 3.1cm, 흐리고 얼굴 및 눈동자를 같이 움직여서 쳐다보는 경우에 약 3.57cm의 최소 자승 에러성능을 나타냈다. 처리 속도도 Pentium-IV 1.8 GHz에서 약 30ms 이내의 처리 속도를 나타냈다.

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.

시선추적을 이용한 선택적 시각탐색에 대한 기초적 연구 - 백화점매장 공간 이미지를 중심으로 - (Basic Study on Selective Visual Search by Eyetracking - Image arond the Department Store Space -)

  • 박선명;김종하
    • 한국실내디자인학회논문집
    • /
    • 제24권2호
    • /
    • pp.125-133
    • /
    • 2015
  • Gaze induction characteristics in space vary depending on characteristics of spatial components and display. This study analyzed dominant eye-fixation characteristics of three zones of department store space. Eye-fixation characteristics depending on spatial components and positional relationship can be defined as follows. First, [**.jpg] was used as an extension in the process of storing the image photographed during image data processing for analysis in pixels and due to compressed storage of image data, the image produced with a clear boundary was stored in neutral colors. To remove this problem, the image used in operation was re-processed in black and white and stored in the [**.bmp] format with large capability, at the same time. As the result, the effort caused by unnecessary colors in the program operation process was corrected. Second, the gaze ratio to space area can be indicated as a strength of each gaze zone and when analyzing the gaze strength of the three zones, the left store was a zone with a "little strong" gaze strength of "102.8", the middle space was a zone with an "extremely weak" gaze strength of "89.6" and the right store was a zone with an "extremely strong" gaze strength of "117.2". Third, the IV section had a strong strength of gaze on the middle space and the right store and the V section showed a markedly strong strength of gaze on the left and right stores. This tendency was the same as the VI section with the strongest gaze strength and the right store had a little strong gaze strength than the left store.

A Simple Eye Gaze Correction Scheme Using 3D Affine Transformation and Image In-painting Technique

  • Ko, Eunsang;Ho, Yo-Sung
    • Journal of Multimedia Information System
    • /
    • 제5권2호
    • /
    • pp.83-86
    • /
    • 2018
  • Owing to high speed internet technologies, video conferencing systems are exploited in our home as well as work places using a laptop or a webcam. Although eye contact in the video conferencing system is significant, most systems do not support good eye contact due to improper locations of cameras. Several ideas have been proposed to solve the eye contact problem; however, some of them require complicated hardware configurations and expensive customized hardwares. In this paper, we propose a simple eye gaze correction method using the three-dimensional (3D) affine transformation. We also apply an image in-painting method to fill empty holes that are caused by round-off errors from the coordinate transformation. From experiments, we obtained visually improved results.

A Human-Robot Interface Using Eye-Gaze Tracking System for People with Motor Disabilities

  • Kim, Do-Hyoung;Kim, Jae-Hean;Yoo, Dong-Hyun;Lee, Young-Jin;Chung, Myung-Jin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제3권4호
    • /
    • pp.229-235
    • /
    • 2001
  • Recently, service area has been emerging field f robotic applications. Even though assistant robots play an important role for the disabled and the elderly, they still suffer from operating the robots using conventional interface devices such as joysticks or keyboards. In this paper we propose an efficient computer interface using real-time eye-gaze tracking system. The inputs to the proposed system are images taken by a camera and data from a magnetic sensor. The measured data is sufficient to describe the eye and head movement because the camera and the receiver of a magnetic sensor are stationary with respect to the head. So the proposed system can obtain the eye-gaze direction in spite of head movement as long as the distance between the system and the transmitter of a magnetic position sensor is within 2m. Experimental results show the validity of the proposed system in practical aspect and also verify the feasibility of the system as a new computer interface for the disabled.

  • PDF

Designing Real-time Observation System to Evaluate Driving Pattern through Eye Tracker

  • Oberlin, Kwekam Tchomdji Luther.;Jung, Euitay
    • 한국멀티미디어학회논문지
    • /
    • 제25권2호
    • /
    • pp.421-431
    • /
    • 2022
  • The purpose of this research is to determine the point of fixation of the driver during the process of driving. Based on the results of this research, the driving instructor can make a judgement on what the trainee stare on the most. Traffic accidents have become a serious concern in modern society. Especially, the traffic accidents among unskilled and elderly drivers are at issue. A driver should put attention on the vehicles around, traffic signs, passersby, passengers, road situation and its dashboard. An eye-tracking-based application was developed to analyze the driver's gaze behavior. It is a prototype for real-time eye tracking for monitoring the point of interest of drivers in driving practice. In this study, the driver's attention was measured by capturing the movement of the eyes in real road driving conditions using these tools. As a result, dwelling duration time, entry time and the average of fixation of the eye gaze are leading parameters that could help us prove the idea of this study.

분류하기에서 길이와 직각 표기의 효과: 정답률과 안구운동 분석을 중심으로 (The Effect of the Indication of Lengths and Angles on Classifying Triangles: Centering on Correct Answer Rate and Eye Movements)

  • 윤주미;이광호;이재학
    • 한국수학교육학회지시리즈C:초등수학교육
    • /
    • 제20권2호
    • /
    • pp.163-175
    • /
    • 2017
  • 본 연구는 평면 도형의 도형 분류하기 과제를 제시할 때 길이와 각의 표기 여부가 도형의 개념 이해에 어떤 영향을 주는지 알아보는데 목적이 있다. 이를 위해, 초등학교 4학년 학생 33명을 대상으로 분류하기 과제 해결 과정을 Eye-tracker를 통해 녹화하고 정답률과 Gaze Duration을 중심으로 분석하였다. 그 결과, 이등변삼각형과 정삼각형의 분류하기에서는 길이를 제시하였을 때 정답률이 증가하고 Gaze Duration은 감소하였다. 예각삼각형과 둔각삼각형 과제에서도 직각을 표기했을 때 정답률이 증가하고 Gaze Duration이 감소하였다. 이러한 결과로 볼 때, 평면도형을 분류하는 과제를 제시할 때는 길이와 각을 표기하여 학생들이 어림하여 도형을 분류하기 보다는 도형의 개념 이해를 바탕으로 분류하는 것을 측정하는 데 초점을 두어야 할 것이다.

Real Time Eye and Gaze Tracking

  • Park Ho Sik;Nam Kee Hwan;Cho Hyeon Seob;Ra Sang Dong;Bae Cheol Soo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.857-861
    • /
    • 2004
  • This paper describes preliminary results we have obtained in developing a computer vision system based on active IR illumination for real time gaze tracking for interactive graphic display. Unlike most of the existing gaze tracking techniques, which often require assuming a static head to work well and require a cumbersome calibration process for each person, our gaze tracker can perform robust and accurate gaze estimation without calibration and under rather significant head movement. This is made possible by a new gaze calibration procedure that identifies the mapping from pupil parameters to screen coordinates using the Generalized Regression Neural Networks (GRNN). With GRNN, the mapping does not have to be an analytical function and head movement is explicitly accounted for by the gaze mapping function. Furthermore, the mapping function can generalize to other individuals not used in the training. The effectiveness of our gaze tracker is demonstrated by preliminary experiments that involve gaze-contingent interactive graphic display.

  • PDF

1 인칭 슈팅 게임에서 눈동자 시선 추적에 의한 3차원 화면 조정 (3D View Controlling by Using Eye Gaze Tracking in First Person Shooting Game)

  • 이의철;조용주;박강령
    • 한국멀티미디어학회논문지
    • /
    • 제8권10호
    • /
    • pp.1293-1305
    • /
    • 2005
  • 본 논문에서는 HMD(head mounted display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(first Person shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 본 논문에서 제안하는 방법은 다음과 같이 세 부분으로 구성된다. 첫 번째는 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하는 부분, 두 번째는 HMD 모니터상의 임의 지점을 쳐다볼 때 추출된 눈동자의 위치 정보와 모니터상의 응시 위치 사이의 기하학적인 연관관계를 결정하는 캘리브레이션 부분, 그리고 마지막은 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하고, 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성된다. 실험 결과, 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시키는 결과를 얻을 수 있었다.

  • PDF

DNN을 이용한 응시 깊이 보정 (Correcting the gaze depth by using DNN)

  • 한석호;장훈석
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권3호
    • /
    • pp.123-129
    • /
    • 2023
  • 응시점을 통해 어떤 것을 보고 있는지 알 수 있다면 많은 정보를 얻을 수 있다. 응시 추적 기술의 발달로 응시점에 대한 정보는 다양한 응시 추적 기기에서 제공해주는 소프트웨어를 통해 얻을 수 있다. 하지만 실제 응시 깊이와 같은 정확한 정보를 추정하기란 어렵다. 응시 추적 기기를 통해 만약 실제 응시 깊이로 보정할 수 있다면 시뮬레이션, 디지털 트윈, VR 등 다양한 분야에서 현실적이고 정확한 신뢰성 있는 결과를 도출하는 것이 가능해질 것이다. 따라서 본 논문에서는 응시 추적 기기와 소프트웨어를 통해 원시 응시 깊이를 획득하고 보정하는 실험을 진행한다. 실험은 Deep Neural Network(DNN) 모델을 설계한 후 소프트웨어에서 제공하는 응시 깊이 값을 300mm에서 10,000mm까지 지정한 거리별로 획득한다. 획득한 데이터는 설계한 DNN 모델을 통해 학습을 진행하여 실제 응시 깊이와 대응하도록 보정하였다. 보정한 모델을 통해 실험을 진행한 결과, 300mm에서 10,000mm까지 지정한 거리별 297mm, 904mm, 1,485mm, 2,005mm, 3,011mm, 4,021mm, 4,972mm, 6,027mm, 7,026mm, 8,043mm, 9,021mm, 10,076mm로 실제와 비슷한 응시 깊이 값을 획득할 수 있었다.