• 제목/요약/키워드: eye gaze tracking

검색결과 128건 처리시간 0.021초

HCI를 위한 시선추적 시스템에서 분해능의 추정기법 (Resolution Estimation Technique in Gaze Tracking System for HCI)

  • 김기봉;최현호
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.20-27
    • /
    • 2021
  • 시선추적은 NUI 기술 중의 하나로 사용자가 응시하는 곳을 추적을 통해 알아낸다. 이 기술은 텍스트를 입력하거나 GUI를 제어할 수 있도록 하고 더 나아가 사용자의 시선 분석도 가능하게 하여 상업 광고 등에 응용될 수 있도록 한다. 시선추적 시스템은 영상의 품질과 사용자 움직임의 자유도에 따라 허용범위가 달라진다. 따라서 시선추적의 정밀도를 미리 추정하는 방법이 필요하다. 시선추적의 정확도는 하드웨어적인 변수 외에도 시선추적 알고리즘을 어떻게 구현하느냐에 따라 많은 영향을 받는다. 이에 따라 본 논문에서는 영상에서 동공 중심의 가능한 최대 이동 거리의 추정으로 동공 중심이 한 픽셀 움직일 때 시선은 몇 도가 바뀌는지 즉, 이론적 최대 분해능이 얼마인지를 추정하는 방법을 제시한다.

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.477-483
    • /
    • 2004
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참석하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

시선 추적을 활용한 패션 디자인 인지에 관한 연구 (A Study on Fashion Design Cognition Using Eye Tracking)

  • 이신영
    • 한국의류산업학회지
    • /
    • 제23권3호
    • /
    • pp.323-336
    • /
    • 2021
  • This study investigated the cognitive process of fashion design images through eye activity tracking. Differences in the cognitive process and gaze activity according to image elements were confirmed. The results of the study are as follows. First, a difference was found between groups in the gaze time for each section according to the model and design. Although model diversity is an important factor leading the interest of observers, the simplicity of the model was deemed more effective for observing the design. Second, the examination of the differences by segments regarding the gaze weight of the image area showed differences for each group. When a similar type of model is repeated, the proportion of face recognition decreases, and the proportion of design recognition time increases. Conversely, when the model diversity is high, the same amount of time is devoted to recognizing the model's face in all the processes. Additionally, there was a difference in the gaze activity in recognizing the same design according to the type of model. These results enabled the confirmation of the importance of the model as an image recognition factor in fashion design. In the fashion industry, it is important to find a cognitive factor that attracts and retains consumers' attention. If the design recognition effect is further maximized by finding service points to be utilized, the brand's sustainability is expected to be enhanced even in the rapidly changing fashion industry.

로봇 캐릭터와의 상호작용에서 사용자의 시선 배분 분석 (Analysis of User's Eye Gaze Distribution while Interacting with a Robotic Character)

  • 장세윤;조혜경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.74-79
    • /
    • 2019
  • In this paper, we develop a virtual experimental environment to investigate users' eye gaze in human-robot social interaction, and verify it's potential for further studies. The system consists of a 3D robot character capable of hosting simple interactions with a user, and a gaze processing module recording which body part of the robot character, such as eyes, mouth or arms, the user is looking at, regardless of whether the robot is stationary or moving. To verify that the results acquired on this virtual environment are aligned with those of physically existing robots, we performed robot-guided quiz sessions with 120 participants and compared the participants' gaze patterns with those in previous works. The results included the followings. First, when interacting with the robot character, the user's gaze pattern showed similar statistics as the conversations between humans. Second, an animated mouth of the robot character received longer attention compared to the stationary one. Third, nonverbal interactions such as leakage cues were also effective in the interaction with the robot character, and the correct answer ratios of the cued groups were higher. Finally, gender differences in the users' gaze were observed, especially in the frequency of the mutual gaze.

사용자 응시지점 정보기반 시선 추적 시스템 신뢰도 측정 기법 (Reliability Measurement Technique of The Eye Tracking System Using Gaze Point Information)

  • 김병진;강석주
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권5호
    • /
    • pp.367-373
    • /
    • 2016
  • 본 논문에서는 사용자 시선 추적에 사용되는 시선 추적기의 정확도 향상 및 이를 분석하는 방법을 제안한다. 제안하는 방법에서는 시선 좌표와 색 정보를 추출하여 정확한 동공 정보를 기반으로 만들어진 사용자 profile 정보를 추출한 후 이를 기반으로 시선 추적기가 부착된 디스플레이에서 고르게 높은 정확도를 유지 하도록 한다. 이 때 사용자 profile 정보 추출 시 응시 시간에 따른 정확도의 변화 또한 추정하여 최적의 파라미터 값을 추출한다. 시선 추적의 정확도에 대한 실험 결과 짧은 시간으로 특정지점을 응시할 경우 시선 추적의 정확도가 낮게 측정되지만, 응시 시간을 2초 이상의 유지 시 80% 이상의 높은 시선 추적 정확도가 측정됨을 알 수 있었다.

Gaze Detection by Wearable Eye-Tracking and NIR LED-Based Head-Tracking Device Based on SVR

  • Cho, Chul Woo;Lee, Ji Woo;Shin, Kwang Yong;Lee, Eui Chul;Park, Kang Ryoung;Lee, Heekyung;Cha, Jihun
    • ETRI Journal
    • /
    • 제34권4호
    • /
    • pp.542-552
    • /
    • 2012
  • In this paper, a gaze estimation method is proposed for use with a large-sized display at a distance. Our research has the following four novelties: this is the first study on gaze-tracking for large-sized displays and large Z (viewing) distances; our gaze-tracking accuracy is not affected by head movements since the proposed method tracks the head by using a near infrared camera and an infrared light-emitting diode; the threshold for local binarization of the pupil area is adaptively determined by using a p-tile method based on circular edge detection irrespective of the eyelid or eyelash shadows; and accurate gaze position is calculated by using two support vector regressions without complicated calibrations for the camera, display, and user's eyes, in which the gaze positions and head movements are used as feature values. The root mean square error of gaze detection is calculated as $0.79^{\circ}$ for a 30-inch screen.

입 벌림 인식과 팝업 메뉴를 이용한 시선추적 마우스 시스템 성능 개선 (Improving Eye-gaze Mouse System Using Mouth Open Detection and Pop Up Menu)

  • 변주영;정기철
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1454-1463
    • /
    • 2020
  • An important factor in eye-tracking PC interface for general paralyzed patients is the implementation of the mouse interface, for manipulating the GUI. With a successfully implemented mouse interface, users can generate mouse events exactly at the point of their choosing. However, it is difficult to define this interaction in the eye-tracking interface. This problem has been defined as the Midas touch problem and has been a major focus of eye-tracking research. There have been many attempts to solve this problem using blink, voice input, etc. However, it was not suitable for general paralyzed patients because some of them cannot wink or speak. In this paper, we propose a mouth-pop-up, eye-tracking mouse interface that solves the Midas touch problem as well as becoming a suitable interface for general paralyzed patients using a common RGB camera. The interface presented in this paper implements a mouse interface that detects the opening and closing of the mouth to activate a pop-up menu that the user can select the mouse event. After implementation, a performance experiment was conducted. As a result, we found that the number of malfunctions and the time to perform tasks were reduced compared to the existing method.

DNN을 이용한 응시 깊이 보정 (Correcting the gaze depth by using DNN)

  • 한석호;장훈석
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권3호
    • /
    • pp.123-129
    • /
    • 2023
  • 응시점을 통해 어떤 것을 보고 있는지 알 수 있다면 많은 정보를 얻을 수 있다. 응시 추적 기술의 발달로 응시점에 대한 정보는 다양한 응시 추적 기기에서 제공해주는 소프트웨어를 통해 얻을 수 있다. 하지만 실제 응시 깊이와 같은 정확한 정보를 추정하기란 어렵다. 응시 추적 기기를 통해 만약 실제 응시 깊이로 보정할 수 있다면 시뮬레이션, 디지털 트윈, VR 등 다양한 분야에서 현실적이고 정확한 신뢰성 있는 결과를 도출하는 것이 가능해질 것이다. 따라서 본 논문에서는 응시 추적 기기와 소프트웨어를 통해 원시 응시 깊이를 획득하고 보정하는 실험을 진행한다. 실험은 Deep Neural Network(DNN) 모델을 설계한 후 소프트웨어에서 제공하는 응시 깊이 값을 300mm에서 10,000mm까지 지정한 거리별로 획득한다. 획득한 데이터는 설계한 DNN 모델을 통해 학습을 진행하여 실제 응시 깊이와 대응하도록 보정하였다. 보정한 모델을 통해 실험을 진행한 결과, 300mm에서 10,000mm까지 지정한 거리별 297mm, 904mm, 1,485mm, 2,005mm, 3,011mm, 4,021mm, 4,972mm, 6,027mm, 7,026mm, 8,043mm, 9,021mm, 10,076mm로 실제와 비슷한 응시 깊이 값을 획득할 수 있었다.

저가형 EOG 계측장치를 이용한 시선추적 (Gaze Tracking with Low-cost EOG Measuring Device)

  • 장승태;이정환;장재영;장원두
    • 한국융합학회논문지
    • /
    • 제9권11호
    • /
    • pp.53-60
    • /
    • 2018
  • 아두이노와 저가형 생체신호 증폭기를 사용하여 시선추적실험을 실시하고 결과를 분석하였다. 본 연구에서는 간단한 4방향의 시선이동 인식실험과 함께, 시선을 사용하여 영어 알파벳 등을 직접 쓰는 eye-writing 인식실험을 함께 진행함으로, 새롭게 구성한 안구전도 측정장치의 실용성을 평가하고, 더 나아가 저가형 안구전도 장치가 eye-writing과 같은 복잡한 사람-컴퓨터간 상호작용도구로 활용될 수 있는지를 분석하였다. 실험을 위해서 PSL-iEOG와 아두이노를 사용하는 저가형 안구전도 측정장치가 구성되었으며, 패턴분류를 위해 dynamic positional warping과 웨이블릿 변환이 사용되었다. 실험 결과, 저가형 측정장치는 비교적 단순한 알고리즘만으로도 외부 잡음이 유입되지 않은 경우 90%에 가까운 정확도로 시선방향을 인식할 수 있었으며, eye-writing의 경우에도 5개 패턴에 대해서 90%의 중위 정확도를 달성할 수 있었다. 그러나 패턴의 숫자가 증가함에 따라 정확도가 매우 감소하여, 다양한 패턴의 직접적인 입력이라는 eye-writing의 장점을 부각하기 위해서는 저가형 장치에 특화된 알고리즘의 개발 등 추가적인 연구가 필요할 것으로 여겨진다.

1 인칭 슈팅 게임에서 눈동자 시선 추적에 의한 3차원 화면 조정 (3D View Controlling by Using Eye Gaze Tracking in First Person Shooting Game)

  • 이의철;조용주;박강령
    • 한국멀티미디어학회논문지
    • /
    • 제8권10호
    • /
    • pp.1293-1305
    • /
    • 2005
  • 본 논문에서는 HMD(head mounted display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(first Person shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 본 논문에서 제안하는 방법은 다음과 같이 세 부분으로 구성된다. 첫 번째는 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하는 부분, 두 번째는 HMD 모니터상의 임의 지점을 쳐다볼 때 추출된 눈동자의 위치 정보와 모니터상의 응시 위치 사이의 기하학적인 연관관계를 결정하는 캘리브레이션 부분, 그리고 마지막은 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하고, 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성된다. 실험 결과, 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시키는 결과를 얻을 수 있었다.

  • PDF