• Title/Summary/Keyword: 시선응시

Search Result 53, Processing Time 0.031 seconds

Reliability Measurement Technique of The Eye Tracking System Using Gaze Point Information (사용자 응시지점 정보기반 시선 추적 시스템 신뢰도 측정 기법)

  • Kim, Byoung-jin;Kang, Suk-ju
    • Journal of Digital Contents Society
    • /
    • v.17 no.5
    • /
    • pp.367-373
    • /
    • 2016
  • In this paper, we propose a novel method to improve the accuracy of eye trackers and how to analyze them. The proposed method extracts a user profile information created by extracting gaze coordinates and color information based on the exact pupil information, and then, it maintains a high accuracy in the display. In case that extract the user profile information, the changes of the accuracy for the gaze time also is estimated and the optimum parameter value is extracted. In the experimental results for the accuracy of the gaze detection, the accuracy was low if a user took a short time in a specific point. On the other hand, when taking more than two seconds, the accuracy was measured more than 80 %.

A Design of Gaze Tracker based on Smart Mobile Device (스마트 이동단말 기반 시선 추적기 설계)

  • Ko, Ginam;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

The effects of the methods of eye gaze and visual angles on accuracy of P300 speller (시선응시 방법과 시각도가 P300 문자입력기의 정확도에 미치는 영향)

  • Eom, Jin-Sup;Sohn, Jin-Hun
    • Science of Emotion and Sensibility
    • /
    • v.17 no.2
    • /
    • pp.91-100
    • /
    • 2014
  • This study was to examine how visual angle of matrix corresponding to the physical properties of P300 speller and eye gaze corresponding to the user's personal characteristics influence on the accuracy of P300. Visual angle of the matrix was operated as the distance between the user and the matrix and three groups were composed: 60 cm group, 100 cm groups, and 150 cm group. Eye gaze methods was consisted three conditions. Head moving condition was putting eye gaze using head, pupil moving condition was moving pupil with the head fixed, while the eye fixed condition is to fix the eye gaze at the center of the matrix. The results showed that there was significant difference in the accuracy of P300 speller according to the eye gaze method. The accuracy of the head moving condition was higher than the accuracy of pupil moving conditions, accuracy of pupil moving conditions was higher than the accuracy of the eye fixed conditions. However, the effect of visual angle of matrix and interaction effect were not significant. When P300 amplitude of target character was measured depending on how you stare at the target character, P300 amplitude of the head moving condition was greater than P300 amplitude of the pupil moving condition. There was no significant difference in the error distribution in head moving condition and pupil moving condition, while there was a significant difference between two eye gaze conditions and fixed gaze condition. The error was located at the neighboring characters of the target character in head moving condition and pupil moving condition, while the error was relatively distributed widely in fixed eye condition, error was occurred with high rate in characters far away from the center of matrix.

Effects of ad endorser's gaze directions on social perceptions and advertising effectiveness (광고 모델의 시선 효과: 모델의 사회적 특성 지각과 광고 효과성)

  • Kang, Jungsuk
    • Science of Emotion and Sensibility
    • /
    • v.18 no.1
    • /
    • pp.3-14
    • /
    • 2015
  • An ad endorser's gaze direction is a salient nonverbal cue that consumers use in responding to advertisements. The gaze direction influences consumers' social perceptions (e.g., attractiveness, credibility) of the endorser and advertising effectiveness (e.g., advertising attitudes, brand attitudes). Especially, the cerebral emotional asymmetry hypothesis suggests that an ad endorser's left-averted gaze can produce more positive social perceptions and advertising effectiveness than the right-averted gaze for right-handed consumers. This study examined the effects of three gaze directions (direct, left-averted and right-averted gaze directions) of unknown female ad endorser on Korean males' advertising responses (attractiveness-, credibility- and ad-effectiveness-related responses), using online experimental method. The results indicated that the ad endorser's direct gaze was more likely to increase both positive (correspondence bias) and negative (suspicion, deceptiveness) social perceptions of her than the right-averted gaze. The direct gaze also created more positive advertising effectiveness (advertising attitudes) than the right-averted gaze. However, the study failed to find consistent differences in responses between left-averted gaze and either direct or right-averted gaze.

The Effects of Emotional Interaction with Virtual Student on the User's Eye-fixation and Virtual Presence in the Teaching Simulation (가상현실 수업시뮬레이션에서 가상학생과의 정서적 상호작용이 사용자의 시선응시 및 가상실재감에 미치는 영향)

  • Ryu, Jeeheon;Kim, Kukhyeon
    • The Journal of the Korea Contents Association
    • /
    • v.20 no.2
    • /
    • pp.581-593
    • /
    • 2020
  • The purpose of this study was to examine the eye-fixation times on different parts of a student avatar and the virtual presence with two scenarios in the virtual reality-based teaching simulation. This study was to identify user attention while he or she is interacting with a student avatar. By examining where a user is gazing during a conversation with the avatar, we have a better understanding of non-verbal communication. For this study, forty-five college students (21 females and 24 males) participated in the experiment. They had a conversation with a student avatar in a virtual reality-based teaching simulation. The participants had verbal interactions with the student avatar with two scenarios. While they were having a conversation with the virtual character in the teaching simulation, their eye-movements were collected through a head-mounted display with an eye-tracking function embedded. The results revealed that there were significant differences in eye-fixation times. Participants gazed a longer time on facial expression than any other area. The fixation time on the facial expression was more prolonged than on gestures (F=3.75, p<.05). However, the virtual presence was not significantly different in two scenario levels. This result suggested that users focus on the face more than the gesture when they emotionally interact with the virtual character.

A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face (소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로)

  • Ha, Sangjip;Yi, Eunju;Yoo, In-jin;Park, Do-Hyung
    • Journal of Intelligence and Information Systems
    • /
    • v.28 no.1
    • /
    • pp.243-262
    • /
    • 2022
  • In this study, eye tracking was used for the appearance of the robot during the social robot design study. During the research, each part of the social robot was designated as AOI (Areas of Interests), and the user's attitude was measured through a design evaluation questionnaire to construct a design research model of the social robot. The data used in this study are Fixation, First Visit, Total Viewed, and Revisits as eye tracking indicators, and AOI (Areas of Interests) was designed with the face, eyes, lips, and body of the social robot. And as design evaluation questionnaire questions, consumer beliefs such as Face-highlighted, Human-like, and Expressive of social robots were collected and as a dependent variable was attitude toward robots. Through this, we tried to discover the mechanism that specifically forms the user's attitude toward the robot, and to discover specific insights that can be referenced when designing the robot.

Face Detection based Real-time Eye Gaze Correction Method Using a Depth Camera (거리 카메라를 이용한 얼굴 검출 기반 실시간 시선 보정 방법)

  • Jo, Hoon;Ra, Moon-Soo;Kim, Whoi-Yul;Kim, Deuk-Hwa
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.151-154
    • /
    • 2012
  • 본 논문에서는 화상통신의 현실감을 증진시킬 수 있는 화자 간 시선 맞춤 시스템을 제안한다. 제안하는 방법은 Kinect 거리 카메라로부터 입력된 영상에서 화자의 얼굴 영역을 획득하여 화자의 시선이 카메라를 응시하도록 획득한 영역을 변환한 후에 원본 영상과 합성한다. Kinect 거리 카메라에서 획득한 얼굴 영역에는 다양한 형태의 잡음이 많아 미디언 필터와 모폴로지 연산을 통해 얼굴 영역의 잡음을 제거한다. 화자의 위치에 상관 없이 화자가 카메라를 응시하는 영상을 생성하기 위해서 Kinect 가 제공하는 거리 정보를 이용하여 시선 보정 각도와 회전 축을 획득한다. 시선이 보정된 얼굴 영역은 원본 영상에서 존재하지 않는 영역을 포함하고 있기 때문에, 원본 영상의 각 화소를 삼각형 메쉬로 구성한 후 해당 영역을 보간하여 최종적으로 시선이 보정된 영상을 생성한다. 제안하는 방법은 시선 맞춤 영상을 생성하는 데 필수적인 눈과 주변 얼굴 영역만 선택해서 변환하므로 영상의 왜곡이 적고 실시간 처리가 가능하다는 장점이 있다. 또한 카메라와 화자 사이의 거리 정보를 이용해 화자의 위치에 적응적인 시선 맞춤 영상을 생성할 수 있다. 실험을 통해 Intel i5 CPU 를 장착한 PC에서 $320{\times}240$ 크기의 영상을 사용할 경우 초당 약 35 프레임의 보정된 영상을 생성하여 제안하는 방법이 실시간 처리가 가능하다는 것을 확인하였다.

  • PDF

A Study on Eye Gaze Tracking for View Controlling in 3D First Person Shooting Game (3차원 1인칭 슈팅 게임에서의 화면 조정을 위한 시선 위치 추적 연구)

  • Lee, Eui-Chul;Park, Kang-Ryoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.873-876
    • /
    • 2005
  • 본 논문에서는 HMD(Head Mounted Display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(First Person Shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 시스템은 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하고, 눈동자의 위치 정보와 모니터상의 응시 지점사이의 기하학적인 연관관계를 결정하는 캘리브레이션을 진행하며, 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하여 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성되어 있다. 실험 결과 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시킬 수 있는 결과를 얻음을 수 있었다.

  • PDF

Information Architecture Design using Eye-Tracking Method (Eye-Tracking Method를 이용한 메뉴구조 설계 및 평가)

  • Park, Jong-Soon;Lee, Sun-Jung;Myung, Ro-Hae
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.15-20
    • /
    • 2007
  • 본 연구는 시선 추적 방법(Eye-Tracking Method)을 이용한 디지털 컨버전스 제품의 정보 설계 및 평가에 관한 방법론을 제시하였다. Eye-tracking 데이터는 visual search의 효율성 뿐 아니라 타겟의 유의미성이나 가시성등을 측정하는데 유익하다. 응시 횟수와 응시 시간을 통하여 사용자의 심성 모형에 따른 시선 행위와 제품 메뉴 구조간의 전체적인 일치도를 정량적으로 분석하였고, 각 메뉴 item의 세부적인 인지 반응 정도를 평가하였다. 컨버전스 제품의 한 예로 휴대폰을 선정하여 실험을 실시하였으며, 활성화 확산 실험(SAT)을 수행하여 메뉴 항목 상호간의 인지반응 정도를 통한 문제점을 도출한 후 사용자 시나리오를 작성하였다. 1차 테스트를 통하여 피실험자의 시나리오 수행 시 어려움을 알 수 있었으며, 1차 테스트의 결과와 인터뷰 결과를 바탕으로 프로토타입의 메뉴명을 개선하여 2차 테스트를 실시하였다. 실험 결과 개선 전보다 후의 응시 횟수, 응시 시간 또한 감소하여 수행도가 향상됨으로 메뉴 구조의 개선된 결과를 가져왔다. 본 연구는 인간의 눈 움직임 측정치 결과를 토대로 사용자 심성 모형에 부합하여 누구나 접근이 쉬운 정보 구조를 설계할 수 있었다. 그러므로 본 연구에서 제시하는 Eye-tracking Method는 디지털 컨버전스로 인한 복잡한 정보 구조의 설계와 평가에 기여할 것으로 보인다.

  • PDF

Estimation of a Gaze Point in 3D Coordinates using Human Head Pose (휴먼 헤드포즈 정보를 이용한 3차원 공간 내 응시점 추정)

  • Shin, Chae-Rim;Yun, Sang-Seok
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2021.10a
    • /
    • pp.177-179
    • /
    • 2021
  • This paper proposes a method of estimating location of a target point at which an interactive robot gazes in an indoor space. RGB images are extracted from low-cost web-cams, user head pose is obtained from the face detection (Openface) module, and geometric configurations are applied to estimate the user's gaze direction in the 3D space. The coordinates of the target point at which the user stares are finally measured through the correlation between the estimated gaze direction and the plane on the table plane.

  • PDF