• 제목/요약/키워드: eye gaze tracking

검색결과 130건 처리시간 0.033초

소비자 시선 분석을 통한 소셜로봇 태도 형성 메커니즘 연구: 로봇의 얼굴을 중심으로 (A Study on the Mechanism of Social Robot Attitude Formation through Consumer Gaze Analysis: Focusing on the Robot's Face)

  • 하상집;이은주;유인진;박도형
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.409-414
    • /
    • 2021
  • 본 연구는 소셜로봇 디자인 연구의 흐름 중 하나인 로봇의 외형에 관하여 시선 추적을 활용하고자 한다. 소셜로봇의 몸 전체, 얼굴, 눈, 입술 등의 관심 영역으로부터 측정된 사용자의 시선 추적 지표와 디자인평가 설문을 통하여 파악된 사용자의 태도를 연결하여 소셜로봇의 디자인에 연구 모형을 구성하였다. 구체적으로 로봇에 대한 사용자의 태도를 형성하는 메커니즘을 발견하여 로봇 디자인 시 참고할 수 있는 구체적인 인사이트를 발굴하고자 하였다. 구체적으로 본 연구에서 사용된 시선 추적 지표는 고정된 시간(Fixation), 첫 응시 시간(First Visit), 전체 머문 시간(Total Viewed), 그리고 재방문 횟수(Revisits)이며, 관심 영역인 AOI(Areas of Interests)는 소셜로봇의 얼굴, 눈, 입술, 그리고 몸체로 설계하였다. 그리고 디자인평가 설문을 통하여 소셜로봇의 감정 표현, 인간다움, 얼굴 두각성 등의 소비자 신념을 수집하였고, 종속변수로 로봇에 대한 태도로 설정하였다.

  • PDF

변별과제에서 초등학생의 안구운동 분석을 통한 발견적 주의 모델 개발 (Development of the Heuristic Attention Model Based on Analysis of Eye Movement of Elementary School Students on Discrimination task)

  • 신원섭;신동훈
    • 한국과학교육학회지
    • /
    • 제33권7호
    • /
    • pp.1471-1485
    • /
    • 2013
  • 본 연구에서는 변별과제를 해결하는 동안 초등학생의 안구운동을 분석하여 발견적 주의모델을 개발하였다. 연구 참여자는 초등학교 6학년 20명이었고 모두 부모의 동의 절차를 거친 자발적인 지원자였다. 본 연구에 사용된 변별과제는 권재술과 김범기(1994)가 개발한 과학탐구능력 검사지에서 아이트래킹으로 실험 가능한 두 과제를 선택하였다. 학생들의 안구운동의 수집은 SMI사의 iView X TM RED 120 Hz를 사용하였고 실험설계와 분석은 동사의 Experiment 3.2와 BeGaze 3.2의 소프트웨어를 사용하였다. 학생들의 모든 안구운동은 응시시간에 대한 정량적인 분석과 문제해결과정에서 학생개인의 인지사고과정을 추론하는 정성적인 분석과정을 거쳤다. 본 연구결과는 다음과 같다. 첫째, 학생들의 실험 자료의 시각정보의 복잡한 정도에 따라 인지적 부담이 가중되었고 대상을 재인하는 관점 의존적이었다. 둘째, 실험 자료의 제시로 상향식주의가 발화되었고 하향식주의에 의해 의도적이고 목표지향적인 안구운동과 혼란 주의에 의한 안구운동을 구분할 수 있었다. 이를 토대로 인간의 주의와 안구운동을 도식할 수 있었다. 셋째, 압축된 시선흐름(compressed scan-path)을 분석하여 학생들의 문제해결전략을 도출하였다. 넷째, 본 연구의 결과를 통해 발견적 주의 모델(HAM)을 개발하였다. 이 발견적 주의 모델은 앞으로 학생들의 문제해결과정을 분석하는데 효과적인 분석관점을 제공할 것으로 기대된다.

실제 과학수업에서 시선추적과 주의력 검사를 통한 초등학생들의 주의 특성 분석 (An Analysis of Elementary Students' Attention Characteristics through Attention Test and the Eye Tracking on Real Science Classes)

  • 신원섭;신동훈
    • 한국과학교육학회지
    • /
    • 제36권4호
    • /
    • pp.705-715
    • /
    • 2016
  • 이 연구의 목적은 실제 과학수업에서 시선추적과 주의력 검사를 통해 초등학생들의 주의의 특성을 분석하는 것이다. 초등학생들의 주의 과정을 분석하기 위하여 SMI사의 ETG(eye tracker glasses) 이동형 시선추적기를 사용하였고, 샘플링 속도는 30Hz이다. 사전 주의력 검사의 연구대상은 초등학교 6학년 155명이었고, 시선추적의 연구 대상은 초등학교 6학년 남학생 6명이었다. 시선추적의 연구대상자는 모두 과거 안구병력이 없었으며, 안경을 쓰지 않았다. 안구운동 분석은 'BeGaze Mobile Video Analysis Package' 프로그램을 사용하였다. 연구결과는 다음과 같다. 첫째, 초등학생의 주의력 검사 결과, 선택적 주의와 자기통제는 .316으로 낮은 상관을 보였고, 선택적 주의와 지속적 주의는 .85로 높은 상관을 보였다. 둘째, 선택적 주의와 자기 통제의 상관관계를 기준으로 초등학생들의 주의 유형을 주의형(attentive type), 비주의형(inattentive type), 안이형(easygoing type), 경솔형(hasty type)으로 구분하였다. 셋째, 실제 과학수업에서 초등학생들의 안구운동분석을 통해 초등학생들의 주의는 상향식 주의처리, 하향식 주의처리, 디폴트 모드 네트워크로 구분할 수 있었다. 또한 실제 수업에서 초등학생들의 주의 전환은 다양한 원인으로 인해 빈번히 발생하였다. 초등학생들이 목표 지향적이고 지식에 의존하는 하향식 주의 처리를 못하는 원인은 초점주의 실패로 인한 목표 대상 지각의 실패, 목표 대상에 대한 관련지식의 부재, 관련지식에 대한 유추의 실패 등으로 나타났다. 주의력 검사와 안구운동분석을 종합하여 초등학생의 주의 처리과정을 도식하였다. 이 연구에서 밝힌 초등학생의 주의 특성과 주의 처리과정이 효과적인 교수전략, 교수학습 모형, 교수자료를 개발하는데 기초적인 자료로 활용될 것을 기대한다.

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 조현섭;유인호;김희숙
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 제36회 하계학술대회 논문집 D
    • /
    • pp.2839-2842
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90% 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

3차원 1인칭 슈팅 게임에서의 화면 조정을 위한 시선 위치 추적 연구 (A Study on Eye Gaze Tracking for View Controlling in 3D First Person Shooting Game)

  • 이의철;박강령
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.873-876
    • /
    • 2005
  • 본 논문에서는 HMD(Head Mounted Display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(First Person Shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 시스템은 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하고, 눈동자의 위치 정보와 모니터상의 응시 지점사이의 기하학적인 연관관계를 결정하는 캘리브레이션을 진행하며, 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하여 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성되어 있다. 실험 결과 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시킬 수 있는 결과를 얻음을 수 있었다.

  • PDF

OLED-Microdisplay with embedded camera for HMD applications

  • Vogel, Uwe;Herold, Rigo;Kreye, Daniel;Richter, Bernd;Bunk, Gerd;Reckziegel, Sven;Scholles, Michael;Grillberger, Christiane;Toerker, Michael;Amelung, Jorg
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2009년도 9th International Meeting on Information Display
    • /
    • pp.408-410
    • /
    • 2009
  • First demonstrators of bi-directional OLED microdisplay devices have been developed and integrated into see-through HMD optics. The device combines 'display' and 'imaging' by nested OLED pixels and photodetectors in a single CMOS chip. Major aim of this integration is to provide capabilities for eyetracking to achieve gaze-based human-displayinteraction.

  • PDF

HCI를 위한 눈 응시방향 추적 시스템 개발 (Development of the eye-gaze tracking system for HCI)

  • 김도형;유동현;정명진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1999년도 하계학술대회 논문집 G
    • /
    • pp.3007-3009
    • /
    • 1999
  • 정보와 시대인 요즘 컴퓨터의 사용이 갈수록 증가하면서 사용의 편이를 높이기 위하여 사람과 컴퓨터간의 인터페이스에 대한 연구가 많아지고 있다. 새로운 형태의 인터페이스는 자연적인 사람의 행동 양식을 분석하여 그 정보로부터 사용자의 의도를 추출해내는 의도 파악(Intention reading)에 기반한 형태이다. 우리가 관심을 두고 있는 시스템은 사용자가 바라보고 있는 방향을 추적하여 그 방향을 이용하여 컴퓨터를 조작하는 시스템이다. 응시방향을 알아내기 위해 카메라를 이용하여 눈의 움직임을 관찰한다. 그리고 얼굴의 움직임이 있는 일반적인 경우 정확한 눈의 응시 방향을 결정하기 위해서 눈에 대한 정보만을 이용하지 않고 얼굴이 향하고 있는 방향을 추정하여 더 일반적이고 정확한 눈의 응시방향을 결정고자 한다. 본 논문에서는 기존의 눈 응시 방향 추적 방법들에 대하여 소개하고 우리가 개발하려고 하는 시스템에 대해 언급하고자 한다.

  • PDF

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

운전자 피로 감지를 위한 얼굴 동작 인식 (Facial Behavior Recognition for Driver's Fatigue Detection)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.756-760
    • /
    • 2010
  • 본 논문에서는 운전자 피로 감지를 위한 얼굴 동작을 효과적으로 인식하는 방법을 제안하고자 한다. 얼굴 동작은 얼굴 표정, 얼굴 자세, 시선, 주름 같은 얼굴 특징으로 나타난다. 그러나 얼굴 특징으로 하나의 동작 상태를 뚜렷이 구분한다는 것은 대단히 어려운 문제이다. 왜냐하면 사람의 동작은 복합적이며 그 동작을 표현하는 얼굴은 충분한 정보를 제공하기에는 모호성을 갖기 때문이다. 제안된 얼굴 동작 인식 시스템은 먼저 적외선 카메라로 눈 검출, 머리 방향 추정, 머리 움직임 추정, 얼굴 추적과 주름 검출과 같은 얼굴 특징 등을 감지하고 획득한 특징을 FACS의 AU로 나타낸다. 획득한 AU를 근간으로 동적 베이지안 네트워크를 통하여 각 상태가 일어날 확률을 추론한다.

Understanding the Importance of Presenting Facial Expressions of an Avatar in Virtual Reality

  • Kim, Kyulee;Joh, Hwayeon;Kim, Yeojin;Park, Sohyeon;Oh, Uran
    • International journal of advanced smart convergence
    • /
    • 제11권4호
    • /
    • pp.120-128
    • /
    • 2022
  • While online social interactions have been more prevalent with the increased popularity of Metaverse platforms, little has been studied the effects of facial expressions in virtual reality (VR), which is known to play a key role in social contexts. To understand the importance of presenting facial expressions of a virtual avatar under different contexts, we conducted a user study with 24 participants where they were asked to have a conversation and play a charades game with an avatar with and without facial expressions. The results show that participants tend to gaze at the face region for the majority of the time when having a conversation or trying to guess emotion-related keywords when playing charades regardless of the presence of facial expressions. Yet, we confirmed that participants prefer to see facial expressions in virtual reality as well as in real-world scenarios as it helps them to better understand the contexts and to have more immersive and focused experiences.