• Title/Summary/Keyword: eye gaze

Search Result 245, Processing Time 0.025 seconds

A Visual Hypernetwork Model Using Eye-Gaze-Information-Based Active Sampling (안구운동추적 정보기반 능동적 샘플링을 반영한 시각 하이퍼네트워크 모델)

  • Kim, Eun-Sol;Kim, Ji-Seop;Amaro, Karinne Ramirez;Beetz, Michael;Jang, Byeong-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.324-326
    • /
    • 2012
  • 기계 학습에서 입력 데이터의 차원을 줄이는 문제(dimension reduction)는 매우 중요한 문제 중의 하나이다. 입력 변수의 차원이 늘어남에 따라 처리해야하는 연산의 수와 계산 복잡도가 급격히 늘어나기 때문이다. 이를 해결하기 위하여 다수의 기계 학습 알고리즘은 명시적으로 차원을 줄이거나(feature selection), 데이터에 약간의 연산을 가하여 차원이 작은 새로운 입력 데이터를 만든다(feature extraction). 반면 사람이 여러 종류의 고차원 센서 데이터를 입력받아 빠른 시간 안에 정확하게 정보를 처리할 수 있는 가장 큰 이유 중 하나는 실시간으로 판단하여 가장 필요한 정보에 집중하기 때문이다. 본 연구는 사람의 정보 처리 과정을 기계 학습 알고리즘에 반영하여, 집중도를 이용하여 효율적으로 데이터를 처리하는 방법을 제시한다. 이 성질을 시각 하이퍼네트워크 모델에 반영하여, 효율적으로 고차원 입력 데이터를 다루는 방법을 제안한다. 실험에서는 시각 하이퍼네트워크를 이용하여 고차원의 이미지 데이터에서 행동을 분류하였다.

A Study on Eye Gaze Tracking for View Controlling in 3D First Person Shooting Game (3차원 1인칭 슈팅 게임에서의 화면 조정을 위한 시선 위치 추적 연구)

  • Lee, Eui-Chul;Park, Kang-Ryoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.873-876
    • /
    • 2005
  • 본 논문에서는 HMD(Head Mounted Display) 하단에 눈동자의 움직임 영상을 취득할 수 있는 USB 카메라를 부착한 후, 3차원 1인칭 슈팅(First Person Shooting) 게임에서 게임 캐릭터의 시선방향을 눈동자 움직임에 의해 조작하는 방법을 제안한다. 시스템은 입력 영상으로부터 눈동자의 중심 위치를 실시간 영상 처리 방법으로 추출하고, 눈동자의 위치 정보와 모니터상의 응시 지점사이의 기하학적인 연관관계를 결정하는 캘리브레이션을 진행하며, 캘리브레이션 정보를 기반으로 모니터 상의 최종적인 응시 위치를 결정하여 이 정보에 의해 게임상의 3차원 뷰(view) 방향을 조정하는 부분으로 구성되어 있다. 실험 결과 본 논문의 방법에 의해 손이 불편한 사용자에게 게임을 즐길 수 있는 기회를 제공하고, 게임 캐릭터와 게임 사용자의 시선 방향을 일치시킴으로서 게임의 흥미와 몰입감을 증가시킬 수 있는 결과를 얻음을 수 있었다.

  • PDF

A New Ocular Torsion Measurement Method Using Iterative Optical Flow

  • Lee InBum;Choi ByungHun;Kim SangSik;Park Kwang Suk
    • Journal of Biomedical Engineering Research
    • /
    • v.26 no.3
    • /
    • pp.133-138
    • /
    • 2005
  • This paper presents a new method for measuring ocular torsion using the optical flow. Images of the iris were cropped and transformed into rectangular images that were orientation invariant. Feature points of the iris region were selected from a reference and a target image, and the shift of each feature was calculated using the iterative Lucas-Kanade method. The feature points were selected according to the strength of the corners on the iris image. The accuracy of the algorithm was tested using printed eye images. In these images, torsion was measured with $0.15^{\circ}$ precision. The proposed method shows robustness even with the gaze directional changes and pupillary reflex environment of real-time processing.

OLED-Microdisplay with embedded camera for HMD applications

  • Vogel, Uwe;Herold, Rigo;Kreye, Daniel;Richter, Bernd;Bunk, Gerd;Reckziegel, Sven;Scholles, Michael;Grillberger, Christiane;Toerker, Michael;Amelung, Jorg
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 2009.10a
    • /
    • pp.408-410
    • /
    • 2009
  • First demonstrators of bi-directional OLED microdisplay devices have been developed and integrated into see-through HMD optics. The device combines 'display' and 'imaging' by nested OLED pixels and photodetectors in a single CMOS chip. Major aim of this integration is to provide capabilities for eyetracking to achieve gaze-based human-displayinteraction.

  • PDF

Hole Filling Method for Natural Eye Gaze Correction (자연스러운 눈맞춤 영상을 위한 홀 채움 방법)

  • Ko, Eunsang;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2015.11a
    • /
    • pp.169-172
    • /
    • 2015
  • 영상회의 장치에서 눈맞춤 영상을 생성하기 위해 어파인 변환(affine transformation)을 이용하면 반올림 오차(round-off error) 때문에 홀이 발생한다. 이러한 홀을 채우려면 홀 영역을 가리키는 홀 채움 마스크가 필요하다. 홀 채움은 보통 홀 채움 마스크를 참조하여 홀이 아닌 이웃 화소값들을 기반으로 손상된 영상을 복원하는 작업이다. 따라서 홀 영역을 정확히 검출하고 적당한 개수의 이웃 화소값을 참조해야 자연스러운 홀 채움 영상을 생성할 수 있다. 한편, 눈맞춤 영상을 생성할 때 얼굴 특징점을 이용해 얼굴 변환 마스크를 만들고, 얼굴 변환 마스크에만 어파인 변환을 수행한다. 이 논문에서는 얼굴 특징점에도 어파인 변환을 수행하고 수정된 얼굴 변환 마스크를 획득하여 정확한 홀 채움 마스크를 구한다. 또한, 홀 채움 마스크에서 레이블링을 수행하여 큰 홀 영역을 제거한다. 마지막으로, 어파인 변환을 수행할 때 기존 영상의 좌표값을 이용하여 자연스러운 홀 채움 영상을 생성한다. 제안하는 방법으로 홀 채움을 수행한 결과, 연속적인 눈맞춤 동영상에서 이웃값들을 참조하여 홀 채움을 수행한 영상보다 자연스러움을 확인했다.

  • PDF

Development of the eye-gaze tracking system for HCI (HCI를 위한 눈 응시방향 추적 시스템 개발)

  • Kim, Do-Hyoung;Yoo, Dong-Hyun;Chung, Myung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 1999.07g
    • /
    • pp.3007-3009
    • /
    • 1999
  • 정보와 시대인 요즘 컴퓨터의 사용이 갈수록 증가하면서 사용의 편이를 높이기 위하여 사람과 컴퓨터간의 인터페이스에 대한 연구가 많아지고 있다. 새로운 형태의 인터페이스는 자연적인 사람의 행동 양식을 분석하여 그 정보로부터 사용자의 의도를 추출해내는 의도 파악(Intention reading)에 기반한 형태이다. 우리가 관심을 두고 있는 시스템은 사용자가 바라보고 있는 방향을 추적하여 그 방향을 이용하여 컴퓨터를 조작하는 시스템이다. 응시방향을 알아내기 위해 카메라를 이용하여 눈의 움직임을 관찰한다. 그리고 얼굴의 움직임이 있는 일반적인 경우 정확한 눈의 응시 방향을 결정하기 위해서 눈에 대한 정보만을 이용하지 않고 얼굴이 향하고 있는 방향을 추정하여 더 일반적이고 정확한 눈의 응시방향을 결정고자 한다. 본 논문에서는 기존의 눈 응시 방향 추적 방법들에 대하여 소개하고 우리가 개발하려고 하는 시스템에 대해 언급하고자 한다.

  • PDF

Non-contact Eye Gaze Point Estimation System by Mapping of Corneal Reflections (각막 반사의 매핑을 이용한 비접촉식 눈의 응시점 추정 시스템)

  • Yoo, Dong-Hyun;Chung, Myung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 2001.07d
    • /
    • pp.2352-2354
    • /
    • 2001
  • 본 논문에서는 컴퓨터의 사용자가 모니터의 스크린 상의 어느 곳을 바라보고 있는지 추정하는 새로운 알고리즘을 제시한다. 적외선 LED와 CCD카메라를 이용하는 이 방법은 기존의 방법과 다르게 5개의 적외선 LED를 사용하는데 적외선의 반사에 의해 눈의 각막에는 네 개의 밝은 점들이 나타나고 이 점을 꼭지점으로 하는 사각형 안에서 동공의 중심이 움직인다는 사실을 이용한다. 이 방법은 눈의 3차원 위치, 카메라의 위치, 모니터의 위치에 따른 관계식을 구할 필요 없이 간단한 계산으로 눈의 응시점을 찾아낼 수 있다는 장점을 가지고 있다. 여기서는 이 방법을 소개하고 실험결과를 보여준다.

  • PDF

Deep Learning-based Gaze Direction Vector Estimation Network Integrated with Eye Landmark Localization (딥러닝 기반의 눈 랜드마크 위치 검출이 통합된 시선 방향 벡터 추정 네트워크)

  • Joo, Hee Young;Ko, Min Soo;Song, Hyok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.180-182
    • /
    • 2021
  • 본 논문은 눈 랜드마크 위치 검출과 시선 방향 벡터 추정이 하나의 딥러닝 네트워크로 통합된 시선 추정 네트워크를 제안한다. 제안하는 네트워크는 Stacked Hourglass Network[1]를 백본(Backbone) 구조로 이용하며, 크게 랜드마크 검출기, 특징 맵 추출기, 시선 방향 추정기라는 세 개의 부분으로 구성되어 있다. 랜드마크 검출기에서는 눈 랜드마크 50개 포인트의 좌표를 추정하며, 특징 맵 추출기에서는 시선 방향 추정을 위한 눈 이미지의 특징 맵을 생성한다. 그리고 시선 방향 추정기에서는 각 출력 결과를 조합하고 이를 통해 최종 시선 방향 벡터를 추정한다. 제안하는 네트워크는 UnityEyes[2] 데이터셋을 통해 생성된 가상의 합성 눈 이미지와 랜드마크 좌표 데이터를 이용하여 학습하였으며, 성능 평가는 실제 사람의 눈 이미지로 구성된 MPIIGaze[3] 데이터 셋을 이용하였다. 실험을 통해 시선 추정 오차는 0.0396 MSE(Mean Square Error)의 성능을 보였으며, 네트워크의 추정 속도는 42 FPS(Frame Per Second)를 나타내었다.

  • PDF

Comparative Study on Eye-Tracking Evaluation and Landscape Adjectives Evaluation - Focusing on the Nightscape of a University Campus - (아이트래킹 평가 방법과 경관 형용사 평가 비교 연구 - 대학 캠퍼스 야간경관을 대상으로 -)

  • Kang, Young-Eun;Kim, Song-Yi;Baek, Jae-Bong
    • Journal of the Korean Institute of Landscape Architecture
    • /
    • v.46 no.1
    • /
    • pp.38-48
    • /
    • 2018
  • The purpose of this study is to improve the understanding of visual perception and to extend the landscape evaluation area by comparing eye-tracking evaluation and landscape adjective evaluation methods towards various type of nightscapes. As a result of the study, it showed that 'blink count', 'fixation duration average', and 'saccade duration average' of eye tracking measurements have a significant correlation with 'beautiful', 'interesting', 'accessible', 'satisfying', and 'safe' regarding landscape adjectives. In addition, there was a tendency toward areas of interests (AOIs) depending on 12 different nightscapes, which showed that the gaze was fixated by focusing on certain landscape elements such as 'door' and 'signs'. These results suggest that the eye-tracking method is an effective tool to specify the evaluation of 'landscape elements' rather than the 'whole landscape' and can be used as a basis to support landscape preference theories, which has been presented as conceptual only. In this way, the results of this study demonstrated the possibility of various applications of eye tracking as an objective landscape evaluation technique, and it is possible to suggest specific implications to landscape planning through the accumulation of continuous research results.

A Study on Visibility Evaluation for Cabin Type Combine (캐빈형 콤바인의 시계성 평가에 관한 연구)

  • Choi, C.H.;Kim, J.D.;Kim, T.H.;Mun, J.H.;Kim, Y.J.
    • Journal of Biosystems Engineering
    • /
    • v.34 no.2
    • /
    • pp.120-126
    • /
    • 2009
  • The purpose of this study was to develop a visibility evaluation system for cabin type combine. Human's field of view was classified into five levels (perceptive, effective, stable gaze, induced, and auxiliary) depending on rotation of human's head and eye. Divider, reaper lever, gearshift, dashboard, and conveying part were considered as major viewpoints of combine. Visibilities of combine was evaluated quantitatively using the viewpoints and the human's field of view levels. The visibility evaluation system for cabin type combine was consisted of a laser pointer, stepping motors to control the direction of view, gyro sensors to measure horizontal and vertical angle, and I/O interface to acquire the signals. Tests were conducted with different postures ('sitting straight', 'sitting with $15^{\circ}$ tilt', 'standing straight', and 'standing with $15^{\circ}$ tilt'). The LSD (least significant difference) multiple comparison tests showed that the visibilities of viewpoints were different significantly as the operator's postures were changed. The results showed that the posture at standing with $15^{\circ}$ tilt provided the best visibility for operators. The divider of the combine was invisible due to blocking with the cabin frame at many postures. The reaper lever showed good visibilities at the postures of sitting or standing with $15^{\circ}$ tilt. The gearshift, the dashboard, and the conveying part had reasonable visibilities at the posture of sitting with $15^{\circ}$ tilt. However, most viewpoints of the combine were out of the stable gaze field of view level. Modifications of the combine design will be required to enhance the visibility during harvesting operation for farmers' safety and convenience.