• 제목/요약/키워드: gaze control

검색결과 62건 처리시간 0.024초

시선 인식을 이용한 로봇 인터페이스 개발 (Robot Control Interface Using Gaze Recognition)

  • 박세현
    • 대한임베디드공학회논문지
    • /
    • 제7권1호
    • /
    • pp.33-39
    • /
    • 2012
  • In this paper, we propose robot control interface using gaze recognition which is not limited by head motion. Most of the existing gaze recognition methods are working well only if the head is fixed. Furthermore the methods require a correction process per each person. The interface in this paper uses a camera with built-in infrared filter and 2 LED light sources to see what direction the pupils turn to and can send command codes to control the system, thus it doesn't need any correction process per each person. The experimental results showed that the proposed interface can control the system exactly by recognizing user's gaze direction.

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

능동적인 비전 시스템에서 카메라의 시선 조정: 컴퓨터 비전과 제어의 융합 테마 (Steering Gaze of a Camera in an Active Vision System: Fusion Theme of Computer Vision and Control)

  • 한영모
    • 전자공학회논문지SC
    • /
    • 제41권4호
    • /
    • pp.39-43
    • /
    • 2004
  • 능동적인 비전 시스템의 전형적인 한 테마는 카메라의 시선 고정 문제이다. 여기서 카메라의 시선 고정이란 동적인 물체 상의 지정된 한 점이 항시 이미지의 중앙부에 놓이도록 카메라의 자세를 조정하는 것으로서, 이를 위해서는 카메라에 비친 영상정보를 분석하는 기능과 카메라의 자세를 제어하는 두 가지 기능이 결합되어야 한다. 본 논문에서는 영상분석과 자세제어가 한 개의 프레임 하에서 설계되는 카메라의 시선 고정을 위한 알고리즘을 제안한다. 이 때 제작시의 어려움을 피하고 실시간 응용을 위해서 본 알고리즘은 카메라의 calibration이나 3차원 거리 정보의 복원을 필요로 하지 않도록, 그리고 닫힌 형태(closed-form)가 되도록 설계된다.

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

Effects of Gaze Stabilization Exercise and Cognitive Training on Balance and Gait in Subacute Stroke Patients: Randomized Controlled Trial

  • Hye-Ryeon Jang;Ye-Ji Kim;Myoung-Kwon Kim
    • 대한물리의학회지
    • /
    • 제19권1호
    • /
    • pp.155-164
    • /
    • 2024
  • PURPOSE: The purpose of this study was to evaluate the effects of simultaneous application of gaze stabilization exercise and cognitive training on the balance and gait ability in subacute stroke patients. METHODS: Thirty-five patients diagnosed with stroke within 3-6 months were randomly assigned, and the experimental group (n = 18) to which both gaze stabilization exercise and cognitive training were applied and the control group (n = 17) to which only gaze stabilization exercise was applied were targeted. It was performed for 30 minutes at a time, three times a week, for a total of 4 weeks. Berg Balance Scale, Timed Up and Go test, 10Meter Walking Test, and Walking symmetry were evaluated. RESULTS: In the comparison of changes between Berg Balance Scale, Time Up and Go test, 10 Meter Walking Test, and Gait symmetry, both experimental and control groups showed significant differences before and after the intervention, and in the evaluation of Gait symmetry, significant differences between groups. CONCLUSION: As a result of this study, when gaze stabilization exercise and cognitive training were allied simultaneously, it was possible to improve the balance and gait ability of subacute stroke patients, and had a more significant effect on gait ability. In considered that training that simultaneously applies gaze stabilization exercise and cognitive training can be presented as a balance and gait rehabilitation for stroke patients on the future.

정확도 및 정밀도 향상을 위한 적응형 확대 기반의 시선 추적 기법 (Adaptive Zoom-based Gaze Tracking for Enhanced Accuracy and Precision)

  • 송현주;조재민;김보형;서진욱
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제21권9호
    • /
    • pp.610-615
    • /
    • 2015
  • 카메라 기반의 원격 시선 추적 방식은 기기의 특성상 사용자의 움직임 등의 요인에 의해 시선 추적의 정확성 측면에서 많은 영향을 받는다. 하지만 턱받침을 사용하여 사용자의 움직임을 제약하는 실험 환경은 시선 추적의 정확성을 높이는 대신 비침습적인 시선 추적 방식의 이점을 사라지게 한다. 이 논문에서는 비침습적인 추적 방식에서 나타날 수 있는 정확도의 저하를 극복하기 위하여 높은 정확도가 요구되는 관심 영역을 화면상에서 확대함으로써 해상력을 높이는 방안을 제시한다. 관심 영역의 확대는 두 종류의 조건(상시, 조건부)에 의해 이루어 졌으며, 이를 기존 시선 추적 방식과 비교했다. 또한 이렇게 비교한 결과를 바탕으로 적응형 확대 기법의 장점과 한계를 정리했다.

Support Vector Machines을 이용한 시선 방향 추정방법 (Gaze Direction Estimation Method Using Support Vector Machines (SVMs))

  • 유정;우경행;최원호
    • 제어로봇시스템학회논문지
    • /
    • 제15권4호
    • /
    • pp.379-384
    • /
    • 2009
  • A human gaze detection and tracing method is importantly required for HMI(Human-Machine-Interface) like a Human-Serving robot. This paper proposed a novel three-dimension (3D) human gaze estimation method by using a face recognition, an orientation estimation and SVMs (Support Vector Machines). 2,400 images with the pan orientation range of $-90^{\circ}{\sim}90^{\circ}$ and tilt range of $-40^{\circ}{\sim}70^{\circ}$ with intervals unit of $10^{\circ}$ were used. A stereo camera was used to obtain the global coordinate of the center point between eyes and Gabor filter banks of horizontal and vertical orientation with 4 scales were used to extract the facial features. The experiment result shows that the error rate of proposed method is much improved than Liddell's.

화면 응시 제어를 위한 유한 상태 기계 설계 (A Design of the Finite State Machine to Control User's Gaze on a Screen)

  • 문봉희
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권5호
    • /
    • pp.127-134
    • /
    • 2011
  • 화면을 모니터링하고 있는 시스템에서 사용자가 시선을 화면에 집중하고 있는가를 판단하고 제어할 수 있는 유한 상태 기계를 설계 및 구현하였다. 유한 상태 기계는 화면을 응시하고 있는 눈동자의 상황에 대한 집합과 화면에 집중하고 있는 상태의 집합을 이를 기반으로 구성되었다. 특히 상태 집합을 3종류-주요 상태, 예비 상태, 잠재 상태로 분류하였다. 이전의 상황과 현재의 상황을 연계하여 현 상태를 판단하는 상황 이력을 이용함으로써 판단의 정확도를 높였다. 이 유한 상태 기계에 대하여, 기존의 눈동자 검출 방법에서 얻은 눈동자 위치 데이터를 이용하여 시뮬레이터를 구현하고 작동과정의 모니터링을 통하여 검증하였다. 실제 눈동자의 이미지를 바탕으로 실험한 결과로 상황 이력을 이용한 판정은 현재의 응시 상태가 1회성 또는 장기적인 상태인가를 판단할 수 있는 장점을 보였다.

Visual Modeling and Content-based Processing for Video Data Storage and Delivery

  • Hwang Jae-Jeong;Cho Sang-Gyu
    • Journal of information and communication convergence engineering
    • /
    • 제3권1호
    • /
    • pp.56-61
    • /
    • 2005
  • In this paper, we present a video rate control scheme for storage and delivery in which the time-varying viewing interests are controlled by human gaze. To track the gaze, the pupil's movement is detected using the three-step process : detecting face region, eye region, and pupil point. To control bit rates, the quantization parameter (QP) is changed by considering the static parameters, the video object priority derived from the pupil tracking, the target PSNR, and the weighted distortion value of the coder. As results, we achieved human interfaced visual model and corresponding region-of-interest rate control system.

Eye-Gaze Interaction On Computer Screen Evaluation

  • Ponglangka, Wirot;Sutakcom, Udom
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.84-88
    • /
    • 2005
  • Eye gaze positions evaluation on computer screen uses the human eye as an input device for computer systems is that it gives low resolution. We proposes a method to determine the eye gaze positions on the screen by using two-eye displacements as the information for mapping, and the perspective projection is applied to map the displacements to a position on a computer screen. The experiments were performed on 20 persons and a 17-inch monitor is used with the screen resolution of 1024x768 pixels. Gaze detection error was 3.18 cm (RMS error), with screen is divided into 5x8 and 7x10 positions on a 17-inch monitor. The results showed 100% and 96% correction, respectively.

  • PDF