• 제목/요약/키워드: Gaze Recognition

검색결과 47건 처리시간 0.024초

SVM 기반의 시선 인식 시스템의 구현 (An Implementation of Gaze Recognition System Based on SVM)

  • 이규범;김동주;홍광석
    • 정보처리학회논문지B
    • /
    • 제17B권1호
    • /
    • pp.1-8
    • /
    • 2010
  • 시선 인식에 관한 연구는 현재 사용자가 응시하고 있는 위치를 파악하는 것으로 많은 응용 분야를 가지며 지속적으로 발전되어 왔다. 기존의 시선 인식에 관한 대부분의 연구는 적외선 LED 및 카메라, 고가의 헤드마운티드 장비 등을 이용하였기 때문에 범용 사용에 문제점을 가지고 있다. 이에 본 논문에서는 한 대의 PC용 웹 카메라를 사용한 SVM(Support Vector Machine) 기반의 시선 인식 시스템을 제안하고 구현한다. 제안한 시스템은 4방향과 9방향의 시선을 인식하기 위해 모니터를 가로 6, 세로 6, 총 36개의 시선 위치로 나누어 각각 9개, 4개씩 그룹핑 및 학습하여 사용자의 시선을 인식한다. 또한, 시선 인식의 성능을 높이기 위해 차영상 엔트로피를 이용한 영상 필터링 방법을 적용한다. 제안한 시스템의 성능을 평가하기 위하여 기존에 제시되었던 차영상 엔트로피 기반의 시선 인식 시스템, 눈동자 중심점과 눈의 끝점을 이용한 시선 인식 시스템, PCA 기반의 시선 인식 시스템을 구현하고 비교 실험을 수행하였다. 실험 결과 본 논문에서 제안한 SVM 기반의 시선 인식 시스템이 4방향은 94.42%, 9방향은 81.33%의 인식 성능을 보였으며, 차영상 엔트로피를 이용한 영상 필터링 방법을 적용하였을 경우에 4방향은 95.37%, 9방향은 82.25%의 성능을 보여 기존의 시선 인식 시스템보다 높은 성능을 나타내었다.

시선 인식을 이용한 로봇 인터페이스 개발 (Robot Control Interface Using Gaze Recognition)

  • 박세현
    • 대한임베디드공학회논문지
    • /
    • 제7권1호
    • /
    • pp.33-39
    • /
    • 2012
  • In this paper, we propose robot control interface using gaze recognition which is not limited by head motion. Most of the existing gaze recognition methods are working well only if the head is fixed. Furthermore the methods require a correction process per each person. The interface in this paper uses a camera with built-in infrared filter and 2 LED light sources to see what direction the pupils turn to and can send command codes to control the system, thus it doesn't need any correction process per each person. The experimental results showed that the proposed interface can control the system exactly by recognizing user's gaze direction.

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템 (Gaze Recognition System using Random Forests in Vehicular Environment based on Smart-Phone)

  • 오병훈;정광우;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 논문에서는 스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템을 제안한다. 제안한 시스템은 Adaboost 알고리즘을 이용한 얼굴 검출, 히스토그램 정보를 이용한 얼굴 구성 요소 추출, 그리고 랜덤 포레스트 알고리즘 기반의 시선 인식으로 구성되어 있다. 카메라로부터 획득한 영상정보를 바탕으로 운전자의 얼굴을 검출하고, 이를 기반으로 운전자의 얼굴 구성 요소를 추정한다. 그리고 추정된 구성 요소로부터 시선 인식에 필요한 특징 벡터를 추출하고, 랜덤 포레스트 인식 알고리즘을 이용하여 9개 방향에 대한 시선을 인식한다. 실험을 위해 실제 환경에서 다양한 시선 방향을 포함하여 DB를 수집하였으며, 실험 결과 얼굴 검출률은 약 82.02%, 시선 인식률은 약 84.77% 성능을 확인하였다.

차영상 엔트로피를 이용한 시선 인식 시스템의 구현 (An Implementation of Gaze Direction Recognition System using Difference Image Entropy)

  • 이규범;정동근;홍광석
    • 정보처리학회논문지B
    • /
    • 제16B권2호
    • /
    • pp.93-100
    • /
    • 2009
  • 본 논문에서는 차영상 엔트로피 기반의 시선 인식 시스템을 제안한다. 차영상 엔트로피는 현재 입력된 영상과 참조 영상 또는 시선의 위치별 평균 영상들로부터 차영상을 획득하고, -255부터 +255까지의 히스토그램 빈도수를 이용하여 계산한다. 차영상 엔트로피 기반의 시선 인식방법은 2가지 방법이다. 1) 첫 번째 방법은 현재 입력된 영상과 시선 위치별 45개의 평균 영상들과의 차영상 엔트로피를 계산하여 현재 응시하고 있는 방향을 인식하고, 2) 두 번째 방법은 현재 입력된 영상과 45개의 참조 영상들과의 차영상 엔트로피를 계산하여 현재의 응시 방향을 인식한다. 참조 영상은 네 방향의 영상을 입력받아 시선 위치별 45개의 평균 영상을 이용하여 생성한다. 제안한 시스템의 성능을 평가하기 위해 PCA 기반의 시선 인식 시스템과 비교 실험을 하였고, 인식 방향은 좌상, 우상, 좌하, 우하 네 방향으로 하였으며, 45개의 참조 영상 또는 평균영상에 대하여 인식 영역을 변경하여 실험하였다. 실험 결과 차영상 엔트로피는 97.00%, PCA는 95.50%의 인식률을 보여 차영상 엔트로피 기반의 시스템이 PCA 기반의 시스템보다 1.50% 더 높은 인식률을 나타내었다.

모델 기반의 시선 방향 추정을 이용한 사람 행동 인식 (Human Activity Recognition using Model-based Gaze Direction Estimation)

  • 정도준;윤정오
    • 한국산업정보학회논문지
    • /
    • 제16권4호
    • /
    • pp.9-18
    • /
    • 2011
  • 본 논문에서는 모델 기반으로 추정한 사람의 시선 방향을 이용하여 실내 환경에서 발생 할 수 있는 사람의 행동을 인식하는 방법을 제안한다. 제안하는 방법은 크게 두 단계로 구성된다. 첫째, 행동 인식을 위한 사전 정보를 얻는 단계로 사람의 머리 영역을 검출하고 시선 방향을 추정한다. 사람의 머리 영역은 색상 정보와 모양 정보를 이용하여 검출하고, 시선 방향은 머리와 얼굴의 관계를 표현한 베이지안 네트워크 모델을 이용하여 추정한다. 둘째, 이벤트와 사람의 행동을 나타내는 시나리오를 인식하는 단계이다. 이벤트는 사람의 상태 변화로 인식하고, 시나리오는 이벤트들의 조합과 제약 사항을 이용하여 규칙 기반으로 인식한다. 본 논문에서는 시선방향과 연관이 있는 4 가지의 시나리오를 정의하여 실험 한다. 실험을 통해 시선 방향 추정의 성능과 시선 방향이 고려된 상황에서의 행동 인식 성능을 보인다.

시선 추적을 활용한 패션 디자인 인지에 관한 연구 (A Study on Fashion Design Cognition Using Eye Tracking)

  • 이신영
    • 한국의류산업학회지
    • /
    • 제23권3호
    • /
    • pp.323-336
    • /
    • 2021
  • This study investigated the cognitive process of fashion design images through eye activity tracking. Differences in the cognitive process and gaze activity according to image elements were confirmed. The results of the study are as follows. First, a difference was found between groups in the gaze time for each section according to the model and design. Although model diversity is an important factor leading the interest of observers, the simplicity of the model was deemed more effective for observing the design. Second, the examination of the differences by segments regarding the gaze weight of the image area showed differences for each group. When a similar type of model is repeated, the proportion of face recognition decreases, and the proportion of design recognition time increases. Conversely, when the model diversity is high, the same amount of time is devoted to recognizing the model's face in all the processes. Additionally, there was a difference in the gaze activity in recognizing the same design according to the type of model. These results enabled the confirmation of the importance of the model as an image recognition factor in fashion design. In the fashion industry, it is important to find a cognitive factor that attracts and retains consumers' attention. If the design recognition effect is further maximized by finding service points to be utilized, the brand's sustainability is expected to be enhanced even in the rapidly changing fashion industry.

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

웨이블릿 계수와 Dynamic Positional Warping을 통한 EOG기반의 사용자 독립적 시선인식 (EOG-based User-independent Gaze Recognition using Wavelet Coefficients and Dynamic Positional Warping)

  • 장원두;임창환
    • 한국멀티미디어학회논문지
    • /
    • 제21권9호
    • /
    • pp.1119-1130
    • /
    • 2018
  • Writing letters or patterns on a virtual space by moving a person's gaze is called "eye writing," which is a promising tool for various human-computer interface applications. This paper investigates the use of conventional eye writing recognition algorithms for the purpose of user-independent recognition of eye-written characters. Two algorithms are presented to build the user-independent system: eye-written region extraction using wavelet coefficients and template generation. The experimental results of the proposed system demonstrated that with dynamic positional warping, an F1 score of 79.61% was achieved for 12 eye-written patterns, thereby indicating the possibility of user-independent use of eye writing.

An Experimental Multimodal Command Control Interface toy Car Navigation Systems

  • Kim, Kyungnam;Ko, Jong-Gook;SeungHo choi;Kim, Jin-Young;Kim, Ki-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.249-252
    • /
    • 2000
  • An experimental multimodal system combining natural input modes such as speech, lip movement, and gaze is proposed in this paper. It benefits from novel human-compute. interaction (HCI) modalities and from multimodal integration for tackling the problem of the HCI bottleneck. This system allows the user to select menu items on the screen by employing speech recognition, lip reading, and gaze tracking components in parallel. Face tracking is a supplementary component to gaze tracking and lip movement analysis. These key components are reviewed and preliminary results are shown with multimodal integration and user testing on the prototype system. It is noteworthy that the system equipped with gaze tracking and lip reading is very effective in noisy environment, where the speech recognition rate is low, moreover, not stable. Our long term interest is to build a user interface embedded in a commercial car navigation system (CNS).

  • PDF