• 제목/요약/키워드: Gaze recognition & tracking

검색결과 24건 처리시간 0.028초

Development of a Non-contact Input System Based on User's Gaze-Tracking and Analysis of Input Factors

  • Jiyoung LIM;Seonjae LEE;Junbeom KIM;Yunseo KIM;Hae-Duck Joshua JEONG
    • 한국인공지능학회지
    • /
    • 제11권1호
    • /
    • pp.9-15
    • /
    • 2023
  • As mobile devices such as smartphones, tablets, and kiosks become increasingly prevalent, there is growing interest in developing alternative input systems in addition to traditional tools such as keyboards and mouses. Many people use their own bodies as a pointer to enter simple information on a mobile device. However, methods using the body have limitations due to psychological factors that make the contact method unstable, especially during a pandemic, and the risk of shoulder surfing attacks. To overcome these limitations, we propose a simple information input system that utilizes gaze-tracking technology to input passwords and control web surfing using only non-contact gaze. Our proposed system is designed to recognize information input when the user stares at a specific location on the screen in real-time, using intelligent gaze-tracking technology. We present an analysis of the relationship between the gaze input box, gaze time, and average input time, and report experimental results on the effects of varying the size of the gaze input box and gaze time required to achieve 100% accuracy in inputting information. Through this paper, we demonstrate the effectiveness of our system in mitigating the challenges of contact-based input methods, and providing a non-contact alternative that is both secure and convenient.

시선 추적을 활용한 패션 디자인 인지에 관한 연구 (A Study on Fashion Design Cognition Using Eye Tracking)

  • 이신영
    • 한국의류산업학회지
    • /
    • 제23권3호
    • /
    • pp.323-336
    • /
    • 2021
  • This study investigated the cognitive process of fashion design images through eye activity tracking. Differences in the cognitive process and gaze activity according to image elements were confirmed. The results of the study are as follows. First, a difference was found between groups in the gaze time for each section according to the model and design. Although model diversity is an important factor leading the interest of observers, the simplicity of the model was deemed more effective for observing the design. Second, the examination of the differences by segments regarding the gaze weight of the image area showed differences for each group. When a similar type of model is repeated, the proportion of face recognition decreases, and the proportion of design recognition time increases. Conversely, when the model diversity is high, the same amount of time is devoted to recognizing the model's face in all the processes. Additionally, there was a difference in the gaze activity in recognizing the same design according to the type of model. These results enabled the confirmation of the importance of the model as an image recognition factor in fashion design. In the fashion industry, it is important to find a cognitive factor that attracts and retains consumers' attention. If the design recognition effect is further maximized by finding service points to be utilized, the brand's sustainability is expected to be enhanced even in the rapidly changing fashion industry.

An Experimental Multimodal Command Control Interface toy Car Navigation Systems

  • Kim, Kyungnam;Ko, Jong-Gook;SeungHo choi;Kim, Jin-Young;Kim, Ki-Jung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.249-252
    • /
    • 2000
  • An experimental multimodal system combining natural input modes such as speech, lip movement, and gaze is proposed in this paper. It benefits from novel human-compute. interaction (HCI) modalities and from multimodal integration for tackling the problem of the HCI bottleneck. This system allows the user to select menu items on the screen by employing speech recognition, lip reading, and gaze tracking components in parallel. Face tracking is a supplementary component to gaze tracking and lip movement analysis. These key components are reviewed and preliminary results are shown with multimodal integration and user testing on the prototype system. It is noteworthy that the system equipped with gaze tracking and lip reading is very effective in noisy environment, where the speech recognition rate is low, moreover, not stable. Our long term interest is to build a user interface embedded in a commercial car navigation system (CNS).

  • PDF

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템 (Gaze Recognition System using Random Forests in Vehicular Environment based on Smart-Phone)

  • 오병훈;정광우;홍광석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.191-197
    • /
    • 2015
  • 본 논문에서는 스마트 폰 기반 차량 환경에서의 랜덤 포레스트를 이용한 시선 인식 시스템을 제안한다. 제안한 시스템은 Adaboost 알고리즘을 이용한 얼굴 검출, 히스토그램 정보를 이용한 얼굴 구성 요소 추출, 그리고 랜덤 포레스트 알고리즘 기반의 시선 인식으로 구성되어 있다. 카메라로부터 획득한 영상정보를 바탕으로 운전자의 얼굴을 검출하고, 이를 기반으로 운전자의 얼굴 구성 요소를 추정한다. 그리고 추정된 구성 요소로부터 시선 인식에 필요한 특징 벡터를 추출하고, 랜덤 포레스트 인식 알고리즘을 이용하여 9개 방향에 대한 시선을 인식한다. 실험을 위해 실제 환경에서 다양한 시선 방향을 포함하여 DB를 수집하였으며, 실험 결과 얼굴 검출률은 약 82.02%, 시선 인식률은 약 84.77% 성능을 확인하였다.

저가형 EOG 계측장치를 이용한 시선추적 (Gaze Tracking with Low-cost EOG Measuring Device)

  • 장승태;이정환;장재영;장원두
    • 한국융합학회논문지
    • /
    • 제9권11호
    • /
    • pp.53-60
    • /
    • 2018
  • 아두이노와 저가형 생체신호 증폭기를 사용하여 시선추적실험을 실시하고 결과를 분석하였다. 본 연구에서는 간단한 4방향의 시선이동 인식실험과 함께, 시선을 사용하여 영어 알파벳 등을 직접 쓰는 eye-writing 인식실험을 함께 진행함으로, 새롭게 구성한 안구전도 측정장치의 실용성을 평가하고, 더 나아가 저가형 안구전도 장치가 eye-writing과 같은 복잡한 사람-컴퓨터간 상호작용도구로 활용될 수 있는지를 분석하였다. 실험을 위해서 PSL-iEOG와 아두이노를 사용하는 저가형 안구전도 측정장치가 구성되었으며, 패턴분류를 위해 dynamic positional warping과 웨이블릿 변환이 사용되었다. 실험 결과, 저가형 측정장치는 비교적 단순한 알고리즘만으로도 외부 잡음이 유입되지 않은 경우 90%에 가까운 정확도로 시선방향을 인식할 수 있었으며, eye-writing의 경우에도 5개 패턴에 대해서 90%의 중위 정확도를 달성할 수 있었다. 그러나 패턴의 숫자가 증가함에 따라 정확도가 매우 감소하여, 다양한 패턴의 직접적인 입력이라는 eye-writing의 장점을 부각하기 위해서는 저가형 장치에 특화된 알고리즘의 개발 등 추가적인 연구가 필요할 것으로 여겨진다.

안정적인 실시간 얼굴 특징점 추적과 감정인식 응용 (Robust Real-time Tracking of Facial Features with Application to Emotion Recognition)

  • 안병태;김응희;손진훈;권인소
    • 로봇학회논문지
    • /
    • 제8권4호
    • /
    • pp.266-272
    • /
    • 2013
  • Facial feature extraction and tracking are essential steps in human-robot-interaction (HRI) field such as face recognition, gaze estimation, and emotion recognition. Active shape model (ASM) is one of the successful generative models that extract the facial features. However, applying only ASM is not adequate for modeling a face in actual applications, because positions of facial features are unstably extracted due to limitation of the number of iterations in the ASM fitting algorithm. The unaccurate positions of facial features decrease the performance of the emotion recognition. In this paper, we propose real-time facial feature extraction and tracking framework using ASM and LK optical flow for emotion recognition. LK optical flow is desirable to estimate time-varying geometric parameters in sequential face images. In addition, we introduce a straightforward method to avoid tracking failure caused by partial occlusions that can be a serious problem for tracking based algorithm. Emotion recognition experiments with k-NN and SVM classifier shows over 95% classification accuracy for three emotions: "joy", "anger", and "disgust".

광고 모델의 위치와 시선 방향이소비자의 시각적 주의, 태도 및재인에 미치는 효과: 안구운동추적기법을 중심으로 (Influence of Endorser's Gaze Direction on Consumer's Visual Attention, Attitude and Recognition: Focused on the Eye Movement)

  • 정혜녕;이지연;남윤주
    • 광고학연구
    • /
    • 제29권7호
    • /
    • pp.29-53
    • /
    • 2018
  • 본 논문에서는 최근 광고효과 및 소비자 반응 측정 연구에 활발히 사용되고 있는 안구운동추적기법(Eye-movement tracking)을 이용하여, 광고 모델의 위치 및 시선 방향(정면/측면_그림정보/측면_언어정보)이 광고 태도 및 제품 구매 욕구, 브랜드 재인에 미치는 영향을 확인하고자 하였다. 지면 광고들 중 모델의 비중이 비교적 높으며, 간접적 설득 경로의 중요성이 비교적 크게 평가되는 화장품 지면 광고를 이용하여 20대 성인 남녀 36명에게 실험을 진행한 결과, 기존의 연구들에서 확인한 바와 같이 모델의 시선이 향하고 있는 광고 내 특정 요소(제품사진, 브랜드 등)에 대한 응시 시간(Fixation duration)이 길어지고 해당 영역에의 진입 시간(Entry time)이 빨라진다는 것을 확인할 수 있었다. 그러나 모델의 시선에 의한 주의 유도 효과가 광고태도 및 제품 구매 욕구에 바로 반영되지는 않았다. 모델이 좌측에 있는 경우에는 시선의 방향이정면일 때 제품 구매 욕구가 가장 높았으며, 모델이 우측에 있을 때는 측면_그림정보(제품사진) 에 시선이 향할 때 광고 태도가 높은 것으로 확인되었다. 그리고 안구운동 추적실험 이후 추가적으로 진행한 브랜드 재인 실험 결과에서는 모델의 시선이 제품 사진을 향하고 있을 때 브랜드재인도가 높게 측정되었으며, 모델이 왼쪽에 있을 때 유효하였다. 이상의 결과는 모델의 시선이고객의 주의를 특정한 영역으로 이끄는 주의 유도자(attentional guidance)로서의 역할을 수행하지만, 모델의 위치 및 시선이 머무는 대상에 따라서 그 효과의 방향성과 크기는 달라질 수 있다는 것을 시사한다. 따라서 궁극적으로 고객의 광고 태도 및 제품 구매 욕구를 향상시키기 위해서는 모델의 시선 방향 이외에도 모델의 위치 및 추가 구성 요인들에 대한 복합적인 고려가 필요할 것이다.

장애인을 위한 새로운 감성 인터페이스 연구 (A New Ergonomic Interface System for the Disabled Person)

  • 허환;이지우;이원오;이의철;박강령
    • 대한인간공학회지
    • /
    • 제30권1호
    • /
    • pp.229-235
    • /
    • 2011
  • Objective: Making a new ergonomic interface system based on camera vision system, which helps the handicapped in home environment. Background: Enabling the handicapped to manipulate the consumer electronics by the proposed interface system. Method: A wearable device for capturing the eye image using a near-infrared(NIR) camera and illuminators is proposed for tracking eye gaze position(Heo et al., 2011). A frontal viewing camera is attached to the wearable device, which can recognize the consumer electronics to be controlled(Heo et al., 2011). And the amount of user's eye fatigue can be measured based on eye blink rate, and in case that the user's fatigue exceeds in the predetermined level, the proposed system can automatically change the mode of gaze based interface into that of manual selection. Results: The experimental results showed that the gaze estimation error of the proposed method was 1.98 degrees with the successful recognition of the object by the frontal viewing camera(Heo et al., 2011). Conclusion: We made a new ergonomic interface system based on gaze tracking and object recognition Application: The proposed system can be used for helping the handicapped in home environment.

운전자 피로 감지를 위한 얼굴 동작 인식 (Facial Behavior Recognition for Driver's Fatigue Detection)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제35권9C호
    • /
    • pp.756-760
    • /
    • 2010
  • 본 논문에서는 운전자 피로 감지를 위한 얼굴 동작을 효과적으로 인식하는 방법을 제안하고자 한다. 얼굴 동작은 얼굴 표정, 얼굴 자세, 시선, 주름 같은 얼굴 특징으로 나타난다. 그러나 얼굴 특징으로 하나의 동작 상태를 뚜렷이 구분한다는 것은 대단히 어려운 문제이다. 왜냐하면 사람의 동작은 복합적이며 그 동작을 표현하는 얼굴은 충분한 정보를 제공하기에는 모호성을 갖기 때문이다. 제안된 얼굴 동작 인식 시스템은 먼저 적외선 카메라로 눈 검출, 머리 방향 추정, 머리 움직임 추정, 얼굴 추적과 주름 검출과 같은 얼굴 특징 등을 감지하고 획득한 특징을 FACS의 AU로 나타낸다. 획득한 AU를 근간으로 동적 베이지안 네트워크를 통하여 각 상태가 일어날 확률을 추론한다.