• 제목/요약/키워드: pupil detection.

검색결과 80건 처리시간 0.025초

ERP와 동공 반응을 이용한 숨긴정보검사 (Concealed information test using ERPs and pupillary responses)

  • 엄진섭;박광배;손진훈
    • 감성과학
    • /
    • 제15권2호
    • /
    • pp.259-268
    • /
    • 2012
  • P300-기반 숨긴정보검사(P300 CIT)에서, 조사대상자에게 관련자극이 가치가 있는 정도는 검사결과에 큰 영향을 미친다. 관련자극의 가치가 낮을 경우, P300 CIT의 정확판단율은 낮아진다. 본 연구의 목적은 관련자극의 가치가 낮은 경우, 동공-기반 숨긴정보검사(Pupil CIT)가 P300 CIT를 보완하는 검사로 사용될 수 있는지를 파악하는 것이다. 25명의 실험참여자에게 5장(스페이드 2, 3, 4, 5, 6)의 카드 중 한 장을 뽑도록 한 다음, 실험참여자가 뽑은 카드를 숨기정보로 사용한 P300 CIT와 Pupil CIT를 실시하였다. P300은 Fz와 Cz, Pz에서 측정하였으며, 동공크기는 양쪽 눈에서 모두 측정하였다. P300 CIT에서, Fz와 Cz, Pz에서 측정한 관련자극의 P300 진폭은 무관련자극의 P300 진폭보다 통계적으로 유의하게 더 컸다. Pupil CIT에서, 왼쪽 눈과 오른쪽 눈의 동공크기는 무관련자극이 제시되었을 때보다 관련자극이 제시되었을 때 더 컸다. P300 CIT의 정확판단율은 Fz와 Cz에서 44%였으며, Pz에서 36%였다. Pupil CIT의 정확판단율은 왼쪽 눈의 동공크기를 이용한 경우 52%였으며, 오른쪽눈의 동공크기를 이용한 경우 60%였다. 전체 사례수가 크지 않아 통계적으로 유의하지는 않았지만, Pupil CIT의 정확판단율이 P300 CIT의 정확판단율보다 높은 경향이 있었다. P300 CIT의 판단과 Pupil CIT의 판단 간의 상관관계는 통계적으로 유의하지 않았다. 결과적으로, 조사대상자에게 관련자극의 가치가 높지 않을 경우에는 P300 CIT 보다는 Pupil CIT를 사용하는 것이 더 좋을 것이다. 그리고 두 가지 검사방식을 결합한다면, 더욱 높은 정확도를 가진 숨긴정보검사를 구성할 수 있을 것이다.

  • PDF

프로젝션 함수와 허프 변환을 이용한 눈동자 중심점 찾기 (Detection of Pupil Center using Projection Function and Hough Transform)

  • 최연석;문원호;김철기;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 추계학술대회
    • /
    • pp.167-170
    • /
    • 2010
  • 본 논문에서는 프로젝션 함수와 허프 변환을 이용하여 영상에서 눈동자를 찾는 방법을 제안한다. 먼저, 영상으로부터 얼굴영역을 추출한 다음, 눈썹과 눈동자의 밝기변화의 특징을 이용할 수 있는 integral projection function과 variance projection function을 사용하여 눈 영역을 검출한다. 검출된 눈 영역에서 눈동자 중심좌표를 구하기 위해 원형 허프 변환을 이용한다. 원형 허프 변환에 사용된 좌표는 sobel edge mask를 사용하여 구한다. FERET database의 정면 얼굴 영상을 이용하여 제안된 방법으로 실험한 결과 만족할 만한 결과가 나왔다.

  • PDF

눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현 (Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region)

  • 염효섭;홍민;최유주
    • 컴퓨터교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.107-113
    • /
    • 2014
  • 본 연구에서는 입력 얼굴 영상에서 눈의 윤곽선과 눈동자 영역을 추출하여 시선을 추정하는 시스템을 설계 및 구현한다. 눈 윤곽선과 눈동자 영역을 효율적으로 추출하기 위하여 먼저 입력 영상으로부터 얼굴 영역을 추출한다. 얼굴 영역 추출을 위하여 아시아인 얼굴 영상 셋을 확보하여 아시아인 피부색에 대한 YCbCr 범위를 사전에 정의하였고, 정의된 피부색 범위값에 따라 피부영역을 검출한다. 최대크기 피부 영역을 얼굴후보 영역으로 지정하고 검출된 얼굴 후보영역에 대한 상위 50%의 관심 영역 내에서 눈윤곽선과 색상 특성 분석을 이용한 눈 영역 검출 알고리즘을 수행하여 기존의 Haar-like feature 특성기반 눈 영역 검출방법에 비해 타이트한 눈 영역을 검출한다. 눈의 윤곽선을 포함하는 관심영역 전체를 기준으로 눈 영역을 3등분하고, 추출된 눈동자의 위치가 3등분된 영역에서 어느 영역에 중점적으로 위치하고 있는지를 분석하여 좌, 우, 정면 시선 방향을 추정한다. 본 연구에서는 20명의 실험자에 대한 5,616 장의 테스트 영상을 이용한 시선방향 추정 실험에서 약 91%의 정확도를 획득한다.

  • PDF

Visual Modeling and Content-based Processing for Video Data Storage and Delivery

  • Hwang Jae-Jeong;Cho Sang-Gyu
    • Journal of information and communication convergence engineering
    • /
    • 제3권1호
    • /
    • pp.56-61
    • /
    • 2005
  • In this paper, we present a video rate control scheme for storage and delivery in which the time-varying viewing interests are controlled by human gaze. To track the gaze, the pupil's movement is detected using the three-step process : detecting face region, eye region, and pupil point. To control bit rates, the quantization parameter (QP) is changed by considering the static parameters, the video object priority derived from the pupil tracking, the target PSNR, and the weighted distortion value of the coder. As results, we achieved human interfaced visual model and corresponding region-of-interest rate control system.

A STUDY ON PUPIL DETECTION AND TRACKING METHODS BASED ON IMAGE DATA ANALYSIS

  • CHOI, HANA;GIM, MINJUNG;YOON, SANGWON
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제25권4호
    • /
    • pp.327-336
    • /
    • 2021
  • In this paper, we will introduce the image processing methods for the remote pupillary light reflex measurement using the video taken by a general smartphone camera without a special device such as an infrared camera. We propose an algorithm for estimate the size of the pupil that changes with light using image data analysis without a learning process. In addition, we will introduce the results of visualizing the change in the pupil size by removing noise from the recorded data of the pupil size measured for each frame of the video. We expect that this study will contribute to the construction of an objective indicator for remote pupillary light reflex measurement in the situation where non-face-to-face communication has become common due to COVID-19 and the demand for remote diagnosis is increasing.

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

Webcam-Based 2D Eye Gaze Estimation System By Means of Binary Deformable Eyeball Templates

  • Kim, Jin-Woo
    • Journal of information and communication convergence engineering
    • /
    • 제8권5호
    • /
    • pp.575-580
    • /
    • 2010
  • Eye gaze as a form of input was primarily developed for users who are unable to use usual interaction devices such as keyboard and the mouse; however, with the increasing accuracy in eye gaze detection with decreasing cost of development, it tends to be a practical interaction method for able-bodied users in soon future as well. This paper explores a low-cost, robust, rotation and illumination independent eye gaze system for gaze enhanced user interfaces. We introduce two brand-new algorithms for fast and sub-pixel precise pupil center detection and 2D Eye Gaze estimation by means of deformable template matching methodology. In this paper, we propose a new algorithm based on the deformable angular integral search algorithm based on minimum intensity value to localize eyeball (iris outer boundary) in gray scale eye region images. Basically, it finds the center of the pupil in order to use it in our second proposed algorithm which is about 2D eye gaze tracking. First, we detect the eye regions by means of Intel OpenCV AdaBoost Haar cascade classifiers and assign the approximate size of eyeball depending on the eye region size. Secondly, using DAISMI (Deformable Angular Integral Search by Minimum Intensity) algorithm, pupil center is detected. Then, by using the percentage of black pixels over eyeball circle area, we convert the image into binary (Black and white color) for being used in the next part: DTBGE (Deformable Template based 2D Gaze Estimation) algorithm. Finally, using DTBGE algorithm, initial pupil center coordinates are assigned and DTBGE creates new pupil center coordinates and estimates the final gaze directions and eyeball size. We have performed extensive experiments and achieved very encouraging results. Finally, we discuss the effectiveness of the proposed method through several experimental results.

유죄 및 무죄 집단 간 인지적 부하 및 정서적 각성 질문에 따른 동공크기의 변화의 차이 (The Difference in Pupil Size Responding to Cognitive Load and Emotional Arousal Questions between Guilty and Innocent Groups)

  • 조아라;김기호;이장한
    • 한국심리학회지:법
    • /
    • 제11권2호
    • /
    • pp.155-171
    • /
    • 2020
  • 본 연구는 거짓말 탐지 시 정서적 각성 및 인지적 부하가 동공 크기 변화에 미치는 영향을 확인했다. 총 60명 모집 후, 참가자가 자발적으로 집단을 선택했다. 유죄 집단(n = 30)은 모의 범죄(현금 훔치기)를 수행하고, 무죄 집단(n = 30)은 연구 조교 사무실에서 임무(메시지 보내기)를 수행했다. 그 후, 거짓말 탐지 면담 질문 중에 웨어러블 아이트래커를 사용하여 동공 크기를 측정했다. 면담 질문은 인지적 부하 질문 3개, 정서적 각성 질문 3개, 중립 질문 3개로 구성되었다. 실험 결과, 집단이나 시간의 주효과는 유의미하게 나타나지 않았으나, 집단과 시간의 상호작용은 유의미하게 나타났다. 즉, 동공 크기에 기반한 거짓말 탐지 시 인지적 부하 질문에 응답 할 때 유죄 집단이 무죄 집단 보다 동공 크기가 더 크게 증가했다. 이는 동공 크기를 기반한 거짓말 탐지 시 인지 부하를 유도하는 것이 정서적 각성을 유발하는 것보다 효과적임을 시사한다.

  • PDF

능동적 조명을 이용한 실시간 복합 얼굴 검출 (Real-Time Multiple Face Detection Using Active illumination)

  • 한준희;심재창;설증보;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2003년도 춘계종합학술대회
    • /
    • pp.155-160
    • /
    • 2003
  • 본 논문에서는 동공 검출을 이용한 얼굴 검출 방법을 제안하고자 한다. 동공검출기는 눈의 역반사 특성을 이용한 능동적 조명을 사용하여 검출을 용이하도록 하였고. 제안된 방법의 검출 범위는 소형컴퓨터나 무인정보 단말기 등의 활용에 적합하도록 하였다. 동공 후보 영역을 계산하여 검출한 후, 학습 규칙을 사용하여 얼굴에 대응하는 두 개의 지점을 선택하도록 하였다. 얼굴 검출 성능을 증명하기 위하여, 얼굴의 최대 돌출 부위를 지정 할 수 있는 이중 모드의 얼굴 추적 장치를 개발하였다. 추정치와 복합 얼굴 검출기의 측정치를 결합하여 특징 관계를 추적함으로 처리의 안정성을 높였으며 또한, 실시간으로 서보의 제어 장치를 원격 조정하여 항상 카메라가 이미지의 중앙을 추적하도록 함으로서 얼굴의 위치를 추정할 수 있도록 하였다.

  • PDF

실시간 복합 얼굴 검출을 위한 추적 장치 개발 (Development of Tracking Equipment for Real­Time Multiple Face Detection)

  • 나상동;송선희;나하선;김천석;배철수
    • 한국정보통신학회논문지
    • /
    • 제7권8호
    • /
    • pp.1823-1830
    • /
    • 2003
  • 본 논문에서는 동공 검출 기술을 이용한 얼굴 검출 방법을 제안하고자 한다. 동공 검출기는 눈의 역 반사 특성을 이용한 능동적 조명을 사용하여 검출을 용이하도록 하였고. 제안된 방법의 검출 범위는 소형 컴퓨터나 무인 정보 단말기 등의 활용에 적합하도록 하였다. 동공 후보 영역을 계산하여 검출한 후, 학습 규칙을 사용하여 얼굴에 대응하는 두 개의 지점을 선택하도록 하였다. 얼굴 검출 성능을 증명하기 위하여, 얼굴의 최대 돌출 부위를 지정 할 수 있는 이중 모드의 얼굴 추적 장치를 개발하였다. 추정치 와 복합 얼굴 검출기의 측정치를 결합하여 특징 관계를 추적함으로 처리의 안정성을 높이었다. 또한, 실시간으로 서보의 제어장치를 원격 조정하여 항상 카메라가 이미지의 중앙을 추적하도록 함으로서 얼굴의 위치를 추정할 수 있도록 하였다.