• Title/Summary/Keyword: 얼굴 검증

Search Result 261, Processing Time 0.033 seconds

Construction of facial database for a facial expression-inner states correlation model (표정-내적상태 상관모형을 위한 얼굴 DB 구축)

  • 반세범;한재현;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 1997.11a
    • /
    • pp.215-219
    • /
    • 1997
  • 내적 감성상태와 표정을 연결하는 상관모형을 개발하기 위\ulcorner 기초자료로서 광범위한 얼굴표정자료를 수집하였다. 다양한 얼굴유형의 표정자료를 DB화하기 위해서는 궁극적으로 50명 이상의 인물표정 자료수집이 필요하다고 보고, 우선 영화배우 10면분의 표정자료를 수집하였다. 이를 위해 표정연기가 자연스럽다고 평가된 영화배우 10명을 선정하고, 이들이 출연한 50여편의 영화비디오에서 표정자료를 수집하였다. 한사람의 인물당 50개의 표정을 한세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 한사람의 인물당 50개의 표정을 한 세트로 하여 총 10명분 500가지의 표정자료수집을 완료하였다. 각각의 표정은 시작-상승-절정-하강-종료의 연속 5단계를 비율적으로 표집하여 동적정보를 포함하고 있다. 이들 자료들은 등자인물의 출연맥락이나 상황별로 분류하여 표정관련 맥락단서를 기록하였고, 후속연구를 통해 각 표정에 대응되는 내적상태를 기록할 수 있도록 DB화 하였다. 이와같이 구조화된 자료들은 표정인식과 합성의 입출력모형을 위한 기초자료로 활용될 뿐 아니라, 한국인의 얼굴 프로토타입 DB구축 및 향후 표정관련 연구의 타당성을 검증할 수 있는 Benchmarking 정보를 제공할 수 있다.

  • PDF

Interactive Face Recognition System Based on CUDA (CUDA 기반의 인터랙티브 얼굴 인식 시스템)

  • Kim, Jung-Sik;Kim, Jong-Yoon;Kim, Jin-Mo;Cho, Hyung-Je
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.369-372
    • /
    • 2011
  • 본 논문에서는 가상현실 및 게임, 로봇인지 분야에서 쓰일 수 있는 실시간 얼굴인식을 제안한다. 현대 사회는 영상처리 기술의 발달로 인하여 많은 자동화 시스템이 개발된다. 빠르게 발전하는 정보화 시대에 사람과 컴퓨터 사이의 상호작용(Interaction)은 매우 중요하며 보다 빠르고 정확한 시스템이 요구된다. 전통적인 얼굴인식 방법인 주성분 분석(PCA)은 영상의 크기에 따라 계산의 복잡도가 증가하고, 특징 벡터를 구하기 위해 많은 연산을 해야 하는 문제가 발생하지만 GPU를 이용할 경우 반복적 계산의 효율적 처리가 가능하여 뛰어난 성능을 낼 수 있는 장점이 있다. 본 논문에서는 이러한 범용 GPU사용 기술 중 nVidia에서 제공하는 CUDA를 활용한 실시간 얼굴 인식 시스템을 제안하고, 실험을 통해 성능을 검증한다.

Facial Feature Extraction and Tracking using Edge Information and Template Deformation (에지 정보와 형판 변형을 이용한 얼굴 특징 추출과 특지의 추적)

  • 박주철;최형일
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.03a
    • /
    • pp.157-160
    • /
    • 1998
  • 본 논문에서는 동영상으로부터 에지 정보와 형판 변형을 통해 얼굴의 추출하고 그 특징을 기반으로 하는 추적 기법을 제안한다. 본 논문에서 제안하는 추적기법은 추출된 특징에 기반을 추적 지법으로 초기에 모자익 영상을 이용하여 얼굴 부분을 찾고 찾아진 얼굴 부분에 에지 연산자를 적용하여 에지를 추출한다. 에지 영상이 얻어지면 에지 영상에서 영역의 크기와 모양, 그리고 관계 검증을 통해 대략적인 눈 영역을 추출한다. 눈 영역이 찾아지면 이를 바탕으로 입 영역에 대한 후보 영역에 대하여 이진화를 수행하고 히스토그램 프로젝션을 통해 대략적인 입 영역을 추출한다. 추출된 눈 영역과 입 영역에 각각의 형판을 사용해 형판 변형을 하고 초기 매개변수를 추출한다. 추출된 매개변수는 다음 프레임에서 형판의 초기 값으로 사용된다. 그리고 나서 형판에 대하여 변형(deformation) 과정을 수행한다. 이 과정을 반복함으로써 추적 과정을 수행한다.

  • PDF

Real-time Face Tracking using the Relative Similarity of Local Area (지역적영역의 상대적 유사도를 이용한 실시간 얼굴추적)

  • Lee, JeaHyuk;Shin, DongWha;Kim, HyunJung;Weon, ILYong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1408-1411
    • /
    • 2013
  • 객체의 인식과 추적은 컴퓨터 비전 및 영상처리 분야에서 연구가 활발히 진행되고 있다. 특히 얼굴을 인식하고 추적하는 기술은 많은 분야에서 응용될 수 있다. 기존에 연구되어 온 기준 프레임과 관찰 프레임 사이의 차를 이용하여 객체를 인식하고 추적하는 방식은 관찰 대상이 다수인 경우 동일성을 확보하기에는 어려움이 많다. 따라서 본 논문에서는 각각의 프레임에서 빠르게 얼굴 영역을 인식하고, 독립적으로 인지된 얼굴들의 동일성을 연결하는 방법을 제시한다. 제안된 방법의 유용성은 실험으로 검증하였으며, 어느 정도 의미 있는 결과를 관찰할 수 있었다.

Privacy-Preserving Facial Image Authentication Framework for Drones (드론을 위한 암호화된 얼굴 이미지 인증 프레임워크 제안)

  • Hyun-A Noh;Joohee Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.229-230
    • /
    • 2024
  • 최근 드론으로 극한 환경에서 범죄 수배자 및 실종자를 탐색하는 시도가 활발하다. 이때 생체 인증 기술인 얼굴 인증 기술을 사용하면 탐색 효율이 높아지지만, 암호화되지 않은 인증 프로토콜 적용 시 생체 정보 유출의 위험이 있다. 본 논문에서는 드론이 수집한 얼굴 이미지 템플릿을 암호화하여 안전하게 인증할 수 있는 효율적인 생체 인증 프레임워크인 DF-PPHDM(Privacy-Preserving Hamming Distance biometric Matching for Drone-collected Facial images)을 제안한다. 수집된 얼굴 이미지는 암호문 형태로 서버에 전달되며 서버는 기존 등록된 암호화된 템플릿과의 Hamming distance 분석을 통해 검증한다. 제안한 DF-PPHDM을 RaspberryPI 4B 환경에서 직접 실험하여 분석한 결과, 한정된 리소스를 소유한 드론에서 효율적인 구현이 가능하며, 인증 단계에서 7.83~155.03 ㎲ (microseconds)가 소요된다는 것을 입증하였다. 더불어 서버는 드론이 전송한 암호문으로부터 생체 정보를 복구할 수 없으므로 프라이버시 침해 문제를 예방할 수 있다. 향후 DF-PPHDM에 AI(Artificial Intelligence)를 결합하여 자동화 기능을 추가하고 코드 최적화를 통해 성능을 향상시킬 예정이다.

Face Detection using Adaptive Skin Region Extraction (적응적 피부영역 검출을 이용한 얼굴탐지)

  • Hwang, Dae-Dong;Park, Young-Jae;Kim, Gye-Young
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.1
    • /
    • pp.35-44
    • /
    • 2010
  • In this paper, we propose a method about producing skin color model adaptively in input image and face detection. The principle process which we proposed is finding eyes candidates by applying the eye features to neural network, and then using the around color to find the distribution of color value. There will be a verification process that producing face region by using color value distribution which is detected as skin region and find mouth candidate in corresponding face region; if eye candidate and mouth candidate's connection structure is similar with face structure, then it can be judged as a face. Because this method can detect skin region adaptively by finding eyes, we solve the rate of false positive about the distorted skin color which is used by existing face detection methods. The experiment was performed about detecting the eye, the skin, the mouth and the face individually. The results revealed that the proposed technique is better than the traditional techniques.

The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant? (가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가?)

  • Ryu, Jeeheon;Yu, Seungbeom
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.5
    • /
    • pp.21-34
    • /
    • 2016
  • In the design and develop a virtual character, it is important to correctly deliver target emotions generated by the combination of facial expression and gesture. The purpose of this study is to examine the effect of congruent/incongruent between gesture and facial expression on target emotion. In this study four emotions, joy, sadness, fear, and anger, are applied. The results of study showed that sadness emotion were incorrectly perceived. Moreover, it was perceived as anger instead of sadness. Sadness can be easily confused when facial expression and gestures were simultaneously presented. However, in the other emotional status, the intended emotional expressions were correctly perceived. The overall evaluation of virtual character's emotional expression was significantly low when joy gesture was combined with sad facial expression. The results of this study suggested that emotional gesture is more influential correctly to deliver target emotions to users. This study suggested that social cues like gender or age of virtual character should be further studied.

Verbalizing visual stimuli can reduce the global precedence effect (시각 자극의 언어화에 의한 전역 선행성의 역전)

  • Min, Soo-Jung;Yi, Do-Joon
    • Korean Journal of Cognitive Science
    • /
    • v.23 no.3
    • /
    • pp.389-408
    • /
    • 2012
  • 'Verbal overshadowing' refers to the phenomenon whereby the verbal reporting of a visual memory of a face interferes with subsequent visual recognition of that face. Schooler (2002)[1] suggested that verbalization causes a shift from a holistic/global processing orientation towards a more analytic/local processing orientation that is detrimental to face recognition. The present research investigated whether this processing shift occurs or not by assessing performance of Navon task following face recognition task, interposing verbalization between encoding stage and retrieval stage. The face recognition task showed the verbal overshadowing effect. In the Navon task, while non-verbalization group showed global precedence, verbalization group showed local precedence. This results imply that the cause of verbal overshadowing effect is a processing shift induced by verbalization.

  • PDF

Online Face Pose Estimation based on A Planar Homography Between A User's Face and Its Image (사용자의 얼굴과 카메라 영상 간의 호모그래피를 이용한 실시간 얼굴 움직임 추정)

  • Koo, Deo-Olla;Lee, Seok-Han;Doo, Kyung-Soo;Choi, Jong-Soo
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.47 no.4
    • /
    • pp.25-33
    • /
    • 2010
  • In this paper, we propose a simple and efficient algorithm for head pose estimation using a single camera. First, four subimages are obtained from the camera image for face feature extraction. These subimages are used as feature templates. The templates are then tracked by Kalman filtering, and camera projective matrix is computed by the projective mapping between the templates and their coordinate in the 3D coordinate system. And the user's face pose is estimated from the projective mapping between the user's face and image plane. The accuracy and the robustness of our technique is verified on the experimental results of several real video sequences.

Robust Real-time Face Detection Scheme on Various illumination Conditions (다양한 조명 환경에 강인한 실시간 얼굴확인 기법)

  • Kim, Soo-Hyun;Han, Young-Joon;Cha, Hyung-Tai;Hahn, Hern-Soo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.14 no.7
    • /
    • pp.821-829
    • /
    • 2004
  • A face recognition has been used for verifying and authorizing valid users, but its applications have been restricted according to lighting conditions. In order to minimizing the restricted conditions, this paper proposes a new algorithm of detecting the face from the input image obtained under the irregular lighting condition. First, the proposed algorithm extracts an edge difference image from the input image where a skin color and a face contour are disappeared due to the background color or the lighting direction. In the next step, it extracts a face region using the histogram of the edge difference image and the intensity information. Using the intensity information, the face region is divided into the horizontal regions with feasible facial features. The each of horizontal regions is classified as three groups with the facial features(including eye, nose, and mouth) and the facial features are extracted using empirical properties of the facial features. Only when the facial features satisfy their topological rules, the face region is considered as a face. It has been proved by the experiments that the proposed algorithm can detect faces even when the large portion of face contour is lost due to the inadequate lighting condition or the image background color is similar to the skin color.