• Title/Summary/Keyword: 얼굴 자세변화

Search Result 30, Processing Time 0.029 seconds

인간-로봇 상호작용을 위한 자세변화에 대응 가능한 얼굴 검출 및 인식 방법

  • 이태근;박성기;김문상
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2004.05a
    • /
    • pp.27-27
    • /
    • 2004
  • 이 논문에서는 이동 로봇 플랫폼 위에 장착되는 비전 시스템을 이용하여 대상 사람의 얼굴위치를 검출, 사용자 인식을 수행하는 방법론을 제시한다. 본 연구에서 적용대상으로 하는 이동로봇은 실내에서 사용 가능한 홈 서비스 로봇(Hombot-2)으로 인간-로봇 상호작용 (human-robot interaction, HCI)이 중요한 기능 중에 하나이다. 로봇에 장착된 스테레오 비전 카메라에서 획득하게 되는 얼굴 영상은 임의로 움직이는 로봇 작업 반경 밖에 있는 사용자의 특성 상 얼굴 영상이 비교적 작게 얻어지고 정면얼굴에서 벗어난 가변적 얼굴 자세변화를 갖게 된다.(중략)

  • PDF

Fast Pose-Invariant Detection of Facial Informations Using Color Cues (컬러 정보를 이용한 얼굴 정보의 자세불변 고속 검출)

  • 정의정;김복만;최홍문
    • Proceedings of the IEEK Conference
    • /
    • 2003.07e
    • /
    • pp.2096-2099
    • /
    • 2003
  • 본 논문에서는 입력 영상의 컬러 정보를 이용함으로써 조명 변화나 얼굴의 자세 변화에 둔감하게 얼굴 정보를 고속 검출하는 알고리듬을 제안하였다 계산복잡도가 작으면서도, 조명의 변화에 민감하지 않은 특성을 가진 NCC (normalized color component) 좌표계에서 정의한 살색에 기반하여 얼굴 후보 영역을 검출하고, 검출된 얼굴 후보 영역 내에서의 눈의 검출에도 색상 분포 특성을 이용함으로써 얼굴의 숙임(nod), 돌림(shake), 기울임(tilt)등에 의한 자세 변화에 대해서도 둔감하게 두 눈의 위치를 고속으로 찾도록 하였다. 특히 집중자(concentrator)를 제안 적용하여 유동적인 눈썹의 영향을 줄이고 눈안의 중심 위치를 찾도록 가중치 눈지도(eye map)를 도입하였다. 제안된 알고리듬이 조명 변화나 얼굴의 다양한 자세 변화가 있는 영상에서 얼굴 후보 영역과 두 눈의 위치를 효과적으로 검출함을 실험을 통해 확인하였다.

  • PDF

Robust Face Feature Extraction for various Pose and Expression (자세와 표정변화에 강인한 얼굴 특징 검출)

  • Jung Jae-Yoon;Jung Jin-Kwon;Cho Sung-Won;Kim Jae-Min
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.11a
    • /
    • pp.294-298
    • /
    • 2005
  • 바이오메트릭스의 여러 가지 기술 중에서 얼굴인식은 지문인식, 손금인식, 홍채인식 등과는 달리 신체의 일부를 접촉시키지 않고도 원거리에 설치된 카메라를 통해 사람을 확인할 수 있는 장점을 가지고 있다. 그러나 얼굴인식은 조명변화, 표정변화 둥의 다양한 환경변화에 대단히 민감하게 반응하므로 얼굴의 특징 영역에 대한 정확한 추출이 반드시 선행되어야 한다. 얼굴의 주요 특징인 눈, 코, 입, 눈썹은 자세와 표정 그리고 생김새에 따라 다양한 위치, 크기, 형태를 가질 수 있다. 본 연구에서는 변화하는 특징 영역과 특징 점을 정확히 추출하기 위하여 얼굴을 9가지 방향으로 분류하고, 각 분류된 방향에서 특징 영역을 통계적인 형태에 따라 다시 2차로 분류하여, 각각의 형태에 대한 표준 템플릿을 생성하여 검출하는 방법을 제안한다.

  • PDF

Head Pose Estimation Based on Perspective Projection Using PTZ Camera (원근투영법 기반의 PTZ 카메라를 이용한 머리자세 추정)

  • Kim, Jin Suh;Lee, Gyung Ju;Kim, Gye Young
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.7
    • /
    • pp.267-274
    • /
    • 2018
  • This paper describes a head pose estimation method using PTZ(Pan-Tilt-Zoom) camera. When the external parameters of a camera is changed by rotation and translation, the estimated face pose for the same head also varies. In this paper, we propose a new method to estimate the head pose independently on varying the parameters of PTZ camera. The proposed method consists of 3 steps: face detection, feature extraction, and pose estimation. For each step, we respectively use MCT(Modified Census Transform) feature, the facial regression tree method, and the POSIT(Pose from Orthography and Scaling with ITeration) algorithm. The existing POSIT algorithm does not consider the rotation of a camera, but this paper improves the POSIT based on perspective projection in order to estimate the head pose robustly even when the external parameters of a camera are changed. Through experiments, we confirmed that RMSE(Root Mean Square Error) of the proposed method improve $0.6^{\circ}$ less then the conventional method.

Eye Detection Based on Texture Information (텍스처 기반의 눈 검출 기법)

  • Park, Chan-Woo;Park, Hyun;Moon, Young-Shik
    • Annual Conference of KIPS
    • /
    • 2007.05a
    • /
    • pp.315-318
    • /
    • 2007
  • 자동 얼굴 인식, 표정 인식과 같은 얼굴 영상과 관련된 다양한 연구 분야는 일반적으로 입력 얼굴 영상에 대한 정규화가 필요하다. 사람의 얼굴은 표정, 조명 등에 따라 다양한 형태변화가 있어 입력 영상 마다 정확한 대표 특징 점을 찾는 것은 어려운 문제이다. 특히 감고 있는 눈이나 작은 눈 등은 검출하기 어렵기 때문에 얼굴 관련 연구에서 성능을 저하시키는 주요한 원인이 되고 있다. 이에 다양한 변화에 강건한 눈 검출을 위하여 본 논문에서는 눈의 텍스처 정보를 이용한 눈 검출 방법을 제안한다. 얼굴 영역에서 눈의 텍스처가 갖는 특성을 정의하고 두 가지 형태의 Eye 필터를 정의하였다. 제안된 방법은 Adaboost 기반의 얼굴 영역 검출 단계, 조명 정규화 단계, Eye 필터를 이용한 눈 후보 영역 검출 단계, 눈 위치 점 검출 단계 등 총 4단계로 구성된다. 실험 결과들은 제안된 방법이 얼굴의 자세, 표정, 조명 상태 등에 강건한 검출 결과를 보여주며 감은 눈 영상에서도 강건한 결과를 보여준다.

Affine Invariant Local Descriptors for Face Recognition (얼굴인식을 위한 어파인 불변 지역 서술자)

  • Gao, Yongbin;Lee, Hyo Jong
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.9
    • /
    • pp.375-380
    • /
    • 2014
  • Under controlled environment, such as fixed viewpoints or consistent illumination, the performance of face recognition is usually high enough to be acceptable nowadays. Face recognition is, however, a still challenging task in real world. SIFT(Scale Invariant Feature Transformation) algorithm is scale and rotation invariant, which is powerful only in the case of small viewpoint changes. However, it often fails when viewpoint of faces changes in wide range. In this paper, we use Affine SIFT (Scale Invariant Feature Transformation; ASIFT) to detect affine invariant local descriptors for face recognition under wide viewpoint changes. The ASIFT is an extension of SIFT algorithm to solve this weakness. In our scheme, ASIFT is applied only to gallery face, while SIFT algorithm is applied to probe face. ASIFT generates a series of different viewpoints using affine transformation. Therefore, the ASIFT allows viewpoint differences between gallery face and probe face. Experiment results showed our framework achieved higher recognition accuracy than the original SIFT algorithm on FERET database.

Development of Intelligent Remote Vehicle Safety System including Automatic Starting System through Owner Identification (소유자 인증을 통한 자동시동 및 지능형 원격 도난방지 기술)

  • Kim, Kwon;Kim, Jae Kyung;Lee, Chang Woo;Jang, Dae Sik
    • Annual Conference of KIPS
    • /
    • 2007.11a
    • /
    • pp.17-20
    • /
    • 2007
  • 본 논문은 차량 내부에서 정면의 얼굴 뿐 아니라, 측면의 얼굴도 효과적으로 추출하기 위해 다시점의 Haar-like 특징을 결합하여 사용하는 방법을 개발하여 적용하였고, 얼굴의 위치변화에 비교적 강건한 HMM(Hidden Markov Model)기반의 얼굴 인식을 사용하며, 또한 다양한 얼굴자세, 조명환경 등의 다중 얼굴 자료를 기반으로 하는 다시점 얼굴 DB의 학습을 통해 보다 강건하게 얼굴을 인식할 수 있도록 개선하였다. PC를 통해 운전자의 얼굴이 정상적으로 인식되면 자동으로 시동모듈을 제어하여 시동을 걸어줌으로써 운전자의 편리성을 향상할 수 있고 운전자가 아닌 자가 운전석에 착선한 경우에는 획득된 운전자의 얼굴영상 부분을 원격단말기로 전송하여 운전자 또는 경찰이 이를 이용하여 도난을 방지할 수 있는 조치를 취할 수 있도록 지원한다.

Robust AAM-based Face Tracking with Occlusion Using SIFT Features (SIFT 특징을 이용하여 중첩상황에 강인한 AAM 기반 얼굴 추적)

  • Eom, Sung-Eun;Jang, Jun-Su
    • The KIPS Transactions:PartB
    • /
    • v.17B no.5
    • /
    • pp.355-362
    • /
    • 2010
  • Face tracking is to estimate the motion of a non-rigid face together with a rigid head in 3D, and plays important roles in higher levels such as face/facial expression/emotion recognition. In this paper, we propose an AAM-based face tracking algorithm. AAM has been widely used to segment and track deformable objects, but there are still many difficulties. Particularly, it often tends to diverge or converge into local minima when a target object is self-occluded, partially or completely occluded. To address this problem, we utilize the scale invariant feature transform (SIFT). SIFT is an effective method for self and partial occlusion because it is able to find correspondence between feature points under partial loss. And it enables an AAM to continue to track without re-initialization in complete occlusions thanks to the good performance of global matching. We also register and use the SIFT features extracted from multi-view face images during tracking to effectively track a face across large pose changes. Our proposed algorithm is validated by comparing other algorithms under the above 3 kinds of occlusions.

Class Discriminating Feature Vector-based Support Vector Machine for Face Membership Authentication (얼굴 등록자 인증을 위한 클래스 구별 특징 벡터 기반 서포트 벡터 머신)

  • Kim, Sang-Hoon;Seol, Tae-In;Chung, Sun-Tae;Cho, Seong-Won
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.46 no.1
    • /
    • pp.112-120
    • /
    • 2009
  • Face membership authentication is to decide whether an incoming person is an enrolled member or not using face recognition, and basically belongs to two-class classification where support vector machine (SVM) has been successfully applied. The previous SVMs used for face membership authentication have been trained and tested using image feature vectors extracted from member face images of each class (enrolled class and unenrolled class). The SVM so trained using image feature vectors extracted from members in the training set may not achieve robust performance in the testing environments where configuration and size of each class can change dynamically due to member's joining or withdrawal as well as where testing face images have different illumination, pose, or facial expression from those in the training set. In this paper, we propose an effective class discriminating feature vector-based SVM for robust face membership authentication. The adopted features for training and testing the proposed SVM are chosen so as to reflect the capability of discriminating well between the enrolled class and the unenrolled class. Thus, the proposed SVM trained by the adopted class discriminating feature vectors is less affected by the change in membership and variations in illumination, pose, and facial expression of face images. Through experiments, it is shown that the face membership authentication method based on the proposed SVM performs better than the conventional SVM-based authentication methods and is relatively robust to the change in the enrolled class configuration.

An Integrated Face Detection and Recognition System (통합된 시스템에서의 얼굴검출과 인식기법)

  • 박동희;이규봉;이유홍;나상동;배철수
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.05a
    • /
    • pp.165-170
    • /
    • 2003
  • This paper presents an integrated approach to unconstrained face recognition in arbitrary scenes. The front end of the system comprises of a scale and pose tolerant face detector. Scale normalization is achieved through novel combination of a skin color segmentation and log-polar mapping procedure. Principal component analysis is used with the multi-view approach proposed in[10] to handle the pose variations. For a given color input image, the detector encloses a face in a complex scene within a circular boundary and indicates the position of the nose. Next, for recognition, a radial grid mapping centered on the nose yields a feature vector within the circular boundary. As the width of the color segmented region provides an estimated size for the face, the extracted feature vector is scale normalized by the estimated size. The feature vector is input to a trained neural network classifier for face identification. The system was evaluated using a database of 20 person's faces with varying scale and pose obtained on different complex backgrounds. The performance of the face recognizer was also quite good except for sensitivity to small scale face images. The integrated system achieved average recognition rates of 87% to 92%.

  • PDF