• 제목/요약/키워드: Active appearance model

검색결과 69건 처리시간 0.029초

Active Appearance Model을 이용한 얼굴 추적 시스템 (Face Tracking System using Active Appearance Model)

  • 조경식;김용국
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1044-1049
    • /
    • 2006
  • 얼굴 추적은 Vision base HCI의 핵심인 얼굴인식, 표정인식 그리고 Gesture recognition등의 다른 여러 기술을 지원하는 중요한 기술이다. 이런 얼굴 추적기술에는 영상(Image)의 Color또는 Contour등의 불변하는 특징들을 사용 하거나 템플릿(template)또는 형태(appearance)를 사용하는 방법 등이 있는데 이런 방법들은 조명환경이나 주위 배경등의 외부 환경에 민감하게 반응함으로 해서 다양한 환경에 사용할 수 없을 뿐더러 얼굴영상만을 정확하게 추출하기도 쉽지 않은 실정이다. 이에 본 논문에서는 deformable한 model을 사용하여 model과 유사한 shape과 appearance를 찾아 내는 AAM(Active Appearance Model)을 사용하는 얼굴 추적 시스템을 제안하고자 한다. 제안된 시스템에는 기존의 Combined AAM이 아닌 Independent AAM을 사용하였고 또한 Fitting Algorithm에 Inverse Compositional Image Alignment를 사용하여 Fitting 속도를 향상 시켰다. AAM Model을 만들기 위한 Train set은 150장의 4가지 형태에 얼굴을 담고 있는 Gray-scale 영상을 사용 하였다. Shape Model은 각 영상마다 직접 표기한 47개의 Vertex를 Trianglize함으로서 생성되는 71개의 Triangles을 하나의 Mesh로 구성하여 생성 하였고, Appearance Model은 Shape 안쪽의 모든 픽셀을 사용해서 생성하였다. 시스템의 성능 평가는 Fitting후 Shape 좌표의 정확도를 측정 함으로서 평가 하였다.

  • PDF

Adaptive Particle Filter와 Active Appearance Model을 이용한 얼굴 특징 추적 (Facial Feature Tracking Using Adaptive Particle Filter and Active Appearance Model)

  • 조덕현;이상훈;서일홍
    • 로봇학회논문지
    • /
    • 제8권2호
    • /
    • pp.104-115
    • /
    • 2013
  • For natural human-robot interaction, we need to know location and shape of facial feature in real environment. In order to track facial feature robustly, we can use the method combining particle filter and active appearance model. However, processing speed of this method is too slow. In this paper, we propose two ideas to improve efficiency of this method. The first idea is changing the number of particles situationally. And the second idea is switching the prediction model situationally. Experimental results is presented to show that the proposed method is about three times faster than the method combining particle filter and active appearance model, whereas the performance of the proposed method is maintained.

Multiple Active Appearance Model을 이용한 얼굴 특징 추출 기법 (Facial Feature Extraction using Multiple Active Appearance Model)

  • 박현준;김광백;차의영
    • 한국전자통신학회논문지
    • /
    • 제8권8호
    • /
    • pp.1201-1206
    • /
    • 2013
  • 영상에서 얼굴 및 얼굴 특징을 추출하기 위한 기법으로 active appearance model(AAM)이 있다. 본 논문에서는 두 개의 AAM을 이용하여 얼굴 특징을 추출하는 multiple active appearance model(MAAM) 기법을 제안한다. 두 개의 AAM은 학습 데이터에 대한 파라미터를 조절하여 상반되는 장단점을 가지도록 생성하고, 서로의 단점을 보완할 수 있도록 한다. 제안된 방법의 성능을 평가하기 위해 100장의 영상에 대해서 얼굴 특징추출 실험을 하였다. 실험 결과 기존의 AAM 하나만을 사용하는 기법에 비해 적은 횟수의 피팅만으로도 정확도 높은 결과를 얻을 수 있었다.

얼굴인식을 위한 3D Active Appearance Model (3D Active Appearance Model for Face Recognition)

  • 조경식;김용국
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1006-1011
    • /
    • 2007
  • Active Appearance Models은 객체의 모델링에 널리 사용되며, 특히 얼굴 모델은 얼굴 추적, 포즈 인식, 표정 인식, 그리고 얼굴 인식에 널리 사용되고 있다. 최초의 AAM은 Shape과 Appearance가 하나의 계수에 의해서 만들어 지는 Combined AAM이였고, 이후 Shape과 Appearance의 계수가 분리된 Independent AAM과 3D를 표현할 수 있는 Combined 2D+3D AAM이 개발 되었다. 비록 Combined 2D+3D AAM이 3D를 표현 할 수 있을지라도 이들은 공통적으로 2D 영상을 사용하여 모델을 생산한다. 본 논문에서 우리는 stereo-camera based 3D face capturing device를 통해 획득한 3D 데이터를 기반으로 하는 3D AAM을 제안한다. 우리의 3D AAM은 3D정보를 이용해 모델을 생산하므로 기존의 AAM보다 정확한 3D표현이 가능하고 Alignment Algorithm으로 Inverse Compositional Image Alignment(ICIA)를 사용하여 빠르게 Model Instance를 생산할 수 있다. 우리는 3D AAM을 평가하기 위해 stereo-camera based 3D face capturing device로 촬영해 수집한 한국인 얼굴 데이터베이스[9]로 얼굴인식을 수행하였다.

  • PDF

통계학적 학습을 이용한 머리와 어깨선의 위치 찾기 (Localizing Head and Shoulder Line Using Statistical Learning)

  • 권무식
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.141-149
    • /
    • 2007
  • 영상에서 사람의 머리위치를 찾는 문제에 있어서 어깨선 정보를 이용하는 것은 아주 유용하다. 영상에서 머리 외곽선과 어깨선의 형태는 일정한 변형을 유지하면서 같이 움직이므로 이를 ASM(Active Shape Model) 기법을 사용해서 통계적으로 모델링 할 수 있다. 그러나 ASM 모델은 국부적인 에지나 그래디언트에 의존하므로 배경 에지나 클러터 성분에 민감하다. 한편 AAM(Active Appearance Model) 모델은 텍스쳐 등을 이용하지만, 사람의 피부색, 머리색깔, 옷 색깔 등의 차이로 인해서 통계적인 학습방법을 쓰기가 어렵고, 전체 비디오에서 외모(Appearance)가 시간적으로 변한다. 따라서, 본 논문에서는 외모(Apperance) 모델을 변화에 따라 바꾸는 대신, 영상의 각 화소를 머리, 어깨, 배경으로 구분하는 분별적 외모 모델(discriminative appearance)를 사용한다. 실험을 통해서 제안된 방법이 기존의 기법에 비해서 포즈변화와 가려짐, 조명의 변화 등에 강인함을 보여준다. 또한 제안된 기법은 실시간으로 작동하는 장점 또한 가진다.

Recognition of Human Facial Expression in a Video Image using the Active Appearance Model

  • Jo, Gyeong-Sic;Kim, Yong-Guk
    • Journal of Information Processing Systems
    • /
    • 제6권2호
    • /
    • pp.261-268
    • /
    • 2010
  • Tracking human facial expression within a video image has many useful applications, such as surveillance and teleconferencing, etc. Initially, the Active Appearance Model (AAM) was proposed for facial recognition; however, it turns out that the AAM has many advantages as regards continuous facial expression recognition. We have implemented a continuous facial expression recognition system using the AAM. In this study, we adopt an independent AAM using the Inverse Compositional Image Alignment method. The system was evaluated using the standard Cohn-Kanade facial expression database, the results of which show that it could have numerous potential applications.

Active Appearance Model과 EFM을 이용한 실시간 얼굴 표정 인식 시스템 (Real-time Facial Expression recognition System using Active Appearance Model and EFM)

  • 조경식;김용국;이양복
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 가을 학술발표논문집 Vol.33 No.2 (B)
    • /
    • pp.437-441
    • /
    • 2006
  • 본 논문에서는 Active Appearance Model과 EFM을 기반으로 하는 실시간 표정인식 시스템을 설명한다. AAM은 얼굴추적, 얼굴인식 그리고 물체인식과 같은 시스템에 널리 사용되어 지고 있다. 시스템에 사용된 AAM은 Inverse Compositional Image Alignment를 적용한Independent AAM으로서 fitting 속도가 빨라 실시간 시스템에 매우 효과 적이다. 시스템의 성능 평가는 Cohn-Kanade Image DB의 표정영상과 연속영상을 사용하여 실시 하였다.

  • PDF

얼굴 특징점 추적을 통한 사용자 감성 인식 (Emotion Recognition based on Tracking Facial Keypoints)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제18권1호
    • /
    • pp.97-101
    • /
    • 2019
  • Understanding and classification of the human's emotion play an important tasks in interacting with human and machine communication systems. This paper proposes a novel emotion recognition method by extracting facial keypoints, which is able to understand and classify the human emotion, using active Appearance Model and the proposed classification model of the facial features. The existing appearance model scheme takes an expression of variations, which is calculated by the proposed classification model according to the change of human facial expression. The proposed method classifies four basic emotions (normal, happy, sad and angry). To evaluate the performance of the proposed method, we assess the ratio of success with common datasets, and we achieve the best 93% accuracy, average 82.2% in facial emotion recognition. The results show that the proposed method effectively performed well over the emotion recognition, compared to the existing schemes.

Human Face Tracking and Modeling using Active Appearance Model with Motion Estimation

  • Tran, Hong Tai;Na, In Seop;Kim, Young Chul;Kim, Soo Hyung
    • 스마트미디어저널
    • /
    • 제6권3호
    • /
    • pp.49-56
    • /
    • 2017
  • Images and Videos that include the human face contain a lot of information. Therefore, accurately extracting human face is a very important issue in the field of computer vision. However, in real life, human faces have various shapes and textures. To adapt to these variations, A model-based approach is one of the best ways in which unknown data can be represented by the model in which it is built. However, the model-based approach has its weaknesses when the motion between two frames is big, it can be either a sudden change of pose or moving with fast speed. In this paper, we propose an enhanced human face-tracking model. This approach included human face detection and motion estimation using Cascaded Convolutional Neural Networks, and continuous human face tracking and modeling correction steps using the Active Appearance Model. A proposed system detects human face in the first input frame and initializes the models. On later frames, Cascaded CNN face detection is used to estimate the target motion such as location or pose before applying the old model and fit new target.

조명얼굴 영상을 위한 협력적 지역 능동표현 모델 (Collaborative Local Active Appearance Models for Illuminated Face Images)

  • 양준영;고재필;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권10호
    • /
    • pp.816-824
    • /
    • 2009
  • 얼굴영상 공간에서 얼굴영상들은 조명이나 포즈에 의해 비선형적 분포를 갖는다. 이들을 선형모델에 기반을 둔 AAM으로 모델링 하는 것은 한계가 있다. 본 논문에서는 얼굴영상에 대한 몇 개의 군집이 주어졌다고 가정하고, 각 군집 별로 지역적인 AAM 모델을 구축하여 정합과정 중에 적합한 모델이 선택되도록 한다. 정합과정에서 발생하는 모델변경에 따른 모델간의 정합 인자 갱신의 문제는 인자 공간에서 모델간의 선형 관계를 미리 학습하여 해결한다. 심각한 정합 실패에 따른 잘못된 모델 선택을 줄이기 위해 점진적으로 모델변경이 이루어지도록 한다. 실험에서는 제안하는 방법을 Yale-B 조명얼굴 영상에 적용하여 모델을 생성하고 기존 방법과 정합 성능을 비교한다. 제안 방법은 심각한 그림자가 발생하는 강도 높은 조명얼굴 영상에서 성공적인 정합 결과를 보여주었다.