• Title/Summary/Keyword: 얼굴 표현

Search Result 420, Processing Time 0.028 seconds

Face Recognition Algorithm using Laplacian Filter and Neural Network (라플라시안 필터와 신경망을 이용한 얼굴인식 알고리즘)

  • Lee, Hee-Yeol;Lee, Seung-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.04a
    • /
    • pp.708-711
    • /
    • 2016
  • 일반적인 얼굴인식 시스템에서는 얼굴표현과 얼굴분류 과정을 통하여 얼굴인식을 수행한다. 얼굴표현 방법으로는 LBP(Local Binary Pattern) 방법이 많이 사용되고 있다. 얼굴분류 방법으로는 신경망을 이용하여 미리 학습을 시켜놓기 때문에 수행시간이 매우 짧은 신경망 방법이 많이 사용되고 있다. 이때 얼굴표현 과정에서 LBP를 사용한 후 신경망을 사용하여 얼굴분류를 수행하면 인식률이 낮고 학습시간이 오래 걸리는 문제점이 있다. 따라서 본 논문에서는 신경망을 이용하여 얼굴 인식 과정을 수행하기 적합한 얼굴 표현 과정인 라플라시안 필터를 이용한 알고리즘을 제안한다. LBP와 신경망을 이용한 얼굴인식 과정과 본 논문에서 제안한 얼굴인식 과정을 비교분석한 실험결과, 본 논문에서 제안한 방법이 학습에 걸리는 시간과 인식률이 우수함을 보였다.

국립민속박물관 펴냄 "한국인의 얼굴"

  • Lee, Seong-Su
    • The Korean Publising Journal, Monthly
    • /
    • s.154
    • /
    • pp.2-3
    • /
    • 1994
  • 이 책은 선사유물, 불상이나 탱화, 고분벽호, 토우, 장숭, 탈 무속화에 표현된 얼굴과, 외국인이 본 우리의 얼굴 등에서 '역사 속의 얼굴'을 찾고 있다. 하지만 책을 뒤적이다 보면, 그 표현법이 다를 뿐 각 양식에 나타난 얼굴들은 분명 우리의 얼굴이라는 사실을 깨닫게 된다. "우리는 어떤 얼굴을 가진 민족인가?" 이 질문에 현답을 제시하고 있다.

  • PDF

Realistic 3-dimensional using computer graphics Expression of Human illustrations (컴퓨터그래픽스를 이용한 사실적인 3D 인물 일러스트레이션의 표현)

  • Kim, Hoon
    • Archives of design research
    • /
    • v.19 no.1 s.63
    • /
    • pp.79-88
    • /
    • 2006
  • A human face figure is a visual symbol of identity. Each different face per person is a critical information differentiating each person from others and it directly relates to individual identity. When we look back human history, historical change of recognition for a face led to the change of expression and communication media and it in turn caused many changes in expressing a face. However, there has not been no time period when people pay attention to a face more than this time. Technically, the advent of computer graphics opened new turning point in expressing human face figure. Especially, a visual image which can be produced, saved, and transferred in digital has no limitation in time and space, and its importance in communication is getting higher and higher. Among those visual image information, a face image in digital is getting more applications. Therefore, 3d (3-dimensional) expression of a face using computer graphics can be easily produced without any professional techniques, just like assembling puzzle parts composed of the shape of each part ands texture map, etc. This study presents a method with which a general visual designer can effectively express 3d type face by studying each producing step of 3d face expression and by visualizing case study based on the above-mentioned study result.

  • PDF

Face Recognition via Factorial Code Representation (Factorial Code 표현법을 이용한 얼굴 인식)

  • 이오영;박혜영;최승진
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.10B
    • /
    • pp.1444-1452
    • /
    • 2001
  • 얼굴인식에서 정보 이론적 접근방법은 얼굴 영상을 기저 영상의 합으로 분해하는 것을 기초로 한다. 가장 많이 쓰이고 있는 방법은 Principal Component Analysis (PCA)를 기반으로 하는 eigenface 방법이다. PCA를 기반으로 하는 방법은 데이터의 2차 통계적 구조만을 고려하므로 화소 사이의 고차 통계적 의존성은 고려되지 않는다. Factorial code 표현법은 효과적인 정보 표현의 좋은 방법으로 알려져 있고 이것은 Independent Component Analysis (ICA)와 밀접한 관련이 있다. Factorial code 표현법은 eigenface 방법과 비교할 때 중요한 정보가 포함되어 있는 데이터의 고차 통계적 구조도 고려되어 더욱 효과적인 정보 표현을 기대할 수 있다. 이 논문에서는 PCA를 이용하여 찾아낸 저차원 특징 공간에서 Factorial code 표현법을 이용하여 얼굴인식을 위한 통계적 특징점을 찾아낸다. 얼굴 인식에 있어서 Factorial code 표현법이 eigenface 방법보다 성능이 우수함을 모의실험을 통하여 입증한다.

  • PDF

Face Recognition using SIFT and Subspace Analysis (SIFT와 부분공간분석법을 활용한 얼굴인식)

  • Kim, Dong-Hyun;Park, Hye-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2010.06c
    • /
    • pp.390-394
    • /
    • 2010
  • 본 논문에서는 영상인식에서 널리 사용되는 지역적 특징인 SIFT와 부분공간분석에 의한 차원축소방법의 결합을 통하여 얼굴을 인식하는 방법을 제안한다. 기존의 SIFT기반 영상인식 방법에서는 추출된 키 포인트 각각에 대하여 계산된 특징기술자들을 개별적으로 비교하여 얻어지는 유사도를 바탕으로 인식을 수행하는데 반해, 본 논문에서 제안하는 접근법은 SIFT의 특징기술자를 명도 값으로 표현된 얼굴 영상을 여려 변형에 강건한 형태로 표현되도록 변환하는 표현방식으로 본다. SIFT기반의 특징기술자에 의해 표현된 얼굴 영상을 부분공간분석법에 의해 저차원의 특징벡터로 다시 표현되고, 이 특징벡터를 이용하여 얼굴인식을 수행한다. 잘 알려진 벤치마크 데이터인 AR 데이터베이스에 대한 실험을 통해 제안한 방법이 조명 변화와 가려짐에 강인한 인식 결과를 보여줄 뿐 아니라, 기존의 SIFT 기반의 얼굴 인식 방법에 비하여 우수한 처리 속도를 보임을 확인하였다.

  • PDF

Facial Animation of Automatic Added Anticipation (기대 효과를 자동 적용한 얼굴 표정 애니메이션)

  • 김동성;이인권
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.163-165
    • /
    • 2003
  • 최근 컴퓨터 그래픽스에서 비사실적인 표현에 관한 연구가 되고 있다. 그 중 애니메이션 분야는 기존의 2D 애니메이션 기법을 적용하여 비사실적인 애니메이션(Non Photorealistic Animation) 을 표현할 수 있다. 여러 기법 중 기대(Anticipation) 효과를 얼굴 표정 애니메이션(Facial Animation)에 적용한다면 조금 더 역동적인 표정을 표현할 수 있게 된다. 얼굴 표정 애니메이션(Facial Animation)을 제작하기 위해서는 실제 사람의 얼굴 표정을 캡쳐하거나 애니메이터가 많은 노력과 시간을 투자하여 작업을 해야 한다. 본 논문에서는 이런 방법으로 생성된 얼굴 표정 애니메이션에 사용자가 원하는 표정에 기대 효과를 자동으로 추가하여 더 좋은 표정을 생성하는 방법을 소개한다.

  • PDF

The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant? (가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가?)

  • Ryu, Jeeheon;Yu, Seungbeom
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.5
    • /
    • pp.21-34
    • /
    • 2016
  • In the design and develop a virtual character, it is important to correctly deliver target emotions generated by the combination of facial expression and gesture. The purpose of this study is to examine the effect of congruent/incongruent between gesture and facial expression on target emotion. In this study four emotions, joy, sadness, fear, and anger, are applied. The results of study showed that sadness emotion were incorrectly perceived. Moreover, it was perceived as anger instead of sadness. Sadness can be easily confused when facial expression and gestures were simultaneously presented. However, in the other emotional status, the intended emotional expressions were correctly perceived. The overall evaluation of virtual character's emotional expression was significantly low when joy gesture was combined with sad facial expression. The results of this study suggested that emotional gesture is more influential correctly to deliver target emotions to users. This study suggested that social cues like gender or age of virtual character should be further studied.

Face Expression Recognition using ICA-Factorial Representation (ICA-Factorial 표현을 이용한 얼굴감정인식)

  • 한수정;고현주;곽근창;전명근
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.329-332
    • /
    • 2002
  • 본 논문에서는 효과적인 정보를 표현하는 ICA(Independent Component Analysis)-Factorial 표현 방법을 이용하여 얼굴감정인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출과 인식단계에 의해 이루어진다. 먼저 특징추출방법은 PCA(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리를 이용하여 얼굴감정을 인식한다. 이 방법의 유용성을 설명하기 위해 6개의 기본감정(행복, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴데이터베이스를 구축하고, 기존의 방법인 Eigenfaces, Fishefaces와 비교하여 좋은 인식성능을 보이고자 한다.

Video-based Face Recognition Using Multilinear Principal Component Analysis of Tensor Faces (텐서얼굴의 다선형 주성분 분석기법을 이용한 동영상 기반 얼굴 인식)

  • Han, Yun-Hee;Kwak, Keun-Chang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.565-567
    • /
    • 2010
  • 일반적으로 얼굴 인식 방법에는 템플릿 기반 통계적 기법들이 사용되고 있다. 이 방법들은 2차원 영상을 고차원 벡터로 표현하여 특징을 추출한다. 그러나 많은 이미지와 비디오 데이터는 본래 텐서로 표현된다. 따라서, 본 논문에서는 벡터 표현보다는 직접적인 텐서 표현으로 특징들을 추출하기 위해 텐서 얼굴의 다선형 주성분 분석(MPCA: Multilinear Principal Component Analysis) 기법을 이용한 동영상 기반 얼굴인식에 대해 다룬다. 마지막으로, u-로봇 테스트베드 환경에서 구축된 얼굴 인식 데이터 베이스를 이용하여 제안된 방법과 기존 방법들의 인식처리시간과 성능을 비교한다.

3D Face Modeling based on Statistical Model for Animation (애니메이션을 위한 통계적 모델에 기반을 둔 3D 얼굴모델링)

  • Oh, Du-Sik;Kim, Jae-Min;Cho, Seoung-Won;Chung, Sun-Tae
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2008.04a
    • /
    • pp.435-438
    • /
    • 2008
  • 본 논문에서는 애니메이션을 위해서 얼굴의 특징표현(Action Units)의 조합하는 방법으로 얼굴 모델링을 하기 위한 3D대응점(3D dense correspondence)을 찾는 방법을 제시한다. AUs는 표정, 감정, 발음을 나타내는 얼굴의 특징표현으로 통계적 방법인 PCA (Principle Component Analysis)를 이용하여 만들 수 있다. 이를 위해서는 우선 3D 모델상의 대응점을 찾는 것이 필수이다. 2D에서 얼굴의 주요 특징 점은 다양한 알고리즘을 이용하여 찾을 수 있지만 그것만으로 3D상의 얼굴 모델을 표현하기에는 적합하지 않다. 본 논문에서는 3D 얼굴 모델의 대응점을 찾기 위해 원기둥 좌표계 (Cylinderical Coordinates System)을 이용하여 3D 모델을 2D로 투사(Projection)시켜서 만든 2D 이미지간의 워핑(Warping) 을 통한 대응점을 찾아 역으로 3D 모델간의 대응점을 찾는다. 이것은 3D 모델 자체를 변환하는 것보다 적은 연산량으로 계산할 수 있고 본래 형상의 변형이 없다는 장점을 가지고 있다.

  • PDF