• 제목/요약/키워드: 얼굴 표현

검색결과 420건 처리시간 0.025초

라플라시안 필터와 신경망을 이용한 얼굴인식 알고리즘 (Face Recognition Algorithm using Laplacian Filter and Neural Network)

  • 이희열;이승호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 춘계학술발표대회
    • /
    • pp.708-711
    • /
    • 2016
  • 일반적인 얼굴인식 시스템에서는 얼굴표현과 얼굴분류 과정을 통하여 얼굴인식을 수행한다. 얼굴표현 방법으로는 LBP(Local Binary Pattern) 방법이 많이 사용되고 있다. 얼굴분류 방법으로는 신경망을 이용하여 미리 학습을 시켜놓기 때문에 수행시간이 매우 짧은 신경망 방법이 많이 사용되고 있다. 이때 얼굴표현 과정에서 LBP를 사용한 후 신경망을 사용하여 얼굴분류를 수행하면 인식률이 낮고 학습시간이 오래 걸리는 문제점이 있다. 따라서 본 논문에서는 신경망을 이용하여 얼굴 인식 과정을 수행하기 적합한 얼굴 표현 과정인 라플라시안 필터를 이용한 알고리즘을 제안한다. LBP와 신경망을 이용한 얼굴인식 과정과 본 논문에서 제안한 얼굴인식 과정을 비교분석한 실험결과, 본 논문에서 제안한 방법이 학습에 걸리는 시간과 인식률이 우수함을 보였다.

국립민속박물관 펴냄 "한국인의 얼굴"

  • 이성수
    • 출판저널
    • /
    • 통권154호
    • /
    • pp.2-3
    • /
    • 1994
  • 이 책은 선사유물, 불상이나 탱화, 고분벽호, 토우, 장숭, 탈 무속화에 표현된 얼굴과, 외국인이 본 우리의 얼굴 등에서 '역사 속의 얼굴'을 찾고 있다. 하지만 책을 뒤적이다 보면, 그 표현법이 다를 뿐 각 양식에 나타난 얼굴들은 분명 우리의 얼굴이라는 사실을 깨닫게 된다. "우리는 어떤 얼굴을 가진 민족인가?" 이 질문에 현답을 제시하고 있다.

  • PDF

컴퓨터그래픽스를 이용한 사실적인 3D 인물 일러스트레이션의 표현 (Realistic 3-dimensional using computer graphics Expression of Human illustrations)

  • 김훈
    • 디자인학연구
    • /
    • 제19권1호
    • /
    • pp.79-88
    • /
    • 2006
  • 사람의 얼굴은 정체성의 시각적 상징이다. 사람마다 각기 다른 얼굴 모습은 타인과 구별할 수 있도록 하는 중요한 역할을 하면서 개인의 정체성과 직결된다. 역사적으로 볼 때 얼굴에 대한 시대적 인식의 변화와 함께 표현매체와 커뮤니케이션매체가 다양해지고 발전함에 따라 얼굴을 표현하는 것에도 많은 변화가 있었다. 그러나 지금처럼 얼굴에 대한 사람들의 관심과 주목이 컸던 적이 없었다. 기술적으로는 컴퓨터그래픽스의 등장으로 얼굴표현의 새로운 전기를 맞이하게 되었다. 특히 시각 이미지들이 디지털형태로 제작, 저장, 전송할 수 있게 되어 시간적, 공간적제약이 없어지면서 시각이미지정보는 커뮤니케이션에서 그 비중이 전보다 더 커지고 있다. 그 중에서 디지털로 만들어진 얼굴 이미지는 그 활용도가 점차 확대되고 있다. 이에 따라 컴퓨터그래픽스를 이용한 얼굴의 3d (3-dimensional) 표현은 수년전부터 얼굴 각 부분의 형태와 텍스추어 맵 등 각 요소들을 필요할 때 마치 퍼즐 조각처럼 조립해서 전문적인 기술이 없이도 손쉽게 표현할 수 있게 되었다. 본 연구에서는 3d 얼굴표현의 제작단계별 내용을 연구하고 그 결과를 바탕으로 케이스 스터디에서 시각화함으로써 3d 전문가가 아닌 일반 시각디자이너들이 3d 형태의 얼굴을 효과적으로 표현하는 방법을 연구한다.

  • PDF

Factorial Code 표현법을 이용한 얼굴 인식 (Face Recognition via Factorial Code Representation)

  • 이오영;박혜영;최승진
    • 한국통신학회논문지
    • /
    • 제26권10B호
    • /
    • pp.1444-1452
    • /
    • 2001
  • 얼굴인식에서 정보 이론적 접근방법은 얼굴 영상을 기저 영상의 합으로 분해하는 것을 기초로 한다. 가장 많이 쓰이고 있는 방법은 Principal Component Analysis (PCA)를 기반으로 하는 eigenface 방법이다. PCA를 기반으로 하는 방법은 데이터의 2차 통계적 구조만을 고려하므로 화소 사이의 고차 통계적 의존성은 고려되지 않는다. Factorial code 표현법은 효과적인 정보 표현의 좋은 방법으로 알려져 있고 이것은 Independent Component Analysis (ICA)와 밀접한 관련이 있다. Factorial code 표현법은 eigenface 방법과 비교할 때 중요한 정보가 포함되어 있는 데이터의 고차 통계적 구조도 고려되어 더욱 효과적인 정보 표현을 기대할 수 있다. 이 논문에서는 PCA를 이용하여 찾아낸 저차원 특징 공간에서 Factorial code 표현법을 이용하여 얼굴인식을 위한 통계적 특징점을 찾아낸다. 얼굴 인식에 있어서 Factorial code 표현법이 eigenface 방법보다 성능이 우수함을 모의실험을 통하여 입증한다.

  • PDF

SIFT와 부분공간분석법을 활용한 얼굴인식 (Face Recognition using SIFT and Subspace Analysis)

  • 김동현;박혜영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2010년도 한국컴퓨터종합학술대회논문집 Vol.37 No.1(C)
    • /
    • pp.390-394
    • /
    • 2010
  • 본 논문에서는 영상인식에서 널리 사용되는 지역적 특징인 SIFT와 부분공간분석에 의한 차원축소방법의 결합을 통하여 얼굴을 인식하는 방법을 제안한다. 기존의 SIFT기반 영상인식 방법에서는 추출된 키 포인트 각각에 대하여 계산된 특징기술자들을 개별적으로 비교하여 얻어지는 유사도를 바탕으로 인식을 수행하는데 반해, 본 논문에서 제안하는 접근법은 SIFT의 특징기술자를 명도 값으로 표현된 얼굴 영상을 여려 변형에 강건한 형태로 표현되도록 변환하는 표현방식으로 본다. SIFT기반의 특징기술자에 의해 표현된 얼굴 영상을 부분공간분석법에 의해 저차원의 특징벡터로 다시 표현되고, 이 특징벡터를 이용하여 얼굴인식을 수행한다. 잘 알려진 벤치마크 데이터인 AR 데이터베이스에 대한 실험을 통해 제안한 방법이 조명 변화와 가려짐에 강인한 인식 결과를 보여줄 뿐 아니라, 기존의 SIFT 기반의 얼굴 인식 방법에 비하여 우수한 처리 속도를 보임을 확인하였다.

  • PDF

기대 효과를 자동 적용한 얼굴 표정 애니메이션 (Facial Animation of Automatic Added Anticipation)

  • 김동성;이인권
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.163-165
    • /
    • 2003
  • 최근 컴퓨터 그래픽스에서 비사실적인 표현에 관한 연구가 되고 있다. 그 중 애니메이션 분야는 기존의 2D 애니메이션 기법을 적용하여 비사실적인 애니메이션(Non Photorealistic Animation) 을 표현할 수 있다. 여러 기법 중 기대(Anticipation) 효과를 얼굴 표정 애니메이션(Facial Animation)에 적용한다면 조금 더 역동적인 표정을 표현할 수 있게 된다. 얼굴 표정 애니메이션(Facial Animation)을 제작하기 위해서는 실제 사람의 얼굴 표정을 캡쳐하거나 애니메이터가 많은 노력과 시간을 투자하여 작업을 해야 한다. 본 논문에서는 이런 방법으로 생성된 얼굴 표정 애니메이션에 사용자가 원하는 표정에 기대 효과를 자동으로 추가하여 더 좋은 표정을 생성하는 방법을 소개한다.

  • PDF

가상 캐릭터의 몸짓과 얼굴표정의 일치가 감성지각에 미치는 영향: 어떤 얼굴표정이 중요한가? (The Congruent Effects of Gesture and Facial Expression of Virtual Character on Emotional Perception: What Facial Expression is Significant?)

  • 류지헌;유승범
    • 한국콘텐츠학회논문지
    • /
    • 제16권5호
    • /
    • pp.21-34
    • /
    • 2016
  • 디지털 콘텐츠에서 구현되는 가상 캐릭터를 효과적으로 개발하기 위해서는 감성 상태(기쁨, 슬픔, 공포, 화남)가 제대로 전달되도록 하는 것이 중요하다. 이 연구에서는 가상 캐릭터의 얼굴표정과 몸짓이 표현하는 감성 상태의 일치여부에 따라서 사용자가 가상 캐릭터의 감성 상태를 어떻게 지각하며, 가상 캐릭터의 몸짓을 어떻게 평가하는가를 검증하였다. 이를 위하여 몸짓과 얼굴표정의 감성표현을 동일하게 구성한 일치조건, 정반대의 감성표현으로 구성된 불일치조건, 그리고 무표정한 얼굴표정으로 구현된 통제집단을 구성했다. 연구결과에 따르면 슬픔 조건에서 의도된 감성 상태가 제대로 전달되지 않았을 뿐만 아니라 오히려 화난 것으로 지각되었다. 그러나 나머지 감성 상태에서는 몸짓과 얼굴표정의 일치여부는 의도된 감성 전달에 영향을 미치지 않았다. 감성 상태의 표현에 대한 가상 캐릭터의 전체적인 몸짓에 대한 평가에서는 기쁨을 표현한 몸짓이 불일치 조건의 얼굴표정을 갖게 될 때, 평가 점수가 낮았다. 가상 캐릭터의 감성을 표현할 때는 얼굴 표정도 중요하지만 몸짓 자체의 감성표현이 전반적으로 결정적인 역할을 수행하고 있음을 확인할 수 있었다. 가상 캐릭터의 성별이나 연령과 같은 사회적 단서에 대한 연구의 필요성을 설명했다.

ICA-Factorial 표현을 이용한 얼굴감정인식 (Face Expression Recognition using ICA-Factorial Representation)

  • 한수정;고현주;곽근창;전명근
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.329-332
    • /
    • 2002
  • 본 논문에서는 효과적인 정보를 표현하는 ICA(Independent Component Analysis)-Factorial 표현 방법을 이용하여 얼굴감정인식을 수행한다. 얼굴감정인식은 두 단계인 특징추출과 인식단계에 의해 이루어진다. 먼저 특징추출방법은 PCA(Principal Component Analysis)을 이용하여 얼굴영상의 고차원 공간을 저차원 특징공간으로 변환한 후 ICA-factorial 표현방법을 통해 좀 더 효과적으로 특징벡터를 추출한다. 인식단계는 최소거리 분류방법인 유클리디안 거리를 이용하여 얼굴감정을 인식한다. 이 방법의 유용성을 설명하기 위해 6개의 기본감정(행복, 슬픔, 화남, 놀람, 공포, 혐오)에 대해 얼굴데이터베이스를 구축하고, 기존의 방법인 Eigenfaces, Fishefaces와 비교하여 좋은 인식성능을 보이고자 한다.

텐서얼굴의 다선형 주성분 분석기법을 이용한 동영상 기반 얼굴 인식 (Video-based Face Recognition Using Multilinear Principal Component Analysis of Tensor Faces)

  • 한윤희;곽근창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.565-567
    • /
    • 2010
  • 일반적으로 얼굴 인식 방법에는 템플릿 기반 통계적 기법들이 사용되고 있다. 이 방법들은 2차원 영상을 고차원 벡터로 표현하여 특징을 추출한다. 그러나 많은 이미지와 비디오 데이터는 본래 텐서로 표현된다. 따라서, 본 논문에서는 벡터 표현보다는 직접적인 텐서 표현으로 특징들을 추출하기 위해 텐서 얼굴의 다선형 주성분 분석(MPCA: Multilinear Principal Component Analysis) 기법을 이용한 동영상 기반 얼굴인식에 대해 다룬다. 마지막으로, u-로봇 테스트베드 환경에서 구축된 얼굴 인식 데이터 베이스를 이용하여 제안된 방법과 기존 방법들의 인식처리시간과 성능을 비교한다.

애니메이션을 위한 통계적 모델에 기반을 둔 3D 얼굴모델링 (3D Face Modeling based on Statistical Model for Animation)

  • 오두식;김재민;조성원;정선태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2008년도 춘계학술대회 학술발표회 논문집
    • /
    • pp.435-438
    • /
    • 2008
  • 본 논문에서는 애니메이션을 위해서 얼굴의 특징표현(Action Units)의 조합하는 방법으로 얼굴 모델링을 하기 위한 3D대응점(3D dense correspondence)을 찾는 방법을 제시한다. AUs는 표정, 감정, 발음을 나타내는 얼굴의 특징표현으로 통계적 방법인 PCA (Principle Component Analysis)를 이용하여 만들 수 있다. 이를 위해서는 우선 3D 모델상의 대응점을 찾는 것이 필수이다. 2D에서 얼굴의 주요 특징 점은 다양한 알고리즘을 이용하여 찾을 수 있지만 그것만으로 3D상의 얼굴 모델을 표현하기에는 적합하지 않다. 본 논문에서는 3D 얼굴 모델의 대응점을 찾기 위해 원기둥 좌표계 (Cylinderical Coordinates System)을 이용하여 3D 모델을 2D로 투사(Projection)시켜서 만든 2D 이미지간의 워핑(Warping) 을 통한 대응점을 찾아 역으로 3D 모델간의 대응점을 찾는다. 이것은 3D 모델 자체를 변환하는 것보다 적은 연산량으로 계산할 수 있고 본래 형상의 변형이 없다는 장점을 가지고 있다.

  • PDF