• 제목/요약/키워드: 얼굴모델

검색결과 601건 처리시간 0.023초

해부학 기반의 3차원 얼굴 모델링을 이용한 얼굴 표정 애니메이션 (facial Expression Animation Using 3D Face Modelling of Anatomy Base)

  • 김형균;오무송
    • 한국정보통신학회논문지
    • /
    • 제7권2호
    • /
    • pp.328-333
    • /
    • 2003
  • 본 논문에서는 얼굴의 표정 변화에 영향을 주는 해부학에 기반한 18개의 근육군쌍을 바탕으로 하여 얼굴 표정 애니메이션을 위한 근육의 움직임을 조합할 수 있도록 하였다. 개인의 이미지에 맞춰 메쉬를 변형하여 표준 모델을 만든 다음, 사실감을 높이기 위해 개인 얼굴의 정면과 측면 2장의 이미지를 이용하여 메쉬에 매핑하였다. 얼굴의 표정 생성을 애니메이션 할 수 있는 원동력이 되는 근육 모델은 Waters의 근육모델을 수정하여 사용하였다. 이러한 방법을 사용하여 텍스처가 입혀진 변형된 얼굴을 생성하였다. 또한, Ekman이 제안한 6가지 얼굴 표정을 애니메이션 하였다.

메쉬 간략화를 이용한 3차원 얼굴모델링 (3D Face Modeling Using Mesh Simplification)

  • 이현철;허기택
    • 한국콘텐츠학회논문지
    • /
    • 제3권4호
    • /
    • pp.69-76
    • /
    • 2003
  • 최근 컴퓨터 그래픽스 분야에서는 3차원 애니메이션에 대한 연구가 활발히 이루어지고 있다. 3차원 애니메이션에서 중요한 연구 분야 중 하나가 인간을 애니메이션 하는 것이다. 3차원 얼굴을 이용한 애니메이션 제작은 주로 애니메이터에 의해 수작업으로 해당 프레임별로 작업을 진행하므로 많은 노력과 시간, 해당 장비와 3D 소프트웨어를 필요로 했다. 본 논문에서는 정면 얼굴 이미지를 입력하여 쉽고 빠르게 특정얼굴에 근접한 3D 얼굴모델을 생성하는 방법을 구현하였다. 이를 위해 3D 일반모델의 메쉬 데이터를 간략화 하는 기법에 대해서 제안한다.

  • PDF

마스크를 착용한 환경에서 얼굴 인식을 활용한 자동 출석체크 시스템 (Automatic Attendance Check System Using Face Recognition In A Masked Environment)

  • 김영국;임채현;손민지;김명호
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제62차 하계학술대회논문집 28권2호
    • /
    • pp.23-26
    • /
    • 2020
  • 본 논문에서는 CCTV를 통해 얻은 영상에서 얼굴을 인식하여 자동으로 출석 여부를 체크하는 시스템을 소개한다. 이 시스템은 CNN을 바탕으로 RetinaFace 모델을 사용하여 얼굴을 탐지하고, 탐지된 얼굴을 ArcFace 모델로 R512의 목표 공간으로 임베딩한다. 기존 데이터베이스에 등록된 얼굴과 CCTV를 통해 얻은 얼굴들의 임베딩 벡터 사이의 Angular Cosine Distance를 측정하여 동일 인물인지 판단하는 매칭 알고리즘을 제안한다. 실험을 통해 두 모델을 동시에 사용할 최적의 환경을 파악하고, 마스크 착용으로 얼굴의 하단부가 가려지는 폐색 문제에 더욱 효과적으로 대응하여 매칭 성능을 높이는 방법을 제안한다.

  • PDF

신경회로망을 이용한 2D 얼굴근육 파라메터의 자동인식 (Automatic Estimation of 2D Facial Muscle Parameter Using Neural Network)

  • 김동수;남기환;한준희;배철수;권오홍;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 1999년도 춘계종합학술대회
    • /
    • pp.33-38
    • /
    • 1999
  • 컴퓨터 분야에서 얼굴근육 이미지합성은 살아있는 것 같은 모델을 실현하기 위한 가장 실재적인 접근방법 중의 하나이며, 얼굴근육 모델은 얼굴조직 성분과 근육으로 구성된다. 이 모델에서 얼굴 조직 성분에 영향을 주는 힘(force)은 각 근육의 수축강도로써 계산되어지고, 각 근육 파라메터의 결합은 명확한 얼굴표현으로 결정한다. 또한 각 근육 파라메터는 실험과 샘플 사진과 근육편집기로 생성한 명확한 이미지를 비유하여 에러처리과정을 통해 결정된다. 이 논문에서 신경회로망을 사용한 2D(Two-Dimension) 지시점의 움직임으로부터 얼굴근육의 자동인식 방법을 제안하고자 하며, 얼굴모델을 기반으로 한 물리학적 제한하에 캡처된 이미지에서 정보 흐름과 2D 포인트로부터 3D(Three-Dimension) 움직임 인식을 하고자 한다.

  • PDF

차량에서 획득된 도로 주변 영상에서의 얼굴 추출 방안 연구 (Research of the Face Extract Algorithm from Road Side Images obtained by vehicle)

  • 이수암;김태정;김문기;윤덕근;성정곤
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2008년도 춘계학술대회 논문집
    • /
    • pp.20-24
    • /
    • 2008
  • 차량에 부착된 CCD 카메라를 이용하여 취득된 도로 주변의 영상에 존재하는 사람의 얼굴을 추출하여 제거하는 처리를 할 경우, 사생활 침해의 문제 없이 사용자들에게 원하는 지역의 도로영상의 제공이 가능해진다. 이 실험의 목적은 차량에서 취득된 도로 주변의 칼라 영상에서 사람의 얼굴을 자동으로 추출하는 기술을 개발하는데에 있다. 도로 주변의 CCD영상에서의 얼굴 추출을 위해, HSI(색상, 채도, 명도) 칼라 모델과 YCrCb 칼라 모델을 사용하여 이들 모델에 임계값을 적용하여 피부색을 검출하였으며, 두 개의 모델을 사용한 결과 효과적인 피부색의 검출이 가능함을 확인할 수 있었다. 검출된 피부색 영역을 연결성과 밝기 차이를 이용하여 클러스터링을 실행하고 이렇게 나뉘어진 각각의 구역들에 구역의 면적, 구역내 존재하는 화소의 개수, 구역의 가로와 세로 비율 그리고 타원조건을 적용하여 얼굴 후보 구역을 결정하였다. 그리고 최종적으로 남겨진 구역을 이진화 하고, 이진화 된 영상 중 검은 부분이 5% 이상일 때 이들을 눈, 코, 입 등으로 간주하여 최종적인 얼굴로 결정하였다. 실험 결과 추출되지 않은 얼굴과 잘못 추출된 구역이 발생했으나, 얼굴에 해당하는 임계값등의 조건을 약화시킬 경우 대부분의 얼굴의 추출이 가능할 것으로 여겨지며, 추출된 구역을 흐리게 처리할 경우 오인식된 부분에 대한 사용자의 거부감도 줄일 수 있을 것 으로 예상된다.

  • PDF

3D 스캔 데이터를 이용한 얼굴 애니메이션 시스템 (A Facial Animation System Using 3D Scanned Data)

  • 구본관;정철희;이재윤;조선영;이명원
    • 정보처리학회논문지A
    • /
    • 제17A권6호
    • /
    • pp.281-288
    • /
    • 2010
  • 본 논문에서는 3차원 얼굴 스캔 데이터와 사진 이미지를 이용하여 고화질의 3차원 얼굴 모델과 모핑 애니메이션을 생성하는 시스템 개발에 대해 기술한다. 본 시스템은 얼굴 특징점 입력 도구, 얼굴 텍스처매핑 인터페이스, 3차원 얼굴 모핑 인터페이스로 구성되어 있다. 얼굴 특징점 입력 도구는 3차원 텍스처매핑과 모핑 애니메이션을 위한 보조 도구로서 얼굴의 특징점을 입력하여 텍스처매핑과 임의의 두 얼굴간의 모핑 영역을 정할 때 사용된다. 텍스처매핑은 3D 스캐너로부터 획득한 얼굴의 기하 데이터에 세 방향의 사진 이미지를 이용하여 매핑한다. 3D 얼굴모핑은 얼굴 특징점 입력 도구로부터 얻은 특징점을 중심으로 얼굴 영역을 분류하여 임의의 두 얼굴 간의 영역간 매핑을 실현한다. 본 시스템은 사용자가 별도의 프로그래밍 작업 없이 대화형 인터페이스에서 3D 스캐너에서 획득한 얼굴 메쉬 데이터를 이용하여 사진 이미지로 텍스처 매핑을 실행하여 사실적인 3D 얼굴 모델을 얻을 수 있고, 임의의 서로 다른 얼굴 모델들간의 모핑 애니메이션을 쉽게 실현할 수가 있다.

얼굴 모델간 선형변환을 이용한 정밀한 얼굴 포즈추정 및 포즈합성 (Accurate Face Pose Estimation and Synthesis Using Linear Transform Among Face Models)

  • 밧수리수브다;고재필
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.508-515
    • /
    • 2012
  • 본 논문은 Active Appearance Model(AAM)을 사용하여 주어진 얼굴영상의 포즈추정과 임의 포즈합성 방법을 설명한다. AAM은 다양한 응용분야에 성공적으로 적용되어지고 있는 예제기반 학습모델로 예제들의 변화정도를 학습한다. 그러나 하나의 모델로는 각도 변화가 큰 포즈 변화량을 수용하기 어렵다. 본 논문은 좁은 범위의 각도 변화를 다루는 모델을 포즈별로 생성한다. 주어진 포즈 얼굴을 다룰 수 있는 모델을 이용하여 정확한 포즈추정과 합성이 가능하다. 이때 합성하고자 하는 포즈의 각도가 포즈 추정을 위해 사용된 모델에 학습되어 있지 않은 경우, 미리 학습된 모델간의 선형관계를 통해 문제를 해결한다. Yale B 공개 얼굴 데이터베이스에 대한 실험을 통해 포즈추정 및 합성 정확도를 보이고, 자체 수집한 포즈변화가 큰 얼굴영상에 대한 성공적인 정면 합성 결과를 제시한다.

웹기반 3차원 얼굴 모델링 시스템 (Web-based 3D Face Modeling System)

  • 김응곤;송승헌
    • 한국정보통신학회논문지
    • /
    • 제5권3호
    • /
    • pp.427-433
    • /
    • 2001
  • 본 연구에서는 기존의 방법에 비하여 3차원 스캐너나 카메라를 이용하지 않고 비용과 노력을 크게 절감하면서 실감나는 얼굴 모델링을 효율적으로 수행하는 웹 기반 3차원 얼굴 모델링 시스템을 제안한다. 고가의 영상입력장비를 이용하지 않고 정면과 측면사진영상을 이용하여 3차원 얼굴모델을 만들 수 있다. 특정한 플랫폼과 소프트웨어에 독립적으로 웹상에서 얼굴 모델링 서버에 접속함으로써 3차원 얼굴모델을 만들 수 있도록 설계하였다. 얼굴모델러의 3차원 그래픽스 관련 모듈은 개발된 그래픽 라이브러리들의 특징과 편리함을 제공하는 자바 3B API를 이용하여 개발 중이다. 이 얼굴 모델링 시스템은 클라이언트/서버구조로 되어있다. 클라이언트측의 사용자가 본 시스템에 접속하면 자바 애플릿의 얼굴모델러가 실행되며, 사용자는 두 장의 사진을 입력으로 하여 웹브라우저만으로 절차에 따라서 3차원 얼굴 모델을 생성하게 된다.

  • PDF

딕셔너리 증류 기법을 적용한 얼굴 초해상화 (Dictionary Distillation in Face Super-Resolution)

  • 조병호;박인규;홍성은
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.193-194
    • /
    • 2021
  • 본 논문에서는 지식 증류 (knowledge distillation) 기법을 적용한 얼굴 초해상화 모델을 제안한다. 제안하는 기법은 최근 얼굴 복원 분야에서 좋은 성능을 보여준 얼굴 영역의 딕셔너리 (dictionary) 정보를 사용한 모델을 선생 모델로 선정하여 적대적 (adversarial) 지식 증류 기법을 통해 효율적인 학생 모델을 구축하였다. 본 논문은 테스트시 얼굴의 사전 정보가 초래하는 추가적인 비용이 필요 없는 얼굴 초해상화 방법을 제시하고, 제안하는 기법과 다양한 기존 초해상화 기법과의 정량적, 정성적 비교를 통해 우수성을 보인다.

  • PDF

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF