• 제목/요약/키워드: Facial animation

검색결과 142건 처리시간 0.037초

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

Sammon 매핑을 사용한 모션 데이터의 대화식 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using Sammon's Mapping)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제11A권2호
    • /
    • pp.189-194
    • /
    • 2004
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이틀 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 Sammon 매핑을 이용하여 2차원 평면에 투영시켰다. 얼굴 애니메이션은 사용자 인터페이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

얼굴 표정의 자동 인식을 통한 PDA 상에서의 3차원 얼굴 애니메이션 (3-D Facial Animation on the PDA via Automatic Facial Expression Recognition)

  • 이돈수;최수미;김해광;김용국
    • 정보처리학회논문지B
    • /
    • 제12B권7호
    • /
    • pp.795-802
    • /
    • 2005
  • 본 논문에서는 일곱 가지의 기본적인 감정 정보를 자동으로 파악하고 얼굴을 PDA 상에서 렌더링할 수 있는 얼굴 표정의 인식 및 합성 시스템을 제시한다. 얼굴 표정 인식을 위해서 먼저 카메라로부터 획득한 영상으로부터 얼굴 부분을 검출한다. 그리고 나서 기하학적 또는 조명으로 인한 보정을 위해 정규화 과정을 거친다. 얼굴 표정을 분류하기 위해서는 Gabor wavelets 방법을 enhanced Fisher 모델과 결합하여 사용할 때가 가장 좋은 결과를 보였다. 본 표정 분류에서는 일곱 가지 감정 가중치가 결과로 제시되고, 그러한 가중 정보는 모바일 네트웍을 통하여PDA 상으로 전송되어 얼굴 표정 애니메이션에 이용되어진다. 또한 본 논문에서는 고유한 얼굴 캐릭터를 가진 3차워 아바타를 생성하기 위하여 카툰 쉐이딩 기법을 채택하였다. 실험 결과 감정 곡선을 이용한 얼굴 표정 애니메이션은 선형 보간법 보다 감정 변화의 타이밍을 표현하는데 더 효과적인 것으로 나타났다.

다중 제어 레벨을 갖는 입모양 중심의 표정 생성 (Speech Animation with Multilevel Control)

  • 문보희;이선우;원광연
    • 인지과학
    • /
    • 제6권2호
    • /
    • pp.47-79
    • /
    • 1995
  • 오래 전부터 컴퓨터 그래픽을 이용한 얼굴의 표정 생성은 여러 분야에서 응용되어 왔고,요즘에는 가상현실감 분야나 원격 회의 분야 등에서 가상 에이전트의 표정을 생성하는데 사용되고 있다.그러나 네트워크를 통해 다중 참여자가 상호 작용을 하는 상황에서 표정을 생성하는 경우에는 상호작용을 위해 전송되어야 할 정보의 양으로 인해,실시간에 원하는 표정을 생성하기 어려운 경우가 생긴다.본 연구에서는 이러한 문지를 해결하기 위해 표정 생성에 Level-of-Detail을 적용하였다.Level-of-Detail은 그래픽스 분야에서 복잡한 물체의 외형을 좀 더 효율적으로 나타내기 위해 오랜 전부터 연구되어져 온 기법이지만 아직까지 표정 생성에 적용된 예는 없다.본 연구에서는 상황을 고려하여 적절하게 상세도를 변경하여 표정을 생성하도록 Level-of-Detail기법을 적용하는 방법에 대해 연구하였다.구현된 시스템은 텍스트,음성,Gui, 사용자의 머리의 움직임 등과 같은 다양한 입력에 대해 입모양과 동기화 되는 표정을 생성한다.

  • PDF

모션 데이터를 사용한 대화식 실시간 얼굴 애니메이션 (Interactive Realtime Facial Animation with Motion Data)

  • 김성호
    • 한국컴퓨터산업학회논문지
    • /
    • 제4권4호
    • /
    • pp.569-578
    • /
    • 2003
  • 본 논문은 광학식 얼굴 모션 캡쳐 데이터를 재사용하여 원하는 얼굴 표정 애니메이션을 실시간에 생성하는 방법을 기술한다. 이 방법의 핵심요소는 얼굴 표정들 간의 거리를 정의하고 이를 이용하여 표정들을 적당한 공간에 분포시키는 방법과 이 공간을 사용하여 실시간 표정 애니메이션을 생성하기 위한 사용자 인터페이스 기법이다. 우리는 약 2400여개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하였다. 그리고 사용자가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되도록 하였다. 약 2400여개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 데이터와 데이터 사이의 거리를 계산해야할 필요가 있고, 각 데이터와 데이터 사이의 최단거리를 구하는데 있어서는 Floyd 알고리즘을 사용하며, 이를 이용하여 Manifold distance를 구한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정 프레임 데이터들의 Manifold distance를 이용하여 Multidimensional Scaling을 적용하고, 이로부터 2D 평면에 균일하게 분포하였다. 우리는 이와 같은 방법으로 기존의 얼굴 표정 프fp임 데이터들 사이의 거리를 원형 그대로 살리면서 의미 있게 직관적인 공간에 분포한다. 그러므로 본 논문에서 제시한 기법은 사용자가 항해하고자 하는 얼굴 표정 프레임 데이터들이 항상 주변에 존재할 수 있기 때문에, 얼굴 표정 애니메이션을 생성하기 위해서 직관적인 공간을 제한 없고 자유로운 항해를 할 수 있다는 큰 장점을 가지고 있다. 또한 사용자가 원하는 얼굴 표정 애니메이션을 사용하기 쉬운 사용자 인터페이스를 이용하여 실시간으로 생성하여 확인 하고 재생성할 수 있다는 것도 매우 효율적이다.

  • PDF

Case Study of Short Animation with Facial Capture Technology Using Mobile

  • Jie, Gu;Hwang, Juwon;Choi, Chulyoung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권3호
    • /
    • pp.56-63
    • /
    • 2020
  • The Avengers film produced by Marvel Comics shows visual effects that were impossible to produce in the past. Companies that produce film special effects were initially equipped with large personnel and equipment, but technology is gradually evolving to be feasible for smaller companies that do not have high-priced equipment and a large workforce. The development of hardware and software is becoming increasingly available to the general public as well as to experts. Equipment and software which were difficult for individuals to purchase before quickly popularized high-performance computers as the game industry developed. The development of the cloud has been the driving force behind software costs. As augmented reality (AR) performance of mobile devices improves, advanced technologies such as motion tracking and face recognition technology are no longer implemented by expensive equipment. Under these circumstances, after implementing mobile-based facial capture technology in animation projects, we have identified the pros and the cons and suggest better solutions to improve the problem.

3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로- (Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift-)

  • 김해윤;박동주;이태구
    • 만화애니메이션 연구
    • /
    • 통권37호
    • /
    • pp.221-245
    • /
    • 2014
  • 1995년 세계 최초의 극장용 3D 컴퓨터 애니메이션 영화 "토이 스토리"의 흥행성공은 3D 컴퓨터 애니메이션의 산업적 발전에 큰 도약을 할 수 있는 계기를 만들었다. 이에 영향을 받아 TV용 3D 애니메이션 작품들이 다양하게 제작되었으며 게임 분야에서도 고화질의 3D 컴퓨터 애니메이션 게임들이 보편화되었다. 이와 같이 산업적 수요가 확대됨에 따라 막대한 제작 시간 및 비용 절감을 위한 기술적 발달이 활발하게 진행되어왔다. 이에 따라 전통적인 그림 애니메이션 제작 방식에 비하여 3D 컴퓨터 애니메이션의 제작 효율성은 비교를 할 수 없을 정도로 발전되어왔다. 본 논문에서는 3D 컴퓨터 애니메이션 제작의 효율성 제고를 위하여 얼굴 표정 애니메이션 마커리스(Markless 이하: 마커리스) 모션캡처 시스템들을 실험 및 비교분석하였다. 이미지 메트릭스(Image Metrics)사 제품인 페이스웨어(Faceware) 시스템은 모션캡처 인식 및 적용 과정의 복잡성은 있지만 정교함 측면에서 장점이 있으며, 페이스쉬프트(Faceshift)사 제품인 페이스쉬프트(Faceshift) 시스템은 실시간 모션 인식 및 적용의 신속성이 장점인 반면 정교함이 상대적으로 떨어진다는 결과를 도출하였다. 본 논문의 비교 분석 결과가 애니메이션 제작을 제작 할 때, 제작 시간 및 비용, 결과물의 정교함 정도 및 활용 매체에 따라 가장 효율적인 얼굴 표정 애니메이션 제작을 위한 모션캡처 및 키 프레임 애니메이션 제작 방식의 선택에 기초 자료가 되기를 기대한다.

애니메이선 캐릭터의 표정연출 유형 연구 (A Study on Pattern of Facial Expression Presentation in Character Animation)

  • 홍순구
    • 한국콘텐츠학회논문지
    • /
    • 제6권8호
    • /
    • pp.165-174
    • /
    • 2006
  • 버드휘스텔(Birdwhistell)은 말이 전하는 의미는 전체커뮤니케이션의 35%이하에 불과하고 나머지 65% 이상은 비언어적 형태로 전달되며 인간은 전적으로 언어에 의해 의사소통을 하는 존재가 아니라 모든 감각을 사용하는 감각적 존재라고 설명하고 있다. 인간의 커뮤니케이션은 언어 외에 표정, 몸 동작 등을 통해 보다 더 구체적인 의미 전달이 가능하며, 특히 얼굴표정은 개인의 성격, 관심, 반응에 대한 정보 및 감정의 상태를 전달해주는 다면적 메시지체계로 강력한 커뮤니케이션 도구라고 할 수 있다. 다양한 표현기법과 표현의 정도, 특성에 따라 달라질 수 있지만 표정이 갖는 상징적 기호는 일반화 된 특성을 가지고 있다. 스토리상의 등장인물로서 내면세계와 심리적 상태가 행동이나 표정으로 자연스럽게 노출되고 읽어낼 수 있는 감정표현에서 애니메이션 캐릭터는 생명력을 갖는다.

  • PDF

메쉬 변형 전달 기법을 통한 블렌드쉐입 페이셜 리그 복제에 대한 연구 (A Study on Facial Blendshape Rig Cloning Method Based on Deformation Transfer Algorithm)

  • 송재원;임재호;이동하
    • 한국멀티미디어학회논문지
    • /
    • 제24권9호
    • /
    • pp.1279-1284
    • /
    • 2021
  • This paper addresses the task of transferring facial blendshape models to an arbitrary target face. Blendshape is a common method for the facial rig; however, production of blendshape rig is a time-consuming process in the current facial animation pipeline. We propose automatic blendshape facial rigging based on our blendshape transfer method. Our method computes the difference between source and target facial model and then transfers the source blendshape to the target face based on a deformation transfer algorithm. Our automatic method provides efficient production of a controllable digital human face; the results can be applied to various applications such as games, VR chating, and AI agent services.

광학식 동작 포착 장비를 이용한 노이즈에 강건한 얼굴 애니메이션 제작 (Noise-Robust Capturing and Animating Facial Expression by Using an Optical Motion Capture System)

  • 박상일
    • 한국게임학회 논문지
    • /
    • 제10권5호
    • /
    • pp.103-113
    • /
    • 2010
  • 본 논문은 얼굴의 표정과 몸 동작을 광학식 동작 포착장비를 활용하여 동시에 포착하는 경우에 있어 얼굴 부위 마커들에 대한 노이즈에 강건한 데이터 처리 방법에 대해 다룬다. 일반적인 얼굴 표정만 포착하는 경우와 달리, 몸의 움직임과 동시에 포착할 경우 포착용 카메라가 멀리 있어 얼굴에 붙인 마커들의 궤적 데이터는 특별한 처리를 요한다. 특히 궤적의 표식화, 빈 곳 메우기, 노이즈 제거의 과정이 필수적이며, 이러한 과정을 위해 본 논문에서는 지역좌표에 기반을 둔 궤적 데이터 처리 방법을 제안한다. 지역 좌표는 강체변형에 불변한 특징이 있으며, 얼굴모양의 국지적인 변화를 의미하여, 궤적 데이터처리에 효과적으로 활용 될 수 있음을 보였다. 또한 제안한 방법을 활용하여 애니메이션을 제작해 실제 제작 환경에 적용 가능함을 보였다.