• 제목/요약/키워드: Facial animation

검색결과 142건 처리시간 0.035초

지적 아바타 통신을 위한 얼굴 표정의 실시간 생성에 관한 검토 (An Empirical Study on Real-time Generation of Facial Expressions in Avatar Communications)

  • 이용후;김상운;일본명
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1673-1676
    • /
    • 2003
  • As a means of overcoming the linguistic barrier in the Internet cyberspace, recently a couple of studies on intelligent avatar communications between avatars of different languages such as Japanese-Korean have been performed. In this paper we measure the generation time of facial expressions on different avatar models in order to consider avatar models to be available in real-time system. We also provide a short overview about DTD (Document Type Definition) to deliver the facial and gesture animation parameters between avatars as an XML data.

  • PDF

동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구 (Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face)

  • 박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 본 논문은 광학식 동작 포착 장비를 사용해 얼굴과 동작을 동시에 포착할 경우 발생하는 불완전한 표정 데이터의 복원에 관한 연구를 다룬다. 일반적으로 동작 포착과 표정 포착은 필요 해상도에서 차이가 나며, 이로 인해 동작과 표정을 동시에 포착하기 힘들었다. 본 연구에서는 표정과 동작의 동시 포착을 위해, 기존의 작은 마커를 촘촘히 얼굴에 부착하는 표정 포착 방식에서 탈피하여 적은 수의 마커만을 이용하여 표정을 포착하고, 이로부터 세밀한 얼굴 표정을 복원하는 방법을 제안한다. 본 방법의 핵심 아이디어는 얼굴 표정의 움직임을 미리 데이터베이스화하여, 적은 수의 마커로 표현된 얼굴 표정을 복원하는 것이다. 이를 위해 주성분분석을 사용하였으며, 제안된 기술을 실제 동적인 장면에 활용하여 표정의 복원이 잘 됨을 검증하였다.

로우폴리곤 캐릭터 애니메이션에서 립싱크 및 표정 개발 연구 (A Study on Lip Sync and Facial Expression Development in Low Polygon Character Animation)

  • 서지원;이현수;김민하;김정이
    • 문화기술의 융합
    • /
    • 제9권4호
    • /
    • pp.409-414
    • /
    • 2023
  • 본 연구는 로우폴리곤 캐릭터 애니메이션에서 감정과 성격을 표현하는 데 중요한 역할을 차지하는 캐릭터 표정과 애니메이션을 구현하는 방법을 기술하였다. 영상 산업의 발달로 애니메이션에서의 캐릭터 표정과 입 모양 립싱크는 실사와 가까운 수준으로 자연스러운 모션을 구현할 수 있게 되었다. 그러나 비전문가의 경우 전문가 수준의 고급 기술을 사용하기에 어려움이 있다. 따라서 우리는 저예산의 로우폴리곤 캐릭터 애니메이션 제작자나 비전문가를 위해 접근이 쉽고 사용성이 높은 기능을 사용하여 입 모양 립싱크를 조금 더 자연스럽게 연출할 수 있도록 가이드를 제시하는 것을 목적으로 하였다. 입 모양 립싱크 애니메이션은 'ㅏ', 'ㅔ', 'ㅣ', 'ㅗ', 'ㅜ', 'ㅡ', 'ㅓ'와 구순음을 표현하는 입 모양 총 8가지를 개발하였다. 표정 애니메이션의 경우 폴 에크먼이 분류한 인간의 기본감정인 놀람, 두려움, 혐오, 분노, 행복, 슬픔의 여섯 가지에 선행 연구를 참고로 활용도가 높은 흥미, 지루함, 통증을 더하여 총 아홉 가지 애니메이션을 제작하였다. 본 연구는 복잡한 기술이나 프로그램을 사용하지 않고 모델링 프로그램에 내장된 기능을 사용하여 자연스러운 애니메이션을 손쉽게 제작할 수 있도록 함에 의의가 있다.

현실감 있는 3차원 얼굴 애니메이션을 위한 실시간 표정 제어 (A Realtime Expression Control for Realistic 3D Facial Animation)

  • 김정기;민경필;전준철;최용길
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.23-35
    • /
    • 2006
  • 본 논문에서는 실시간으로 입력되는 동영상으로부터 영상 내에 존재하는 사람의 얼굴 및 얼굴 특징점들을 자동으로 추출한 후, 추출된 정보를 이용하여 3차원 얼굴 모델의 표정을 실시간으로 제어함으로써 현실감 있는 얼굴 애니메이션 처리가 가능한 새로운 방법을 제시한다. 입력 영상의 각 프레임으로부터 얼굴을 효과적으로 추출하기 위해 기존에 일반적으로 사용되는 색상 공간을 이용한 파라미터 검출 방법에 대변되는 새로운 비파라미터 검출 방법을 제시하였다. 기존의 파라미터 검출 방법은 일반적으로 얼굴의 피부 색상분포를 가우지언 형태로 표현하며 특히 주변조명의 변화 및 배경 영상 등에 민감하게 반응하므로 정화한 영역의 검출을 위한 부가적 작업을 필요로 한다. 이러한 문제점을 효과적으로 해결하기 위하여 본 논문에서는 Hue와 Tint 색상 성분에 기반을 둔 새로운 스킨 색상 공간을 제시하고 모델의 분포특성을 직선 형식으로 표현하여 얼굴검출 시 발생되는 오류를 축소시킬 수 있었다. 또한, 검출된 얼굴 영역으로부터 정확한 얼굴특성 정보를 추출하기 위하여 각 특징영역에 대한 에지검색 결과와 얼굴의 비율 비를 적용하여 효과적으로 얼굴의 특징 영역을 검출하였다. 추출된 얼굴 특징점 변화 정보는 3차원 얼굴 모델의 실시간 표정 변화에 적용되며, 보다 실감 있는 얼굴 표정을 생성하기위하여 사람의 근육 정보와 근육의 움직이는 방법을 나타내는 Waters의 선형 근육 모델에 새로운 근육 정보들을 새롭게 추가함으로써 화장 적용하였다. 실험결과 제안된 방법을 이용하여 실시간으로 입력되는 대상의 얼굴표정을 3차원 얼굴 모델에 자연스럽게 표현할 수 있다.

  • PDF

Implementation of Face Animation For MPEG-4 SNHC

  • Lee, Ju-Sang;Yoo, Ji-Sang;Ahn, Chie-Teuk
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 KOBA 방송기술 워크샵 KOBA Broadcasting Technology Workshop
    • /
    • pp.141-144
    • /
    • 1999
  • MPEG-4 SNHC FBA(face and body animation) group is going to standardize the MPEG-4 system for low-bit rate communication with the implementation and animation of human body and face on virtual environment. In the first version of MPEG-4 standard, only the face object will be implemented and animated by using FDP (face definition parameter) and FAP(facial animation parameter), which are the abstract parameters of human face for low-bit rate coding. In this paper, MPEG-4 SNHC face object and it's animation were implemented based on the computer graphics tools such as VRML and OpenGL.

애니메이션 동작을 위한 Squash & Stretch 원칙의 분석 (Analysis of Squash & Stretch Principle for Animation Action)

  • 이남국;경병표;유석호
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2005년도 추계 종합학술대회 논문집
    • /
    • pp.111-114
    • /
    • 2005
  • 스쿼시와 스트레치 원칙은 애니메이션 동작을 위한 필수적인 원칙으로 작용한다 이 원칙의 적용은 캐릭터에게 무게와 부피의 허상을 제공하며, 애니메이션 동작의 뻣뻣함과 딱딱함을 벗어나, 부드럽고 유연한 동작이 되게 하는 것을 가능하게 한다. 애니메이션에서 인물이나 사물의 동작표현을 실제 세계와 같이 표현하게 되면, 부자연스럽게 보인다. 스쿼시와 스트레치가 없는 어떤 동작이든 딱딱하고 흥미가 없고, 살아있지 않은 것으로 보일 것이다. 이것은 질량, 부피, 중력의 기본 법칙과 함께, 모든 사물의 움직임, 캐릭터의 동작, 대사, 얼굴표정 등에 모두 적용될 수 있다. 이 원칙이 없이는 어느 동작도 잘 표현되지 않을 것이다. 좋은 애니메이션 동작이 되려면, 이것은 2D 애니메이션에서 만이 아니라, 3D 애니메이션에서도 필이 적용되어야 한다. 따라서, 스쿼시와 스트레치 원칙의 체계적인 분석이 요구되어 진다.

  • PDF

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법 (Direct Retargeting Method from Facial Capture Data to Facial Rig)

  • 송재원;노준용
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권2호
    • /
    • pp.11-19
    • /
    • 2016
  • 본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.

다양한 형식의 얼굴정보와 준원근 카메라 모델해석을 이용한 얼굴 특징점 및 움직임 복원 (Facial Features and Motion Recovery using multi-modal information and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제9B권5호
    • /
    • pp.563-570
    • /
    • 2002
  • 본 논문은 MPEG4 SNHC의 얼굴 모델 인코딩을 구현하기 위하여 연속된 2차원 영상으로부터 얼굴영역을 검출하고, 얼굴의 특징데이터들을 추출한 후, 얼굴의 3차원 모양 및 움직임 정보를 복원하는 알고리즘과 결과를 제시한다. 얼굴 영역 검출을 위해서 영상의 거리, 피부색상, 움직임 색상정보등을 융합시킨 멀티모달합성의 방법이 사용되었다. 결정된 얼굴영역에서는 MPEG4의 FDP(Face Definition Parameter) 에서 제시된 특징점 위치중 23개의 주요 얼굴 특징점을 추출하며 추출성능을 향상시키기 위하여 GSCD(Generalized Skin Color Distribution), BWCD(Black and White Color Distribution)등의 움직임색상 변환기법과 형태연산 방법이 제시되었다. 추출된 2차원 얼팔 특징점들로부터 얼굴의 3차원 모양, 움직임 정보를 복원하기 위하여 준원근 카메라 모델을 적용하여 SVD(Singular Value Decomposition)에 의한 인수분해연산을 수행하였다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 복원된 얼굴의 움직임 정보는 MPEG4 FAP(Face Animation Parameter)로 변환된 후, 인터넷상에서 확인이 가능한 가상얼굴모델에 인코딩되어 실제 얼굴파 일치하는 모습을 확인하였다.

Multi-patch Surface를 이용한 3D Facial Model 제작 효율 향상에 관한 연구 (A Study on Multi-patch Surface in Improving Efficiency of 3D Facial Modeling)

  • 진영애;김종기;김치용
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 춘계학술발표대회논문집
    • /
    • pp.492-498
    • /
    • 2003
  • 본 논문에서는 실사와 같은 사실적인 3차원 Facial Model 제작을 위해 해부학 접근을 통한 근육기반의 자연스러운 Facial Modeling 제작을 연구하였다 한국인 기본형 얼굴을 연구 대상으로 선정하여 안면근육 비례를 분석한 후 Multi-patch Surface Modeling 방법을 적용하며 제작하였다. 이 방법에는 통계적 분석기법 중 L/sub 27/(3/sup 13/) 3수준계 직교배열표를 이용하여 검증하였다. 본 연구를 통하여 Facial Model 제작 시 최소의 UV spans 수로 최대 시각화 즉, 원본의 형상을 최대한 유지하면서 작업시간과 Rendering 시간 단축 및 Data 용량을 줄일 수 있는 Modeling 방법을 제안하였고, 향후 자연스런 Facial Animation 제작 및 연구에도 많은 도움이 될 것으로 기대된다.

  • PDF

얼굴의 움직임 추적에 따른 3차원 얼굴 합성 및 애니메이션 (3D Facial Synthesis and Animation for Facial Motion Estimation)

  • 박도영;심연숙;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권6호
    • /
    • pp.618-631
    • /
    • 2000
  • 본 논문에서는 2차원 얼굴 영상의 움직임을 추출하여 3차원 얼굴 모델에 합성하는 방법을 연구하였다. 본 논문은 동영상에서의 움직임을 추정하기 위하여 광류를 기반으로 한 추정방법을 이용하였다. 2차원 동영상에서 얼굴요소 및 얼굴의 움직임을 추정하기 위해 인접한 두 영상으로부터 계산된 광류를 가장 잘 고려하는 매개변수화된 움직임 벡터들을 추출한다. 그리고 나서, 이를 소수의 매개변수들의 조합으로 만들어 얼굴의 움직임에 대한 정보를 묘사할 수 있게 하였다. 매개변수화 된 움직임 벡터는 눈 영역, 입술과 눈썹 영역, 그리고 얼굴영역을 위한 서로 다른 세 종류의 움직임을 위하여 사용하였다. 이를 얼굴 모델의 움직임을 합성할 수 있는 단위행위(Action Unit)와 결합하여 2차원 동영상에서의 얼굴 움직임을 3 차원으로 합성한 결과를 얻을 수 있다.

  • PDF