DOI QR코드

DOI QR Code

Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어

  • 김성호 (상지대학교 컴퓨터정보공학부)
  • Published : 2007.03.28

Abstract

This paper describe methodology that is distributed on 2-dimensional plane to much high-dimensional facial motion datas using Isomap algorithm, and user interface techniques to control facial expressions by selecting expressions while user navigates this space in real-time. Isomap algorithm is processed of three steps as follow; first define an adjacency expression of each expression data, and second, calculate manifold distance between each expressions and composing expression spaces. These facial spaces are created by calculating of the shortest distance(manifold distance) between two random expressions. We have taken a Floyd algorithm for it. Third, materialize multi-dimensional expression spaces using Multidimensional Scaling, and project two dimensions plane. The smallest adjacency distance to define adjacency expressions uses Pearson Correlation Coefficient. Users can control facial expressions of 3-dimensional avatar by using user interface while they navigates two dimension spaces by real-time.

본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.

Keywords

References

  1. D. Terzopoulos,B.M Halttal, B. Hofer, F. Parke, D. Sweetland, and K Waters, Facial animation : Past, present and future, Pane1, SIGGRAPH97,1997.
  2. F. I. Parke and K Waters, Cormputer facial animation, A K Peters, 1996
  3. D. Fidaleo and U. Neurnann, "Analysis of co- articulation regions for perforrnance driven facial animation," Journal of Visualization and computer Animation, Vol.15, pp.15-26, 2004.
  4. B. Guenter, C. Grimrn, D. wood,H. Malvar, and F. Pighin, 'Making Faces," ACM SIGGRAPH98 Conf., pp.55-66,1998.
  5. Z. Deng, P. Y. Chiang, P. Fox, and U. Neumann, "Animating blendshape faces by cross-mapping motion capture data," Proceedings of the 2006 symposium on Interactive 3D graphics and games 2(0), pp.43-48, 2006.
  6. C. Kouadio, P. Poulin, and P. Lachapelle,"Real-time facial animation based upon a bank of 3D facial exprossions," Proc. Computer Animation 98, 1998.
  7. D. Vlasic, M Brand, H Pfister, and J Popovic, "Face Transfer with Multilinear Models," ACM Transaction on Graphics,(TOG), Vol.24, pp.426-433, 2005. https://doi.org/10.1145/1073204.1073209
  8. J Lee, J. Chai, P. S. A Reitsna, JK Hodgins,and N. S. Pollard, ''Interactive Control of Avatars Animated with Hurnan Motion Data," ACM Transtions on Graphics (SIGGRAPH 2002), Vol.21, No.3, pp.491-500, 2002.
  9. R. W. Floyd, "Algorithm 97 : Shortest Path,"CACM, Vol.5, p.345, 1962.
  10. Uprendra Shardanand, "sαcial inforrnation filtering for rrrusic recommendation," Master's thesis, MlT, 1994.
  11. W. S. Torgerson, ''Multidimensional scaling: I. theory and method" Psychometrica., Vol.17, pp.401- 419, 1952 https://doi.org/10.1007/BF02288916
  12. T. Cox and M Cox, Multimensional scaling. Chapman & Hall,London, 1994.
  13. H. J. SHin and J. H. Lee, ''Motion Synthesis and Editing in Low-Dimensional Spaces" computer Animation and Virtual Worlds (Special Issue: CASA 2006), John Wiley & Sons, Vol.17, pp.219-227,2006.