DOI QR코드

DOI QR Code

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법

Direct Retargeting Method from Facial Capture Data to Facial Rig

  • 투고 : 2015.03.24
  • 심사 : 2015.05.30
  • 발행 : 2016.06.01

초록

본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.

This paper proposes a method to directly retarget facial motion capture data to the facial rig. Facial rig is an essential tool in the production pipeline, which allows helping the artist to create facial animation. The direct mapping method from the motion capture data to the facial rig provides great convenience because artists are already familiar with the use of a facial rig and the direct mapping produces the mapping results that are ready for the artist's follow-up editing process. However, mapping the motion data into a facial rig is not a trivial task because a facial rig typically has a variety of structures, and therefore it is hard to devise a generalized mapping method for various facial rigs. In this paper, we propose a data-driven approach to the robust mapping from motion capture data to an arbitary facial rig. The results show that our method is intuitive and leads to increased productivity in the creation of facial animation. We also show that our method can retarget the expression successfully to non-human characters which have a very different shape of face from that of human.

키워드

참고문헌

  1. L. Williams, "Performance-driven facial animation," SIGGRAPH Comput. Graph., vol. 24, no. 4, pp. 235-242, Sept. 1990. [Online]. Available: http://doi.acm.org/10.1145/97880.97906
  2. B. Bickel, M. Botsch, R. Angst, W. Matusik, M. Otaduy, H. Pfister, and M. Gross, "Multi-scale capture of facial geometry and motion," ACM Transactions on Graphics (TOG), vol. 26, no.3, p. 33, 2007. https://doi.org/10.1145/1276377.1276419
  3. E. Chuang and C. Bregler, "Performance driven facial animation using blendshape interpolation," Computer Science Technical Report, Stanford University, vol. 2, no. 2, p. 3, 2002.
  4. T. Baltrusaitis, P. Robinson, and L.-P. Morency, "3d constrained local model for rigid and non-rigid facial tracking," in Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012, pp. 2610-2617.
  5. T. Weise, S. Bouaziz, H. Li, and M. Pauly, "Realtime performance-based facial animation," in ACM Transactions on Graphics (TOG), vol. 30, no. 4, ACM, 2011, p. 77.
  6. L. Zhang, N. Snavely, B. Curless, and S. M. Seitz, "Spacetime faces: High resolution capture for modeling and animation," ACM Trans. Graph., vol. 23, no. 3, pp. 548-558, Aug. 2004. [Online]. Available: http://doi.acm.org/10.1145/1015706.1015759
  7. Y. Liu, F. Xu, J. Chai, X. Tong, L. Wang, and Q. Huo, "Video-audio driven real-time facial animation," ACM Trans. Graph., vol. 34, no. 6, pp. 182:1-182:10, Oct. 2015. [Online]. Available: http://doi.acm.org/10.1145/2816795.2818122
  8. K. S. Bhat, R. Goldenthal, Y. Ye, R. Mallet, and M. Koperwas, "High fidelity facial animation capture and retargeting with contours," in Proceedings of the 12th ACM SIGGRAPH/eurographics symposium on computer animation. ACM, 2013, pp. 7-14.
  9. Q. Li and Z. Deng, "Orthogonal-blendshape-based editing system for facial motion capture data," Computer Graphics and Applications, IEEE, vol. 28, no. 6, pp. 76-82, 2008.
  10. Y. Seol, J. Lewis, J. Seo, B. Choi, K. Anjyo, and J. Noh, "Spacetime expression cloning for blendshapes," ACM Trans. Graph., vol. 31, no. 2, pp. 14:1-14:12, Apr. 2012. [Online]. Available : http://doi.acm.org/10.1145/2159516.2159519
  11. V. Orvalho, P. Bastos, F. Parke, B. Oliveira, and X. Alvarez, "A facial rigging survey," in in Proc. of the 33rd Annual Conference of the European Association for Computer Graphics-Eurographics, 2012, pp. 10-32.
  12. H. Pyun, Y. Kim, W. Chae, H. W. Kang, and S. Y. Shin, "An example-based approach for facial expression cloning," in Proceedings of the 2003 ACM SIGGRAPH/Eurographics Symposium on Computer Animation, ser. SCA '03. Aire-la-Ville, Switzerland, Switzerland: Eurographics Association, 2003, pp. 167-176. [Online]. Available: http://dl.acm.org/citation.cfm?id=846276.846301
  13. Z. Deng, P.-Y. Chiang, P. Fox, and U. Neumann, "Animating blendshape faces by cross-mapping motion capture data," in Proceedings of the 2006 symposium on Interactive 3D graphics and games. ACM, 2006, pp. 43-48.
  14. J. Song, B. Choi, Y. Seol, and J. Noh, "Characteristic facial retargeting," Computer Animation and Virtual Worlds, vol. 22, no. 2-3, pp. 187-194, 2011. https://doi.org/10.1002/cav.414
  15. T. McLaughlin, L. Cutler, and D. Coleman, "Character rigging, deformations, and simulations in film and game production," in ACM SIGGRAPH 2011 Courses. ACM, 2011, p.5.
  16. J. F. Cohn, Z. Ambadar, and P. Ekman, "Observer-based measurement of facial expression with the facial action coding system," The handbook of emotion elicitation and assessment, pp. 203-221, 2007.
  17. K. Waters, "A muscle model for animation three-dimensional facial expression," SIGGRAPH Comput. Graph., vol. 21, no. 4, pp. 17-24, Aug. 1987. [Online]. Available: http://doi.acm.org/10.1145/37402.37405