DOI QR코드

DOI QR Code

3D Character Motion Synthesis and Control Method for Navigating Virtual Environment Using Depth Sensor

깊이맵 센서를 이용한 3D캐릭터 가상공간 내비게이션 동작 합성 및 제어 방법

  • 성만규 (계명대학교 게임모바일콘텐츠학과)
  • Received : 2012.03.12
  • Accepted : 2012.06.13
  • Published : 2012.06.30

Abstract

After successful advent of Microsoft's Kinect, many interactive contents that control user's 3D avatar motions in realtime have been created. However, due to the Kinect's intrinsic IR projection problem, users are restricted to face the sensor directly forward and to perform all motions in a standing-still position. These constraints are main reasons that make it almost impossible for the 3D character to navigate the virtual environment, which is one of the most required functionalities in games. This paper proposes a new method that makes 3D character navigate the virtual environment with highly realistic motions. First, in order to find out the user's intention of navigating the virtual environment, the method recognizes walking-in-place motion. Second, the algorithm applies the motion splicing technique which segments the upper and the lower motions of character automatically and then switches the lower motion with pre-processed motion capture data naturally. Since the proposed algorithm can synthesize realistic lower-body walking motion while using motion capture data as well as capturing upper body motion on-line puppetry manner, it allows the 3D character to navigate the virtual environment realistically.

키넥트의 성공적인 등장 이후 이 센서를 이용하여 사용자의 아바타에 해당하는 3차원 캐릭터의 움직임을 제어하는 많은 인터액티브 콘텐츠가 제작되었다. 하지만, 키넥트의 특성 상 사용자는 키넥트를 정면으로 바라보아야 하며, 모션 또한 제자리에서 수행할 수 있는 동작 정도만으로 국한되었다. 이 단점은 게임에서 가장 중요한 요구기능 중 하나인 가상공간 내비게이션을 수행하지 못하게 하는 근본적인 이유가 되었다. 본 논문은 이와 같은 단점을 해결하기 위한 새로운 방법을 제안한다. 두 단계로 이루어진 본 방법은 첫 번째 단계로서 사용자의 내비게이션 의도를 파악하기 위해 제자리 걷기 동작 제스처인식을 수행한다. 내비게이션 의도가 파악되면, 다음 단계에 현재 제자리 걷기동작을 상체와 하체 모션으로 자동으로 분리한 후, 미리 입력 받은 하체모션캡처 데이터를 현재 캐릭터 속도를 반영하여 수정한 뒤 분리된 원래 하체모션과 자연스럽게 교체한다. 본 논문에서 제안된 알고리즘을 이용하면, 키넥트 센서를 통해 사용자의 상체 모션을 그대로 반영함과 동시에 모션캡처 데이터를 이용하여 하체 동작을 실제 걷는 동작으로 바꾸어주기 때문에 사용자가 조정하는 3차원 캐릭터는 가상공간을 자연스럽게 내비게이션할 수 있다.

Keywords

References

  1. Microsoft Kinect Teardown, http://www.ifixit.com/Teardown/Microsoft-Kinect-Teardown/4066/, 2010
  2. T. Carmody, How Motion Detection Works in XBOX Kinect, http://www.wired.com/gadgetlab/ 2010/11/tonights-release-xbox-kinect-how-does-it-work, 2010.
  3. PrimeSense, NITE Algorithms notes, Prime-Sense, 2010.
  4. PrimeSense, NITE Control Programmer's Guide notes, PrimeSense, 2010.
  5. J. Shotton, A. Fitzgibbon, M. Cook, T. Sharp, M. Finocchio, R. Moore, A. Kipman, and A. Blake, "Real-Time Human Pose Recognition in Parts from Single Depth Images," Proc. of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 1297-1304, 2011.
  6. T. Leyvand, C. Meekhof, Y. Wei, J. Sun, and Baining Guo, "Kinect Identity: Technology and Experience," IEEE Computer , Vol.44, Issue 4, pp. 94-96, 2011
  7. Primesensor datasheet, http://www.primesense.com/en/press-room, 2010
  8. D. Nieuwenhuisen, A. Kamphuis, and M.H. "High Quality Navigation in Computer Games," Science of Computer Programming: Special Issue on Aspects of Game Programming, Vol. 67, Issue 1, pp. 91-104, 2007.
  9. Kinect Game list, http://en.wikipedia.org/wiki/List_of_Kinect_games, 2010
  10. Open Kinect, http://openkinect.org, 2010.
  11. OpenNI, $OpenNI^{TM}$ User's Guide, 2010.
  12. Microsoft Kinect SDK, http://www.microsoft.com/en-us/kinectforwindows/develop/, 2012.
  13. Activate3D Intelligent Character Motion, http://activate3d.com/, 2012.
  14. Battlefield3, http://www.battlefield.com/battlefield3, Electronic Art, 2012.
  15. Biped fobo, http://www.projectbiped.com/prototypes/fobo, 2011
  16. S.I. Park, H.J. Shin, and S.Y. Shin, S "On-Line Locomotion Generation Based on Motion Blending," Proc. of ACM SIGGRAPH/ Eurographics Symposium on Computer Animation, pp. 105-111, 2002.
  17. A. Treuille, Y. Lee, and Z. Popović. "Near- Optimal Character Animation with Continuous Control," ACM Transactions on Graphics, Vol.26, Issue 3, 2007.
  18. R. Heck, L. Kovar, and M. Gleicher. "Splicing Upper-Body Actions with Locomotion," Proc. of Eurographics, pp. 459-466, 2006.
  19. B.J. H. van Basten and A. Egges "Flexible Splicing of Upper-Body Motion Spaces on Locomotion," Computer Graphics Forum, Vol.30, Issue 7, pp. 1963-1971, 2011. https://doi.org/10.1111/j.1467-8659.2011.02051.x
  20. S. Mitra and T. Acharya, "Gesture Recognition: A Survey," IEEE Trans. on Systems, Man, and Cybernetics, Part C: Applications and Reviews, Vol.37, Issue 3, pp. 311- 324, 2007. https://doi.org/10.1109/TSMCC.2007.893280
  21. C. Rose, M. Cohen, and B. Bodenheimer. "Verbs and Adverbs: Multidimensional Motion Interpolation," IEEE Computer Graphics and Application, Vol.18. Issue 5, pp. 32-40, 1998 https://doi.org/10.1109/38.708559
  22. 이윤길, 김성아, 최진원, "가상캐릭터의 자율주행을 위한 지능형 가상 환경 구축," 멀티미디어학회논문지, 제13권, 제3호, pp. 34-42, 2009.

Cited by

  1. Realtime 3D Human Full-Body Convergence Motion Capture using a Kinect Sensor vol.14, pp.1, 2016, https://doi.org/10.14400/JDC.2016.14.1.189
  2. Large-Scale Realtime Crowd Simulation Using Image-Based Affordance and Navigation Potential Fields vol.17, pp.9, 2014, https://doi.org/10.9717/kmms.2014.17.9.1104