• Title/Summary/Keyword: 모션캡처 애니메이션

Search Result 37, Processing Time 0.03 seconds

A study of center of gravity on 3d character animation (3D 캐릭터 애니메이션에서의 무게중심 관한 연구)

  • Cho, Jae-Yun
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.356-361
    • /
    • 2006
  • 모션캡처기술은 이미 많은 애니메이션과 게임에서 보편화되어 사용되고 있다. 하지만, 이런 좋은 기술을 뒤로 한 채 아직도 많은 애니메이터들이 직접 애니메이션을 하고 있다. 모션캡처 기술비용과 제작시간 때문이기도 하지만 사람과 상이한 체형을 가진 3D 캐릭터에 사람의 모션을 적용하기엔 어색한 부분이 많기 때문이다. 또한, 캐릭터의 특징을 부각시키거나 왜곡시키는 등의 과장의 표현은 불가능하다. 캐릭터의 생명은 그 캐릭터가 가진 성격과 체형에서, 그 캐릭터만의 자연스런 움직임을 표현하는데 있다. 기획과 의도에 따른 특성들을 과장하여 표현하되 인간의 동작에 익숙해 있는 우리 눈에 어색함으로 비춰지지 않도록 해주어야 비로소 생명력이 있는 캐릭터를 만들 수 있다. 다양한 모양의 캐릭터는 서로 다른 무게중심을 가졌고 이를 고려하지 않고 애니메이션 했을 때 여러 가지 문제점이 생긴다. 이러한 문제점은 캐릭터가 자연스럽지 못하게 보이는 가장 큰 원인 중 하나다. 본 논문은 게임과 애니메이션 등에서의 3D 캐릭터가 더욱 생생하고 현실적으로 보이도록 돕는데 그 목적이 있다. 그 중, 중요한 요소인 무게중심에 대한 이해와 함께 활용방법에 대한 연구에 목적을 둔다. 캐릭터의 자연스러운 움직임을 위해 무게중심은 반드시 고려해야 할 문제이고 캐릭터의 특성 및 성격 표현에도 중요한 영향을 미친다. 애니메이터들에게 무게중심에 대한 중요성을 알리고 새로운 접근방법을 제시하는 것을 본 논문의 가치로 삼는다.

  • PDF

Pose Calibration of Inertial Measurement Units on Joint-Constrained Rigid Bodies (관절체에 고정된 관성 센서의 위치 및 자세 보정 기법)

  • Kim, Sinyoung;Kim, Hyejin;Lee, Sung-Hee
    • Journal of the Korea Computer Graphics Society
    • /
    • v.19 no.4
    • /
    • pp.13-22
    • /
    • 2013
  • A motion capture system is widely used in movies, computer game, and computer animation industries because it allows for creating realistic human motions efficiently. The inertial motion capture system has several advantages over more popular vision-based systems in terms of the required space and cost. However, it suffers from low accuracy due to the relatively high noise levels of the inertial sensors. In particular, the accelerometer used for measuring gravity direction loses the accuracy when the sensor is moving with non-zero linear acceleration. In this paper, we propose a method to remove the linear acceleration component from the accelerometer data in order to improve the accuracy of measuring gravity direction. In addition, we develop a simple method to calibrate the joint axis of a link to which an inertial sensor belongs as well as the position of a sensor with respect to the link. The calibration enables attaching inertial sensors in an arbitrary position and orientation with respect to a link.

Direct Retargeting Method from Facial Capture Data to Facial Rig (페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법)

  • Cho, Hyunjoo;Lee, Jeeho
    • Journal of the Korea Computer Graphics Society
    • /
    • v.22 no.2
    • /
    • pp.11-19
    • /
    • 2016
  • This paper proposes a method to directly retarget facial motion capture data to the facial rig. Facial rig is an essential tool in the production pipeline, which allows helping the artist to create facial animation. The direct mapping method from the motion capture data to the facial rig provides great convenience because artists are already familiar with the use of a facial rig and the direct mapping produces the mapping results that are ready for the artist's follow-up editing process. However, mapping the motion data into a facial rig is not a trivial task because a facial rig typically has a variety of structures, and therefore it is hard to devise a generalized mapping method for various facial rigs. In this paper, we propose a data-driven approach to the robust mapping from motion capture data to an arbitary facial rig. The results show that our method is intuitive and leads to increased productivity in the creation of facial animation. We also show that our method can retarget the expression successfully to non-human characters which have a very different shape of face from that of human.

Motion Retargetting Simplification for H-Anim Characters (H-Anim 캐릭터의 모션 리타겟팅 단순화)

  • Jung, Chul-Hee;Lee, Myeong-Won
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.15 no.10
    • /
    • pp.791-795
    • /
    • 2009
  • There is a need for a system independent human data format that doesn't depend on a specific graphics tool or program to use interoperable human data in a network environment. To achieve this, the Web3D Consortium and ISO/IEC JTC1 WG6 developed the international draft standard ISO/IEC 19774 Humanoid Animation(H-Anim). H-Anim defines the data structure for an articulated human figure, but it does not yet define the data for human motion generation. This paper discusses a method of obtaining compatibility and independence of motion data between application programs, and describes a method of simplifying motion retargetting necessary for motion definition of H-Anim characters. In addition, it describes a method of generating H-Anim character animation using arbitrary 3D character models and arbitrary motion capture data without any inter-relations, and its implementation results.

Research of Mobile 3D Dance Contents Construction Using Motion Capture System (모션캡처 시스템을 이용한 모바일 3D 댄스 콘텐츠 제작 연구)

  • Kim Nam-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.6 no.9
    • /
    • pp.98-107
    • /
    • 2006
  • By improving performance of mobile machine(3D engine, 3D accelerator chip set, etc) and developing wireless network technology, a demand for actual contents of users is being increased rapidly. But, there are some difficulties yet for the speedy development of actual contents because of the limitation of development resources that is dependent on each mobile device's different performance. In general, much of the animated character-creation work for mobile environment is still done manually by experienced animator with the method of key frame processing. However, it needs a lot of time and more costs for creating motion. Additionally, it is possible to cause a distortion of motion. In this paper, I solved the difficulties by using a optical motion capture system, it was able to acquire accurate motion data more easily and quickly, and then it was possible to make 3D dance contents efficiently. Also, I showed techniques of key reduction and controlling frame number for using huge amounts of motion capture data in mobile environment which requires less resources. In making 3D dance contents, using an optical motion capture system was verified that it was more efficient to make and use actual-reality contents by creating actual character motion and by decreasing processing time than existing method.

  • PDF

Facial Expression Animation which Applies a Motion Data in the Vector based Caricature (벡터 기반 캐리커처에 모션 데이터를 적용한 얼굴 표정 애니메이션)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.10 no.5
    • /
    • pp.90-98
    • /
    • 2010
  • This paper describes methodology which enables user in order to generate facial expression animation of caricature which applies a facial motion data in the vector based caricature. This method which sees was embodied with the plug-in of illustrator. And It is equipping the user interface of separate way. The data which is used in experiment attaches 28 small-sized markers in important muscular part of the actor face and captured the multiple many expression which is various with Facial Tracker. The caricature was produced in the bezier curve form which has a respectively control point from location of the important marker which attaches in the face of the actor when motion capturing to connection with motion data and the region which is identical. The facial motion data compares in the caricature and the spatial scale went through a motion calibration process too because of size. And with the user letting the control did possibly at any time. In order connecting the caricature and the markers also, we did possibly with the click the corresponding region of the caricature, after the user selects each name of the face region from the menu. Finally, this paper used a user interface of illustrator and in order for the caricature facial expression animation generation which applies a facial motion data in the vector based caricature to be possible.

Behavioral Generation of Android-oriented 3D character using kinect (Kinect를 활용한 안드로이드용 3D 캐릭터 행동 제작)

  • Choi, Hong-Seon;Lee, Kang-Hee;Lee, Won-Joo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2012.07a
    • /
    • pp.31-32
    • /
    • 2012
  • 본 논문에서는 3D 캐릭터의 애니메이션을 제작하기에 앞서 kinect를 활용하여 캐릭터의 동작을 모션캡처를 통해 쉽게 제작하는 방법을 다룬다. 또한 제작된 캐릭터 애니메이션을 md2포맷으로 export하고 안드로이드 환경의 OpenGL을 활용하여 재생하는 기술을 제안하고 이를 이용하여 향후 스마트폰 증강현실에서 도우미로서 소프트웨어 로봇 또는 에이전트의 다양한 감성 행동을 제작하고자 한다.

  • PDF

FBX Format Animation Generation System using Depth Image (깊이 영상을 이용한 FBX 형식의 애니메이션 생성 시스템)

  • Choi, Jin-won;Kim, Sang-joon;Park, Seo-yeon;Kwak, Gi-seok;Park, Goo-man
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.161-163
    • /
    • 2022
  • 실시간 동작 애니메이션을 생성하는 기술은 게임, 영화, 의료 등 많은 분야에서 활용할 수 있는 기술이다. 기존에는 마커를 부착하는 모션캡처 방식이 사용되어왔지만 비용, 편의성 등의 문제로 쉽게 사용될 수 없었다. 최근 딥러닝 기술의 발전으로 영상을 통해 사람의 신체 관절 좌표를 추정할 수 있게 되면서 여러가지 방식으로 연구되어 왔다. RGB-D 카메라 등을 통해 얻는 깊이 영상으로부터 3 차원 관절 좌표를 추정하는 방식이 연구되고 있으며, 본 논문에서는 이러한 방식을 통해 실시간 동작 애니메이션을 생성하고 가상공간에 표출하는 시스템을 구현한다.

  • PDF

A Study on Game Character Rigging for Root Motion (루트 모션을 위한 게임 캐릭터 리깅 연구)

  • SangWon Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.163-164
    • /
    • 2023
  • 실시간 3D 렌더링 게임의 제작 환경에서 캐릭터의 움직임은 모션 캡처(motion capture)를 통해 만들거나 애니메이터에 의해 제작된다. 걷기나 달리기 등 일정한 속도로 캐릭터가 움직이는 모션은 캐릭터가 제자리(in place)에서 움직이도록 한 뒤에 게임에서 프로그램에 의해 일정한 속도로 움직임으로써 구현할 수 있다. 하지만 일정하지 않은 속도로 움직이는 모션을 같은 방식으로 적용하면 캐릭터의 이동이 어색해진다. 이런 어색함을 보완하기 위해 언리얼이나 유니티 3D 등의 엔진에서는 루트 모션(root motion) 기능을 사용하고 있다. 그런데 루트 모션을 위한 계층 구조는 애니메이터의 작업 효율을 위한 계층 구조와 다른 측면이 있다. 본 논문에서는 3ds Max를 사용하여 애니메이터 친화적이고 루트 모션에도 적합한 캐릭터 리깅을 제시한다.

  • PDF

A Schema Definition for Exchanging Character Animation Data (캐릭터 애니메이션 데이터 교환을 위한 스키마 정의)

  • Park, Jong-Hyun;Jung, Chul-Hee;Park, Chang-Sup;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.430-433
    • /
    • 2011
  • 본 연구에서는 ISO/IEC JTC1 SC24와 Web3D Consortium에 의해 제정된 국제표준인 H-Anim을 이용하여 캐릭터 애니메이션 교환을 위한 스키마를 정의한다. 기존의 H-Anim 에서는 인간형 캐릭터 구조의 전송이나 저장에 필요한 계층적 데이터 구조를 X3D 기반으로 정의하고 있으나, 생성된 애니메이션을 다른 캐릭터에 그대로 적용할 수 있도록 설계되어 있지는 않다. 본 연구에서는 임의의 H-Anim 캐릭터 모델에 임의의 모션 캡처 데이터를 이용하여 애니메이션을 생성할 수 있도록 H-Anim 에 애니메이션을 정의하는 방법과 이를 기존의 H-Anim 구조에 부합하도록 애니메이션 기능을 위한 스키마 확장에 대해 기술한다. 본 연구에서의 캐릭터 애니메이션 데이터 형식은 서로 다른 응용들 사이에서 애니메이션 데이터를 공유하고 서로 호환성을 갖도록 하는 것을 목적으로 한다.