• Title/Summary/Keyword: 키 프레임 애니메이션

Search Result 55, Processing Time 0.032 seconds

A Study Virtual Reality content using Cartoon Drawing (만화 드로잉을 활용한 가상현실 콘텐츠 연구)

  • Nam, SangHun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.637-638
    • /
    • 2021
  • 가상현실 기술은 사용자가 스토리에 참여할 수 있으므로 상호작용을 갖는 인터랙티브 미디어 및 교육 콘텐츠로 활용하는 것에 장점이 있다. 가상현실 공간은 3D 공간으로 구성되며 가상환경에서 사용되는 3D 캐릭터들을 제작하기 위하여 일반적으로 3D 모델링과 키 프레임 기반의 애니메이션 기법이 사용된다. 이러한 과정들은 상대적으로 큰 비용과 많은 시간이 소요됨에 따라 저예산의 프로젝트에서는 가상현실 기술을 적용한 콘텐츠 제작을 어렵게 만든다. 본 논문은 2D 만화 이미지와 만화 스타일의 애니메이션을 활용하여 가상현실 콘텐츠 제작기법을 제안하고, 만화 형식의 가상현실 콘텐츠를 제작하여 연구를 진행하였다.

  • PDF

A Study on Efficient Motion Data Editing of Motion Capture System : Focused 'Fighters Club' Character (모션캡쳐 시스템의 효율적인 모션 데이터 편집에 관한 연구 : '파이터스 클럽' 캐릭터 중심으로)

  • Nam, Ju-Hyun
    • Journal of Korea Game Society
    • /
    • v.14 no.3
    • /
    • pp.25-34
    • /
    • 2014
  • To provide high quality contents, game companies are introducing a new technology. One of the ways is the game character animation would utilize the motion capture. However, because of the economic burden, small businesses do not have a chance to take advantage of the motion capture. The purpose of this study is to derive benefit from cost and time saving by simplifying the existing production method based on a case of utilize to motion capture system. In addition this study has find ways to apply the key frame animation, so that is will be help to develop game contents.

Bipeds Animation Blending By 3D Studio MAX Script (맥스 스크립트를 이용한 바이페드 애니메이션 합성)

  • Choi, Hong-Seok;Jeong, Jae-Wook
    • Science of Emotion and Sensibility
    • /
    • v.12 no.3
    • /
    • pp.259-266
    • /
    • 2009
  • Today, the 3D character animation is easily accessible from most of the film such as an actuality film, animation, games, or advertising. However, such a smooth movement of characters is a result obtained by Key Frame operation which skilled animators worked with data obtained through expensive equipment such Motion Capture for a long time. Therefore, to modify or to give other effects is not easy. In some cases, character's action made according to the personal feeling could be different with universal expectations of audiences, because it might be not appropriate to make regulations generalized between character's action by animater's design and emotional reaction of audience. In this research, it is aimed to show the way which is easily to blend and modify 2-3 Biped animation data by offering the operation tools of 3-D rotation using 3D Studio MAX Script. By this tool E.A.M., we can have various researches for quantities relation of between walking and emotional reaction.

  • PDF

Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift- (3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로-)

  • Kim, Hae-Yoon;Park, Dong-Joo;Lee, Tae-Gu
    • Cartoon and Animation Studies
    • /
    • s.37
    • /
    • pp.221-245
    • /
    • 2014
  • With the success of the world's first 3D computer animated film, "Toy Story" in 1995, industrial development of 3D computer animation gained considerable momentum. Consequently, various 3D animations for TV were produced; in addition, high quality 3D computer animation games became common. To save a large amount of 3D animation production time and cost, technological development has been conducted actively, in accordance with the expansion of industrial demand in this field. Further, compared with the traditional approach of producing animations through hand-drawings, the efficiency of producing 3D computer animations is infinitely greater. In this study, an experiment and a comparative analysis of markerless motion capture systems for facial expression animation has been conducted that aims to improve the efficiency of 3D computer animation production. Faceware system, which is a product of Image Metrics, provides sophisticated production tools despite the complexity of motion capture recognition and application process. Faceshift system, which is a product of same-named Faceshift, though relatively less sophisticated, provides applications for rapid real-time motion recognition. It is hoped that the results of the comparative analysis presented in this paper become baseline data for selecting the appropriate motion capture and key frame animation method for the most efficient production of facial expression animation in accordance with production time and cost, and the degree of sophistication and media in use, when creating animation.

A study on the improvement of 3D animation production productivity (3D 애니메이션 제작 생산성 향상에 관한 연구)

  • Park, Hunjin
    • Journal of Software Assessment and Valuation
    • /
    • v.17 no.2
    • /
    • pp.101-107
    • /
    • 2021
  • Animation production is collaborated by many experts and gives many ideas for new and interesting video production. Interesting video production is a problem directly related to the success of the project, so it can be said that it is better to create an environment that is not burdened with technical aspects in expressing ideas. In the actual keyframe animation production environment, ideas are frequently modified to obtain better results, and techniques that are re-used so that the animation key pose data developed at the early stage of the possible stage can be rewritten without abandoning it, and functions that can temporarily change the center of gravity contribute to the productivity of animation work and greatly help the creator to improve the creative atmosphere. This study analyzes action animations implemented in computer animation software to examine the factors that hinder actual productivity, and derives the technical concepts that can contribute to the improvement of animation production productivity and the necessity of developing related tools.

Design and Implementation of a Crowd Scene Management System (군중 장면 처리 시스템의 설계 및 구현)

  • 안민수;백성민;장진욱;이인권;이승용
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.616-618
    • /
    • 2000
  • 본 논문에서는 수많은 애니메이션 인물들이 동시에 출현하는 장면을 만들어 내는 군중 장면 처리 시스템을 개발하였다. 이 시스템은 상황에 따라 주어지는 인물의 종류와 동작 특성을 입력받아 이들 인물의 전체적인 움직임을 시뮬레이션한다. 이를 통해 얻어지는 결과는 키프레임을 포함하는 파일로서 필요에 따라서는 애니메이터의 수정이 가능하도록 하였다. 또한 이 시스템의 개발 환경을 마야 플러그인 방식으로 채택함으로써 ? 범용 상품으로서의 가치를 높인다.

  • PDF

3D Avatar Motion Control Using the Script in the Mobile Environment (모바일 환경에서 스크립트를 이용한 3차원 아바타 동작 제어)

  • Choi Seunghyuk;Kim Jaekyung;Lim Soon-Bum;Choy Yoon-Chul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.574-576
    • /
    • 2005
  • 최근 주요 이동통신 사업자, 단말기/칩 제조업체, 콘텐츠 제공업자들 사이에는 모바일 3D 분야가 가장 큰 이슈로 떠오르고 있다. 이러한 환경을 기반으로 모바일 장치에서 3차원 아바타 애니메이션 연구가 진행되고 있다. 이는 아바타의 자연스러운 동작은 사용자에게 아바타가 살아있는 듯한 느낌(Life-likeness)과 사실감(Believability)을 심어주어 보다 친숙한 인터페이스로 활용될 수 있고 이에 따라 채팅이나 온라인 게임 외에도 교육, 쇼핑몰, 비즈니스 등 다양한 분야로 확대되고 있기 때문이다. 하지만 지금까지의 연구는 자연스러운 모션 생성에 집중되어 있을 뿐, 어떻게 쉽게 아바타는 제어할 것 인가에 대한 연구가 적었다. 특히 모바일 환경에서 효율적인 아바타 동작 제어를 위한 연구는 부족하다 할 수 있다. 본 논문에서는 모바일 환경에서 효율적인 아바타 동작을 제어를 위해 스크립트(Script) 기반의 아바타 동작 제어 기법을 제안한다. 모션 생성을 위해 아바타 동작 스크립트(Avatar Motion Script)를 정의하여 아바타 애니메이션의 기록, 재생이 가능하다. 둘째 계층적 스크립트(Multi-Level Script) 기법을 이용하여 적은 양의 데이터만으로도 아바타 동작 제어가 가능하다. 셋째 어느 환경에서도 Motion이 생성, 재생이 가능하한 플랫폼 독립적 구조이다. 넷째, 키 프레임(Key Frame) 기반의 모션을 이용하여 아바타의 상황 상황에 모션이 변하는 동적 동작 생성이 가능하다.

  • PDF

Intuitive Quasi-Eigenfaces for Facial Animation (얼굴 애니메이션을 위한 직관적인 유사 고유 얼굴 모델)

  • Kim, Ig-Jae;Ko, Hyeong-Seok
    • Journal of the Korea Computer Graphics Society
    • /
    • v.12 no.2
    • /
    • pp.1-7
    • /
    • 2006
  • 블렌드 쉐입 기반 얼굴 애니메이션을 위해 기저 모델(Expression basis)을 생성하는 방법을 크게 두 가지로 구분하면, 애니메이터가 직접 모델링을 하여 생성하는 방법과 통계적 방법에 기초하여 모델링하는 방법이 있다. 그 중 애니메이터에 의한 수동 모델링 방법으로 생성된 기저 모델은 직관적으로 표정을 인식할 수 있다는 장점으로 인해 전통적인 키프레임 제어가 가능하다. 하지만, 표정 공간(Expression Space)의 일부분만을 커버하기 때문에 모션데이터로부터의 재복원 과정에서 많은 오차를 가지게 된다. 반면, 통계적 방법을 기반으로 한 기저모델 생성 방법은 거의 모든 표정공간을 커버하는 고유 얼굴 모델(Eigen Faces)을 생성하므로 재복원 과정에서 최소의 오차를 가지지만, 시각적으로 직관적이지 않은 표정 모델을 만들어 낸다. 따라서 본 논문에서는 수동으로 생성한 기저모델을 유사 고유 얼굴 모델(Quasi-Eigen Faces)로 변형하는 방법을 제시하고자 한다. 결과로 생성되는 기저 모델은 시각적으로 직관적인 얼굴 표정을 유지하면서도 통계적 방법에 의한 얼굴표정 공간의 커버 영역과 유사하도록 확장할 수 있다.

  • PDF

A Keyframe Editor of Arms and Hands for 3D Sign-Language Animation (3D 수화 애니메이션을 위한 팔과 손의 키 프레임 에디터)

  • ;;Yoshinao Aoki
    • Proceedings of the IEEK Conference
    • /
    • 1999.11a
    • /
    • pp.548-551
    • /
    • 1999
  • We design a keyframe editor of arms and hands for 3D sign-language animation using inverse kinematics. In the previous study, we acquired only the joint angles of two arms after selecting arbitrarily the shapes of hands. In this paper, both joint angles of arms and hands are calculated by the same transformation matrix of the inverse kinematics. In the method, the design window of arm gestures can be converted into that of hand shapes by clicking a button. Experimental results show a possibility that the proposed method could be used for building up the sign-language communication dictionaries.

  • PDF

Automatic Anticipation Generation for 3D Facial Animation (3차원 얼굴 표정 애니메이션을 위한 기대효과의 자동 생성)

  • Choi Jung-Ju;Kim Dong-Sun;Lee In-Kwon
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.32 no.1
    • /
    • pp.39-48
    • /
    • 2005
  • According to traditional 2D animation techniques, anticipation makes an animation much convincing and expressive. We present an automatic method for inserting anticipation effects to an existing facial animation. Our approach assumes that an anticipatory facial expression can be found within an existing facial animation if it is long enough. Vertices of the face model are classified into a set of components using principal components analysis directly from a given hey-framed and/or motion -captured facial animation data. The vortices in a single component will have similar directions of motion in the animation. For each component, the animation is examined to find an anticipation effect for the given facial expression. One of those anticipation effects is selected as the best anticipation effect, which preserves the topology of the face model. The best anticipation effect is automatically blended with the original facial animation while preserving the continuity and the entire duration of the animation. We show experimental results for given motion-captured and key-framed facial animations. This paper deals with a part of broad subject an application of the principles of traditional 2D animation techniques to 3D animation. We show how to incorporate anticipation into 3D facial animation. Animators can produce 3D facial animation with anticipation simply by selecting the facial expression in the animation.