• Title/Summary/Keyword: 데이터기반 애니메이션

Search Result 132, Processing Time 0.026 seconds

Data-driven Facial Animation Using Sketch Interface (스케치 인터페이스를 이용한 데이터 기반 얼굴 애니메이션)

  • Ju, Eun-Jung;Ahn, Soh-Min;Lee, Je-Hee
    • Journal of the Korea Computer Graphics Society
    • /
    • v.13 no.3
    • /
    • pp.11-18
    • /
    • 2007
  • Creating stylistic facial animation is one of the most important problems in character animation. Traditionally facial animation is created manually by animators of captured using motion capture systems. But this process is very difficult and labor-intensive. In this work, we present an intuitive, easy-to-use, sketch-based user interface system that facilitates the process of creating facial animation and key-frame interpolation method using facial capture data. The user of our system is allowed to create expressive speech facial animation easily and rapidly.

  • PDF

Natural 3D Lip-Synch Animation Based on Korean Phonemic Data (한국어 음소를 이용한 자연스러운 3D 립싱크 애니메이션)

  • Jung, Il-Hong;Kim, Eun-Ji
    • Journal of Digital Contents Society
    • /
    • v.9 no.2
    • /
    • pp.331-339
    • /
    • 2008
  • This paper presents the development of certain highly efficient and accurate system for producing animation key data for 3D lip-synch animation. The system developed herein extracts korean phonemes from sound and text data automatically and then computes animation key data using the segmented phonemes. This animation key data is used for 3D lip-synch animation system developed herein as well as commercial 3D facial animation system. The conventional 3D lip-synch animation system segments the sound data into the phonemes based on English phonemic system and produces the lip-synch animation key data using the segmented phoneme. A drawback to this method is that it produces the unnatural animation for Korean contents. Another problem is that this method needs the manual supplementary work. In this paper, we propose the 3D lip-synch animation system that can segment the sound and text data into the phonemes automatically based on Korean phonemic system and produce the natural lip-synch animation using the segmented phonemes.

  • PDF

Humanoid Avatar Chatting System using XML (XML을 이용한 휴머노이드 아바타 채팅 시스템)

  • 김계숙;이만형;황대훈;박규석
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.05b
    • /
    • pp.811-816
    • /
    • 2003
  • VRML은 애니메이션을 구현하기 위한 구문을 기본적으로 제공하고 있으나, 몇 가지 문제점을 가지고 있다. 우선 아바타 데이터와 애니메이션 데이터의 완벽한 분리가 불가능하고 데이터가 종속적이어서, 어느 한 쪽의 수정이 가해질 경우 다른 데이터도 그에 맞춰 수정해 주어야 한다. 이러한 기존 VRML의 단점을 극복하기 위해, 아바타 데이터와 애니메이션 데이터를 XML 기반의 행위기술 언어를 정의하고. 이 언어로 작성된 데이터를 처리하기 위한 애니메이션 시스템의 연구가 필요하다. 이러한 행위기술 언어는 아바타 데이터와 애니메이션 데이터를 서로 독립적으로 분리시킬 수 있어야 하며, 또한 아바타 데이터의 수정이 전제되어도 재활용이 가긍한 애니메이션 데이터를 작성하는 것이 가능해야 한다. 이에 본 연구에서는 아바타 관련 표준화 동향과 VRML로 정의된 휴머노이드 아바타의 문제점을 정의하고. 이를 극복하기 위한 방안으로 휴머노이드 아바타의 외형을 H-Anim 표준에 따르는 계층적 구조로 정의하였다 또한 휴머노이드 아바타의 행위 및 표정을 XML DTD와 DI로 정의하고, XML로 정의된 휴머노이드의 외형/행위/표정을 기존의 VRML 브라우저에서 표현하기 위한 처리 방법 덴 시스템을 설계하고 구현하였다. 끝으로 위와 같이 설계된 결과를 아바타 채팅 시스템의 구현에 적용하여 연구결과의 타당성을 검증하였다.

  • PDF

A framework for time-varying data animation in VR environments (고해상도 디스플레이 환경에서의 시변환 데이터 애니메이션을 위한 프레임워크)

  • Hur, YoungJu;Lee, JoongYeon;Kim, MinAh;Gu, GiBeom;Lee, SeHoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.379-382
    • /
    • 2013
  • 시변환 데이터(time-varying data)는 과학 시뮬레이션의 결과로 생성되는 데이터의 일종으로, 일반적인 스테디 데이터(steady data)와는 달리 시간에 따른 데이터의 변화를 담고 있다. 따라서 시변환 데이터를 가시화하는 것은 시간에 따른 데이터의 변화를 비교, 분석할 수 있는 방법을 제공해야 한다는 것을 의미한다. 일반적으로 시변환 데이터는 대용량 데이터에 해당되며, 따라서 대부분의 경우에는 일반 PC 환경에서 시변환 데이터에 대한 애니메이션을 수행하는 것이 불가능하다. 본 논문에서는 병렬 렌더링 시스템에서 대용량의 시변환 데이터에 대해 일련의 가시화 작업을 수행 함으로써 데이터의 시간에 따른 변화를 분석할 수 있게 해주는 병렬 애니메이션 프레임워크에 대해 소개한다. 본 논문에서 소개하는 애니메이션 프레임워크는 병렬 렌더링 시스템을 기반으로 시변환 데이터에 대한 애니메이션을 수행하며, 이를 위한 렌더링 동기화 프로세스를 제공한다. 이 환경은 향후 지원 분야, 지원 장비에 따라 다양한 형태로의 확장이 가능하며, 고해상도 디스플레이 환경에서 가상현실을 기반으로 사용자와 상호작용하는 것이 가능하다.

A Schema Definition for Exchanging Character Animation Data (캐릭터 애니메이션 데이터 교환을 위한 스키마 정의)

  • Park, Jong-Hyun;Jung, Chul-Hee;Park, Chang-Sup;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.430-433
    • /
    • 2011
  • 본 연구에서는 ISO/IEC JTC1 SC24와 Web3D Consortium에 의해 제정된 국제표준인 H-Anim을 이용하여 캐릭터 애니메이션 교환을 위한 스키마를 정의한다. 기존의 H-Anim 에서는 인간형 캐릭터 구조의 전송이나 저장에 필요한 계층적 데이터 구조를 X3D 기반으로 정의하고 있으나, 생성된 애니메이션을 다른 캐릭터에 그대로 적용할 수 있도록 설계되어 있지는 않다. 본 연구에서는 임의의 H-Anim 캐릭터 모델에 임의의 모션 캡처 데이터를 이용하여 애니메이션을 생성할 수 있도록 H-Anim 에 애니메이션을 정의하는 방법과 이를 기존의 H-Anim 구조에 부합하도록 애니메이션 기능을 위한 스키마 확장에 대해 기술한다. 본 연구에서의 캐릭터 애니메이션 데이터 형식은 서로 다른 응용들 사이에서 애니메이션 데이터를 공유하고 서로 호환성을 갖도록 하는 것을 목적으로 한다.

3D Character Animation Modelling based on Web 3D (Web3D 기반 3D 캐릭터 애니메이션 모델링)

  • Kim, Geun-Young;Lee, Hyae-Jung;Cho, Jin-Ei;Han, Sung-Kook;Lee, Yong-Ju;Joung, Sung-Tae;Joung, Suck-Tae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.11a
    • /
    • pp.209-212
    • /
    • 2005
  • 현대 시각예술의 총아로 불리는 3D 캐릭터 애니메이션 제작기술은 영화, TV, 광고, 인터넷, 게임 등에서 많이 활용되고 있고, 제작기술 또한 나날이 발전하고 있다. 하지만 하나의 완성된 캐릭터 애니메이션이 제작되기까지 수없이 많은 비용과 시간을 필요로 한다. 본 시스템은 Humanoid 기반으로 3D 아바타를 생성하고, 캐릭터 애니메이션의 모델링에 있어서 자연스러운 애니메이션을 좀더 쉽고 유용하게 표현하기 위한 방법을 구현한다. 또한 캐릭터 데이터와 애니메이션 데이터를 어느 정도 분리하여 한번 생성된 애니메이션을 다른 캐릭터에 그대로 적용시켜 재사용할 수 있도록 하였다.

  • PDF

A Character Animation Tool Based on Motion Mapping (모션 매핑 기반의 캐릭터 애니메이션 개발 도구)

  • Lee, Minguen;Lee, Myeong Won
    • Journal of the Korea Computer Graphics Society
    • /
    • v.5 no.2
    • /
    • pp.43-52
    • /
    • 1999
  • In this paper, we present an animation toolkit based on motion mapping technique in a graphics user interface that can represent data structures necessary for generating character motions. The motion mapping means that an animation sequence generated once can be mapped to another object directly according a data structure in the graphics user interface. Users can generate animation sequences interactively using a mouse. These are obtained automatically by modifying motion data structures interactively. Compared with other conventional tools, the toolkit has different features that two hierarchical structures necessary for representing modeling and animation data are managed independently each other, and that animations generated can be applied to any other characters by connecting the two hierarchical structures in the user interface.

  • PDF

Speech Animation by Visualizing the Organs of Articulation (조음 기관의 시각화를 이용한 음성 동기화 애니메이션)

  • Lee, Sung-Jin;Kim, Ig-Jae;Ko, Hyeong-Seok
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.843-851
    • /
    • 2006
  • 본 논문에서는 음성에 따른 얼굴 애니메이션을 사실적으로 표현하기 위한 조음기관(혀, 성대 등)의 움직임을 시각화하는 방법을 제시한다. 이를 위해서, 음성에 따른 얼굴 애니메이션을 위한 말뭉치(Corpus)를 생성하고, 생성된 말뭉치에 대해서 음소 단위의 분석(Phoneme alignment) 처리를 한 후, 각 음소에 따른 조음기관의 움직임을 생성한다. 본 논문에서는 조음기관의 움직임 생성을 위해서 얼굴 애니메이션 처리에서 널리 사용되고 있는 기저 모델 기반 형태 혼합 보간 기법(Blend shape Interpolation)을 사용하였다. 그리고 이를 통하여 프레임/키프레임 기반 움직임 생성 사용자 인터페이스를 구축하였다. 구축된 인터페이스를 통해 언어치료사가 직접 각 음소 별 조음기관의 정확한 모션 데이터를 생성토록 한다. 획득된 모션 데이터를 기반으로 각 음소 별 조음기관의 3차원 기본 기저를 모델링하고, 새롭게 입력된 음소 시퀀스(phoneme sequence)에 대해서 동기화된 3차원 조음기관의 움직임을 생성한다. 이를 통해 자연스러운 3차원 얼굴 애니메이션에 적용하여 얼굴과 동기화된 조음 기관의 움직임을 만들어 낼 수 있다.

  • PDF

PCA-based motion blending (PCA 기반 모션 블렌딩)

  • Jung Woojun;Lee In-Kwon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.760-762
    • /
    • 2005
  • 캐릭터 애니메이션에 모션 캡쳐를 도입하면서 사실적인 애니메이션의 제작에 않은 도움을 받을 수 있었지만, 필요한 동작 마다 계속해서 고가의 장비를 이용하여 데이터를 수집해야하기 때문에 모션 캡쳐를 이용한 애니메이션 제작에는 많은 비용이 든다. 본 논문에서는 이미 수집된 모션 캡쳐 데이터의 재사용 방안중 하나로 두 개의 캐릭터 애니메이션 시퀀스에서 개개의 특징을 유지하는 또 다른 애니메이션 시퀀스를 만들어내는 방법을 제안한다. 주성분분석(PCA)를 이용하여 두 모션의 평균 모션과 각각을 적절한 비율로 반영하여 선택, 합성하는 간단하면서도 직관적인 방법이다.

  • PDF

모바일 임베디드 멀티미디어 시스템에서 효율적인 모션 캡쳐 기반 컴퓨터 애니메이션 제작 패러다임

  • Han, Youn-Mo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10d
    • /
    • pp.661-665
    • /
    • 2006
  • 모션 캡쳐 기반 컴퓨터 애니메이션 제작 기술은 컴퓨터 애니메이션 제작에 매우 광범위하게 사용되고 있다. 모션 캡쳐 기반 컴퓨터 애니메이션 제작 기술은 센서를 사용해서 대상체의 운동을 측정하여 운동 렌더링 파라미터를 추출한 후, 이 운동 파라미터를 컴퓨터에 옮겨서 그래픽 툴을 사용하여 애니메이션화 한다. 이러한 일련의 작업이 현재의 데스크 톱 컴퓨터에서는 문제없이 수행될 수 있지만, 모바일 임베디드 시스템에 그대로 적용되기에는 다소 무리가 있다. 왜냐하면, 모바일 임베디드 시스템의 경우, CPU의 계산 능력과 메모리의 크기가 매우 작기 때문에 이에 특화된 방법이 필요하게 된다. 이러한 취지에서 본 논문은 모바일 임베디드 시스템에서 메모리 사용 효율을 높이기 위해서, 추출된 운동 렌더링 파라미터의 데이터량을 줄여서 메모리에 저장하는 방안을 모색한다. 일반적으로 사용되는 영상 압축 기술은 복원 과정이 복잡해서 모바일 임베디드 시스템의 적은 계산력에 무리를 줄 수 있으므로, 가능한 복원 과정도 계산량이 적은 방안을 강구할 필요가 있다. 이와 같은 목적으로 본 논문에서는 추출된 운동 렌더링 파라미터의 프레임 별 변화를 시간 정합 함수로 모델링 하여, 정합 함수의 파라미터를 메모리에 저장하고, 정합 함수의 함수값 계산을 통해 운동 파라미터를 복원해 내는 쉽고 효율적인 방법을 제안한다. 그리고 본 정합 데이터 압축 방식을 사용하여 상용화된 모바일 임베디드 멀티미디어 시스템에서 효율적인 모션 캡쳐 기반 컴퓨터 애니메이션 제작을 시현한다.

  • PDF