• 제목/요약/키워드: data-driven animation

검색결과 21건 처리시간 0.039초

스케치 인터페이스를 이용한 데이터 기반 얼굴 애니메이션 (Data-driven Facial Animation Using Sketch Interface)

  • 주은정;안소민;이제희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권3호
    • /
    • pp.11-18
    • /
    • 2007
  • 자연스러운 얼굴 애니메이션 생성은 캐릭터 애니메이션 분야에서 중요한 문제이다. 지금까지 얼굴 애니메이션은 3차원 모델링 프로그램을 이용한 전문 애니메이터들의 수작업을 통해 생성되거나, 필요한 움직임 데이터를 직접 동작 캡쳐함으로써 만들어 왔다. 그러나 이러한 방식은 일반 사용자가 쉽게 접근 할 수 없으며 많은 시간과 비용을 요구한다는 단점이 있다. 본 연구에서는 실제에 가깝고 자연스러운 얼굴애니메이션을 만들기 위해, 누구나 쉽게 사용할 수 있는 직관적인 방식의 스케치 인터페이스를 이용하고자 한다. 이를 통해 키-프레임을 생성하는 시스템을 구축하고, 얼굴 캡쳐를 통하여 얻은 데이터로부터 추출한 얼굴 표정간의 전이 정보를 이용하여 키-프레임을 보간하는 방식을 제안한다. 본 시스템은 전문 애니메이터가 아닌 일반 사용자도 쉽고 빠르게 다양한 감점을 표출하며, 동시에 말하는 얼굴 애니메이션을 만들 수 있도록 한다.

  • PDF

Text-driven Speech Animation with Emotion Control

  • Chae, Wonseok;Kim, Yejin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3473-3487
    • /
    • 2020
  • In this paper, we present a new approach to creating speech animation with emotional expressions using a small set of example models. To generate realistic facial animation, two example models called key visemes and expressions are used for lip-synchronization and facial expressions, respectively. The key visemes represent lip shapes of phonemes such as vowels and consonants while the key expressions represent basic emotions of a face. Our approach utilizes a text-to-speech (TTS) system to create a phonetic transcript for the speech animation. Based on a phonetic transcript, a sequence of speech animation is synthesized by interpolating the corresponding sequence of key visemes. Using an input parameter vector, the key expressions are blended by a method of scattered data interpolation. During the synthesizing process, an importance-based scheme is introduced to combine both lip-synchronization and facial expressions into one animation sequence in real time (over 120Hz). The proposed approach can be applied to diverse types of digital content and applications that use facial animation with high accuracy (over 90%) in speech recognition.

FAES : 감성 표현 기법을 이용한 얼굴 애니메이션 구현 (On the Implementation of a Facial Animation Using the Emotional Expression Techniques)

  • 김상길;민용식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.147-155
    • /
    • 2005
  • 본 논문은 여러 가지 감정들 중에서 4가지 감정의 범주 즉, 중성, 두려움, 싫증 및 놀람을 포함한 음성과 감성이 결합되어진 얼굴의 표정을 좀 더 정확하고 자연스러운 3차원 모델로 만들 수 있는 FAES(a Facial Animation with Emotion and Speech) 시스템을 구축하는데 그 주된 목적이 있다. 이를 위해서 먼저 사용할 훈련자료를 추출하고 난후에 감성을 처리한 얼굴 애니메이션에서는 SVM(Support vector machine)[11]을 사용하여 4개의 감정을 수반한 얼굴 표정을 데이터베이스로 구축한다. 마지막으로 얼굴 표정에 감정과 음성이 표현되는 시스템을 개발하는 것이다. 얼굴 표정을 위해서 본 논문에서는 한국인 청년을 대상으로 이루어졌다. 이런 시스템을 통한 결과가 기존에 제시된 방법에 비해서 감정의 영역을 확대시킴은 물론이고 감정인지의 정확도가 약 7%, 어휘의 연속 음성인지가 약 5%의 향상을 시켰다.

  • PDF

모션 텍스처를 이용한 차량 시뮬레이터의 통합 (A Data Driven Motion Generation for Driving Simulators Using Motion Texture)

  • 차무현;한순흥
    • 대한기계학회논문집A
    • /
    • 제31권7호
    • /
    • pp.747-755
    • /
    • 2007
  • To improve the reality of motion simulator, the method of data-driven motion generation has been introduced to simply record and replay the motion of real vehicles. We can achieve high quality of reality from real samples, but it has no interactions between users and simulations. However, in character animation, user controllable motions are generated by the database made up of motion capture signals and appropriate control algorithms. In this study, as a tool for the interactive data-driven driving simulator, we proposed a new motion generation method. We sample the motion data from a real vehicle, transform the data into the appropriate data structure(motion block), and store a series of them into a database. While simulation, our system searches and synthesizes optimal motion blocks from database and generates motion stream reflecting current simulation conditions and parameterized user demands. We demonstrate the value of the proposed method through experiments with the integrated motion platform system.

가상환경에서 저글링 움직임을 효율적으로 처리하기 위한 대칭기반 데이터-드리븐 기법 (Symmetry-Based Data-Driven Method for Efficiently Handling Juggling Motion in Virtual Environments)

  • 김민지;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.367-370
    • /
    • 2024
  • 본 논문에서는 데이터-드리븐 기법을 이용해 가상환경에서 사용자의 동작에 따라 아바타의 저글링 움직임을 자연스럽게 처리할 수 있는 방법을 제안한다. 사용자의 저글링 동작 정보를 이용하여 아바타의 움직임을 제어할 뿐만 아니라 가상 공의 궤적을 실시간으로 표현할 수 있다. 이 과정에서 사용자의 손위치 정보를 모두 활용하는 것이 아닌, 한 쪽 손의 데이터를 기반으로 다른 쪽 손의 궤적을 합성한다. 또한 계산량이 큰 물리 기반 최적화 과정이 아닌, 상대적으로 경량화된 기법인 포물선 운동을 활용해 가상 공의 궤적으로 실시간으로 표현할 수 있는 결과를 보여준다.

  • PDF

데이터 기반보행 제어를 위한 다리 간 충돌 회피 기법 (Avoiding Inter-Leg Collision for Data-Driven Control)

  • 이윤상
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권2호
    • /
    • pp.23-27
    • /
    • 2017
  • 본 논문에서는 기존에 발표되었던 데이터 기반보행제어 기법의 단점을 보완하는 다리 간 충돌 회피 기법을 제안한다. 2010년에 제안된 Lee et. al. 의 데이터 기반 이족 보행 제어 기법 [1]은 경우에 따라 보행 중 두 다리가 서로 교차하는 동작을 만들어내기도 하는데, 이는 실제 사람 혹은 이족 보행 로봇의 보행에서는 실현될 수 없는 동작이다. 본 논문에서는 스윙 힙(swing hip)의 각도를 변경하는 피드백 규칙에 스탠스 레그 (stance leg)와의 충돌을 피할 수 있는 추가적인 각도조절을 도입하여 스윙 풋 (swing foot)이 스탠스 풋 (stance foot)을 지난 이후에만 스탠스 풋보다 안쪽으로 움직일 수 있도록 하는 알고리즘을 제안한다. 이를 통해 기존의 제어기 동작 방식에 최소한의 변경과 추가적인 계산만을 더하여 두 다리가 교차하지 않는 안정적인 보행 결과를 만들어 낼 수 있다.

애니메이션 저작도구를 위한 음성 기반 음향 스케치 (Voice Driven Sound Sketch for Animation Authoring Tools)

  • 권순일
    • 한국콘텐츠학회논문지
    • /
    • 제10권4호
    • /
    • pp.1-9
    • /
    • 2010
  • 애니메이션 캐릭터의 동작을 만들어내기 위해 펜으로 스케치하는 형식의 인터페이스를 이용하는 저작 도구들이 연구되어 왔지만, 아직까지 음향적인 요소에 있어서 직관적인 인터페이스를 사용하여 만들어내는 방법은 연구되지 않았다. 본 논문에서는 사용자가 음향과 대응되는 의성어의 발성을 통하여 표현하면 이에 대응되는 음향샘플이 선택되어 삽입되는 방법을 제안하고자 한다. 일반적으로 사용되는 통계적 모델을 기반으로 하는 패턴인식 방법을 이용하여 의성어 발성만으로 대응되는 음향샘플을 어느 정도 인식할 수 있는지를 실험해본 결과 의성어의 음성샘플을 이용한 경우 최대 97%의 인식률을 얻을 수 있었다. 또한 새로운 음향샘플 등록 시에 발생하는 음성데이터 수집의 어려움을 극복하기 위하여 음성모델을 만드는 대신에 의성어의 음성샘플 하나만 사용하는 GLR Test를 활용해보니 기존의 방법과 거의 대등한 인식률을 실험적으로 확인할 수 있었다.

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법 (Direct Retargeting Method from Facial Capture Data to Facial Rig)

  • 송재원;노준용
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권2호
    • /
    • pp.11-19
    • /
    • 2016
  • 본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.

동작 및 효정 동시 포착을 위한 데이터 기반 표정 복원에 관한 연구 (Data-driven Facial Expression Reconstruction for Simultaneous Motion Capture of Body and Face)

  • 박상일
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.9-16
    • /
    • 2012
  • 본 논문은 광학식 동작 포착 장비를 사용해 얼굴과 동작을 동시에 포착할 경우 발생하는 불완전한 표정 데이터의 복원에 관한 연구를 다룬다. 일반적으로 동작 포착과 표정 포착은 필요 해상도에서 차이가 나며, 이로 인해 동작과 표정을 동시에 포착하기 힘들었다. 본 연구에서는 표정과 동작의 동시 포착을 위해, 기존의 작은 마커를 촘촘히 얼굴에 부착하는 표정 포착 방식에서 탈피하여 적은 수의 마커만을 이용하여 표정을 포착하고, 이로부터 세밀한 얼굴 표정을 복원하는 방법을 제안한다. 본 방법의 핵심 아이디어는 얼굴 표정의 움직임을 미리 데이터베이스화하여, 적은 수의 마커로 표현된 얼굴 표정을 복원하는 것이다. 이를 위해 주성분분석을 사용하였으며, 제안된 기술을 실제 동적인 장면에 활용하여 표정의 복원이 잘 됨을 검증하였다.