• 제목/요약/키워드: 3D 얼굴 모델링

검색결과 68건 처리시간 0.026초

인체 해부학을 바탕으로 한 3D 캐릭터 애니메이션 제작방법에 관한 연구 (A Study on 3D Character Animation Production Based on Human Body Anatomy)

  • 백승만
    • 디자인학연구
    • /
    • 제17권2호
    • /
    • pp.87-94
    • /
    • 2004
  • 3D 캐릭터 애니메이션은 영화, 광고, 게임, 사이버아이돌 등 다양한 엔터테인먼트 요소로 하여 영상산업에서 중요한 위치를 차지하고 있다. 기술적인 발달로 3D 캐릭터 애니메이션은 다양한 연출과 사실적인 표현이 가능하였지만 인체 해부학적 이해가 없이 캐릭터를 제작한다면 비례와 구조에 맞지 않은 캐릭터가 제작되어 진다. 인체 해부학은 신체구조를 해부학으로 분석하여 캐릭터 모델링 제작에 많은 도움을 주고, 캐릭터 애니메이션을 제작할 때도 신체 움직임이나 얼굴표정을 정밀하게 제작할 수 있는 기본 지식이라 할 수 있다. 이에 본고에서는 인체의 구조와 인체의 비례를 살펴보고 인체 해부학적 이해를 바탕으로 3D 캐릭터 모델링과 애니메이션 제작방법에 중점을 두었다.

  • PDF

Photoscan 방식의 살시적인 페이셜 모델링 및 렌더링 제작 방법 (Photoscan method for Achieving the Photorealistic Facial Modeling and Rendering)

  • 장치;푸린웨이;지앙하이타오;길운;굴림;윤태수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2018년도 춘계 종합학술대회 논문집
    • /
    • pp.51-52
    • /
    • 2018
  • 사실감 있는 디지털 캐릭터를 만드는 것은 3D 영역에서 가장 어려운 도전 중에 하나이다. 특히 얼굴의 특징을 만들기 어렵기 때문에 얼굴포착기술이 점점 보편화되어가고 있다. 본문에서도 Photo Scan의 얼굴포착으로 고품질의 디지털 캐릭터 모델을 얻는 방법을 제시하였다. 이 방법은 시간을 단축시킬 수 있을 뿐 아니라 효율이 높아서 이 작업 과정이 고품질의 디지털 캐릭터 모델을 얻는 데 매우 유용하다.

  • PDF

깊이 이미지 이용한 페이셜 애니메이션 제작 방법 (Facial animation production method based on depth images)

  • 푸린웨이;지앙하이타오;길운;굴림;윤태수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2018년도 춘계 종합학술대회 논문집
    • /
    • pp.49-50
    • /
    • 2018
  • 본 논문은 깊이 이미지 이용한 페이셜 애니메이션 제작 방법을 소개한다. iPhone X의 true depth카메라를 사용하여 사람 얼굴의 심도를 정확하게 파악하고, 균등하게 분산된 도트를 통해 얼굴의 모든 표정변화를 모바일 데이터로 기록하여, 페이셜 애니메이션을 제작하는 제작한다. 본문에서의 방식은, 기존 페이셜 애니메이션 제작 과정에서의 rigging 부분을 생략하여, 기록된 얼굴 표정 데이터를 3D 모델링에 바로 전달할 수 있다. 이런 방식을 통해 전체 페이셜 애니메이션 제작 과정을 단축시켜, 제작 방법을 더욱 간단하고 효율적이게 하였다.

  • PDF

스테레오 입체음향을 위한 머리 움직임 추정 (A Tracking of Head Movement for Stereophonic 3-D Sound)

  • 김현태;이광의;박장식
    • 한국멀티미디어학회논문지
    • /
    • 제8권11호
    • /
    • pp.1421-1431
    • /
    • 2005
  • 입체음향을 구현하는 방법은 두 가지가 있으며, 5.1 채널과 같은 서라운드 시스템(surround system)을 이용하는 방법과 2 채널의 바이노럴 시스템(binaural system)을 이용하는 방법이 있다. 바이노럴 시스템은 사람이 두 귀를 이용하여 음상을 정위하는 원리를 이용하는 방법이다. 일반적으로 라우더 스피커 시스템에서 각 채널사이에 발생하는 크로스토크(crosstalk)는 본래의 입체음향을 재생하기 위해서는 제거되어야만 한다. 이 문제를 해결하기 위해서는 머리의 움직임을 추정할 필요가 있다. 본 논문에서는 청취자의 머리 움직임을 제대로 추정하는 새로운 알고리즘을 제안한다. 제안하는 알고리즘은 얼굴과 눈의 영역 검출을 기본으로 한다. 얼굴 검출은 이미지의 밝기 값을 이용하고 눈 검출은 수학적 형태학(mathematical morphology)을 이용한다. 청취자의 머리가 움직일 때 얼굴 영역과 눈 사이의 경계선의 길이가 변한다. 이 정보를 이용하여 머리 움직임을 추정한다. 컴퓨터 시뮬레이션을 통해 제안하는 알고리즘이 +10오차 범위 내에서 머리의 움직임을 효율적으로 추정하는 것을 확인하였다.

  • PDF

MAYA를 이용한 3D게임 캐릭터 디자인 (A 3D Game Character Design Using MAYA)

  • 류창수;허창우
    • 한국정보통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.1333-1337
    • /
    • 2011
  • 스마트폰 환경에서 하드웨어인 폰(Phone)은 CPU 처리 속도 향상, 3D 엔진 탑재, 가용량 메모리 확대 등으로 인하여 차세대 스마트폰 게임 시장이 활발하게 떠오르고 있다. 또한 3D 게임 캐릭터설정에 있어서, 작은 스마트폰 화면에서 사실적이고 자유로운 애니메이션이 중요한 부분이 되고 있다. 본 연구에서는 캐릭터 설정과 스마트폰에서 효과적으로 3D 게임 캐릭터가 체감을 유발할 수 있는 조작 방법으로, MAYA를 활용하여 NURBS 데이터로 눈에서 코 그리고 입으로 얼굴을 완성하고, Polygon Cube tool로 손과 발을 모델링하였다. 그리고 하나의 큐브를 반으로 나누어 모델링 한 후 mirror 복사를 통해서 바디의 전체를 완성시켜 로우폴리곤 모델링하였다. 그 다음 사실감 있고 자연스러운 캐릭터를 모델링하기 위해 ZBrush로 디테일 완성하고 Divide의 레벨을 4까지 적용하였다. 다소 거칠거나 과장된 형태일지라도 들어갈 곳과 나올 곳 등을 표현해가며 Smooth 브러시 효과로 부드럽게 표현하고 매핑하여 로우폴리곤 3D 캐릭터를 설계하였다.

MAYA를 이용한 3D게임 캐릭터 디자인 (A 3D Game Character Design Using MAYA)

  • 류창수;허창우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.300-303
    • /
    • 2011
  • 스마트폰 환경에서 하드웨어인 폰(Phone)은 CPU 처리 속도 향상, 3D 엔진 탑재, 가용량 메모리 확대 등으로 인하여 차세대 스마트폰 게임 시장이 활발하게 떠오르고 있다. 또한 3D 게임 캐릭터설정에 있어서, 작은 스마트폰 화면에서 사실적이고 자유로운 애니메이션이 중요한 부분이 되고 있다. 본 연구에서는 캐릭터 설정과 스마트폰에서 효과적으로 3D 게임 캐릭터가 체감을 유발할 수 있는 조작 방법으로, MAYA를 활용하여 NURBS 데이터로 눈에서 코 그리고 입으로 얼굴을 완성하고, Polygon Cube tool로 손과 발을 모델링하였다. 그리고 하나의 큐브를 반으로 나누어 모델링 한 후 mirror 복사를 통해서 바디의 전체를 완성시켜 로우폴리곤 모델링하였다. 그 다음 사실감 있고 자연스러운 캐릭터를 모델링하기 위해 ZBrush로 디테일 완성하고 Divide의 레벨을 4까지 적용하였다. 다소 거칠거나 과장된 형태일지라도 들어갈 곳과 나올 곳 등을 표현해가며 Smooth 브러시 효과로 부드럽게 표현하고 매핑하여 로우폴리곤 3D 캐릭터를 설계하였다.

  • PDF

Skeleton Joints 기반 행동 분류 모델 설계 (Design of Behavioral Classification Model Based on Skeleton Joints)

  • 조재현;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.1101-1104
    • /
    • 2019
  • 키넥트는 RGBD 카메라로 인체의 뼈대와 관절을 3D 공간에서 스켈레톤 데이터수집을 가능하게 해주었다. 스켈레톤 데이터를 활용한 행동 분류는 RNN, CNN 등 다양한 인공 신경망으로 접근하고 있다. 본 연구는 키넥트를 이용해서 Skeleton Joints를 수집하고, DNN 기반 스켈레톤 모델링 학습으로 행동을 분류한다. Skeleton Joints Processing 과정은 키넥트의 Depth Map 기반의 Skeleton Tracker로 25가지 Skeleton Joints 좌표를 얻고, 학습을 위한 전처리 과정으로 각 좌표를 상대좌표로 변경하고 데이터 수를 제한하며, Joint가 트래킹 되지 않은 부분에 대한 예외 처리를 수행한다. 스켈레톤 모델링 학습 과정에선 3계층의 DNN 신경망을 구축하고, softmax_cross_entropy 함수로 Skeleton Joints를 집는 모션, 내려놓는 모션, 팔짱 낀 모션, 얼굴을 가까이 가져가는 모션 해서 4가지 행동으로 분류한다.

FACS 기반을 둔 3D 얼굴 모델링 (3D Face Modeling based on FACS (Facial Action Coding System))

  • 오두식;김유성;김재민;조성원;정선태
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2008년도 하계종합학술대회
    • /
    • pp.1015-1016
    • /
    • 2008
  • In this paper, the method which searchs a character of face and transforms it by FACS(Facial Action Coding System) for face modeling is suggested. FACS has a function to build an expression of face to AUs(Action Units) and make various face expressions. The system performs to find accurate Action Units of sample face and use setted AUs. Consequently it carries out the coefficient for transforming face model by 2D AUs matching.

  • PDF

거울 투영 이미지를 이용한 3D 얼굴 표정 변화 자동 검출 및 모델링 (Automatic 3D Facial Movement Detection from Mirror-reflected Multi-Image for Facial Expression Modeling)

  • 경규민;박민용;현창호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.113-115
    • /
    • 2005
  • This thesis presents a method for 3D modeling of facial expression from frontal and mirror-reflected multi-image. Since the proposed system uses only one camera, two mirrors, and simple mirror's property, it is robust, accurate and inexpensive. In addition, we can avoid the problem of synchronization between data among different cameras. Mirrors located near one's cheeks can reflect the side views of markers on one's face. To optimize our system, we must select feature points of face intimately associated with human's emotions. Therefore we refer to the FDP (Facial Definition Parameters) and FAP (Facial Animation Parameters) defined by MPEG-4 SNHC (Synlhetic/Natural Hybrid Coding). We put colorful dot markers on selected feature points of face to detect movement of facial deformation when subject makes variety expressions. Before computing the 3D coordinates of extracted facial feature points, we properly grouped these points according to relative part. This makes our matching process automatically. We experiment on about twenty koreans the subject of our experiment in their late twenties and early thirties. Finally, we verify the performance of the proposed method tv simulating an animation of 3D facial expression.

  • PDF

발화속도를 고려한 3차원 얼굴 모형의 퍼지 모델 기반 립싱크 구현 (Human-like Fuzzy Lip Synchronization of 3D Facial Model Based on Speech Speed)

  • 박종률;최철완;박민용
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 춘계학술대회 학술발표 논문집 제16권 제1호
    • /
    • pp.416-419
    • /
    • 2006
  • 본 논문에서는 음성 속도를 고려한 새로운 립싱크 방법에 대해서 제안한다. 실험을 통해 구축한 데이터베이스로부터 음성속도와 입모양 및 크기와의 관계를 퍼지 알고리즘을 이용하여 정립하였다. 기존 립싱크 방법은 음성 속도를 고려하지 않기 때문에 말의 속도와 상관없이 일정한 입술의 모양과 크기를 보여준다. 본 논문에서 제안한 방법은 음성 속도와 입술 모양의 관계를 적용하여 보다 인간에 근접한 립싱크의 구현이 가능하다. 또한 퍼지 이론을 사용함으로써 수치적으로 정확하게 표현할 수 없는 애매한 입 크기와 모양의 변화를 모델링 할 수 있다. 이를 증명하기 위해 제안된 립싱크 알고리즘과 기존의 방법을 비교하고 3차원 그래픽 플랫폼을 제작하여 실제 응용 프로그램에 적용한다.

  • PDF