• Title/Summary/Keyword: 3차원 아바타

Search Result 84, Processing Time 0.024 seconds

실감형 원격 미팅을 위한 3차원 실사 아바타 생성 기술

  • Jang, Seong-Geol;Kim, Hyeong-Min;Seo, Byeong-Guk;Park, Jong-Il
    • Broadcasting and Media Magazine
    • /
    • v.26 no.3
    • /
    • pp.50-58
    • /
    • 2021
  • 최근 메타버스가 장안의 화제로 떠오르면서 많은 사람들의 관심이 쏠리고 있다. 회사의 공간을 극단적으로 줄이고 메타버스로 출근하는 IT기업들이 생겨나는가 하면, 커리큘럼에 메타버스를 적용한 실습교육을 도입하는 의대가 생기기도 했다. 이처럼 사회 생활 전반에 걸쳐 새로운 혁신을 주는 미래의 먹거리로 도약하고 있지만, 그 구현에 있어서 여전히 해결해야 할 기술적 과제가 존재한다. 본 고에서는 회의 참가자가 자신과 똑같은 3차원 실사 아바타를 통해 원격 미팅에 참여하고 다른 참가자와 상호작용할 수 있도록 구성되는 실감형 원격 미팅 시스템을 소개한다. 특히 가장 핵심적 요소 기술인 실사 아바타를 구현하는 방법에 대해 구체적으로 설명한다.

Implementation of motion recognition 3D avatar to utilize Metabus (메타버스 활용을 위한 동작 인식 3D 아바타 구현)

  • Pyoun, Yukyoung;Kim, Yeonji;Lee, Gyemin
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.301-303
    • /
    • 2021
  • 최근 COVID-19 때문에 교육 및 모임 등 다양한 환경을 비대면으로 진행하고 있다. 이에 따라 메타버스 개념이 새로운 이슈로 주목받고 있다. 본 작품은 메타버스, 즉 3차원 가상공간의 새로운 세계에서 사용자를 대신하여 참여시킬 수 있는 아바타를 제작해 본다. 메타버스를 활용한 사용자의 움직임을 인식하는 3D 아바타는 코로나 사태로 인한 언택트 시대에 매우 유용하게 활용될 수 있을 것이다. 본 논문에서는 사용자가 각종 비대면 미팅에 자신의 아바타를 만들어 참여할 수 있도록 그 아바타를 움직임과 함께 구현하는 과정을 설명한다. 먼저, Kinect를 통해 사용자의 움직임을 받아 유니티를 연동시켜 불러온다. 다음으로 블렌더를 통해 사용자가 원하는 아바타를 제작하고 유니티 환경에서 사용자의 움직임을 실시간으로 반영하는 아바타를 나타낸다. 사용자는 자신의 행동을 그대로 반영시켜주는 3D 아바타를 가상현실 속 화면을 통해 확인할 수 있다.

  • PDF

Generating Face Textures using Real Images (실사 영상을 사용한 얼굴 텍스쳐 생성)

  • Kim, Dong-Hee;Yoon, Jong-Hyun;Park, Jong-Seung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10b
    • /
    • pp.156-161
    • /
    • 2007
  • 본 논문에서는 실사 영상을 사용하여 3차원 아바타의 얼굴 텍스쳐를 생성하는 기법을 제시한다. 먼저 UVW 맵을 기준으로 실사영상에서의 해당 영역을 수동으로 지정해 준다. 그 다음 지정된 영상 영역들을 사용하여 UVW 맵에 해당하는 텍스쳐 영상을 생성한다. 제안된 텍스쳐 생성 기법은 포토샵 등을 사용한 기존의 일반적인 방법에 비해서 수작업 시간을 단축할 수 있으며 실사 영상의 사실감을 높여 준다. 기존의 텍스쳐 생성 절차들은 3차원 모델의 메쉬 구조에 영향을 주었으나, 제안된 방법은 3차원 모델의 메쉬구조를 수정하지 않고도 원하는 형태의 텍스쳐를 생성할 수 있는 장점이 있다. 실제 사람의 모습을 여러각도에서 촬영하여 얻은 영상을 사용하여 주어진 UVW 맵에 적합한 얼굴 텍스쳐를 생성하였다. 생성된 텍스쳐를 사용하여 3차원 아바타를 렌더링한 결과 아바타 얼굴의 사실감이 증가되었음을 알 수 있었다.

  • PDF

Dancing Avatar: You can dance like PSY too (춤추는 아바타: 당신도 싸이처럼 춤을 출 수 있다.)

  • Gu, Dongjun;Joo, Youngdon;Vu, Van Manh;Lee, Jungwoo;Ahn, Heejune
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • fall
    • /
    • pp.256-259
    • /
    • 2021
  • 본 논문에서는 사람을 키넥트로 촬영하여 3 차원 아바타로 복원하여 연예인처럼 춤을 추게 하는 기술을 설계 구현하였다. 기존의 순수 딥러닝 기반 방식과 달리 본 기술은 3 차원 인체 모델을 사용하여 안정적이고 자유로운 결과를 얻을 수 있다. 우선 인체 모델의 기하학적 정보는 3 차원 조인트를 사용하여 추정하고 DensePose를 통하여 정교한 텍스쳐를 복원한다. 여기에 3 차원 포인트-클라우드와 ICP 매칭 기법을 사용하여 의상 모델 정보를 복원한다. 이렇게 확보한 신체 모델과 의상 모델을 사용한 아바타는 신체 모델의 rigged 특성을 그대로 유지함으로써 애니메이션에 적합하여 PSY 의 <강남스타일>과 같은 춤을 자연스럽게 표현하였다. 개선할 점으로 인체와 의류 부분의 좀 더 정확한 분할과 분할과정에서 발생할 수 있는 노이즈의 제거 등을 확인되었다.

  • PDF

Usability verification of virtual clothing system for the production of a 3D avatar reproduced from 3D human body scan shape data - Focusing on the CLO 3D program - (3차원 인체스캔형상을 재현한 3D 아바타 제작을 위한 가상착의 시스템의 활용성 검증 -CLO 3D 프로그램을 중심으로-)

  • Hong, Eun-Hee
    • Journal of the Korea Fashion and Costume Design Association
    • /
    • v.22 no.1
    • /
    • pp.1-13
    • /
    • 2020
  • The purpose of this study is to create a 3D avatar from 3D human body shape data using the CLO 3D virtual clothing program and to verify the feasibility of avatar production using the virtual clothing system for verifying size and shape. The research method was to select one virtual representative model that is the closest to the mean size of each body item for each age group. Using the 3D human body scan shape of a 40-69 years old male was applied to the CLO 3D virtual wearing system. Using the CLO 3D Avatar conversion menu, we verified the feasibility of creating a 3D avatar that reproduces the human body scan shape. In the dimension comparison between the 3D avatar and the fictitious representative model, the dimension difference was noticeable in height, circumference, and length. However, as a result, the converted 3D avatar showed less than a 5% difference in most human dimensions. In addition, since the body shape and posture were reproduced similarly, the utilization of the avatar was verified.

A study on the avatar modelling of Korean 3D facial features in twenties (한국인 20대 안면의 3차원 형태소에 의한 아바타 모델링)

  • Lee, Mi-Seung;Kim, Chang-Hun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.10 no.1
    • /
    • pp.29-39
    • /
    • 2004
  • 사이버상의 의사소통의 도구로 사용되는 아바타나 캐릭터의 3차원 얼굴 모델링에 대한 연구로서 한국인의 안면형태소를 지닌 모델생성으로 인터넷을 즐겨 사용하는 현대인과 청소년들에게 민족적 구체성과 국민적 정체성을 지닌 아바타의 활용에 도움이 되고자 한다. 임의의 20대 남, 녀 각각 40인으로부터 스켄을 하고 머리뼈와 근육 구조를 바탕으로 눈, 코, 눈썹, 뺨, 입, 턱, 아래턱, 이마, 귀 등 각 형태소로 나누고 참조모델을 생성한다. 임의로 생성된 안면형태소 3차원 모델이 한국인의 형상을 갖는지에 관한 평가를 정량적인 치수측정에 의해서 검증 분석하여 입증한다. 이들 안부, 비부, 구순부, 얼굴형의 각 형태소로부터 각 형태소틀 간에 보간 되어 변형된 형태의 형태소 생성이 가능하고, 이 변형 형태소들 간의 임의의 조합된 모델의 안면 생성이 가능하게 한다.

  • PDF

SoMA: A System of Making Avatars based on a Commercial Game Engine (SoMA: 상용 게임엔진 기반의 아바타 생성 시스템)

  • Kim, Byung-Cheol;Roh, Chang Hyun
    • Journal of Digital Convergence
    • /
    • v.15 no.1
    • /
    • pp.373-380
    • /
    • 2017
  • We propose the SoMA(System of Making Avatars) based on a commercial 3D game engine. It first decomposes a given character into assemblable pieces, then gives the user them as prefab components so that he or she can reassemble and/or customize them to be plenty of characters. To accomplish this, it implements the character assembly structure as an hierarchy, the upper levels of which are categorized for gross assembly, and the lower levels of which are parameterized for detailed customization. It also defines a hierarchical naming convention for ease of access to the structure. Finally, it provides body, clothes, and attachment systems to make relevant characters.

Development of 3D Avata Character System using Body Model Deformations (인체 모델 변형을 이용한 3 차원 아바타 캐릭터 시스템 개발)

  • Shin, Gyu-Ha;Chang, Jae-Khun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.649-652
    • /
    • 2001
  • 현재 주류가 되고 있는 아바타 캐릭터는 2D 를 이용한 캐릭터에 코디를 바꾸는 형태가 주를 이루고 있으며, 3D 를 이용한 것 역시 코디를 바꾸는 수준을 벗어나지 못하고 있다. 본 논문에서는 3D 아바타 캐릭터 모델을 구성하고, 이 캐릭터를 데이터 변환기를 통해서 다시 17 개의 신체 부위로 나누게 된다. 각각의 분류된 부위는 높이, 넓이, 두께, 둘레 등으로 변형되어 아바타 캐릭터의 성장을 이끌어내는 시스템을 개발한다. 이를 통해서 원래의 아바타라는 의미에 더 근접한 아바타 캐릭터를 구성할 수 있게 된다.

  • PDF

Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data (모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어)

  • Kim Sung-Ho
    • Journal of Korea Multimedia Society
    • /
    • v.7 no.10
    • /
    • pp.1478-1484
    • /
    • 2004
  • This paper presents a method that controls facial expression in realtime of 3D avatar by having the user select a sequence of facial expressions in the space of facial expressions. The space of expression is created from about 2400 frames of facial expressions. To represent the state of each expression, we use the distance matrix that represents the distances between pairs of feature points on the face. The set of distance matrices is used as the space of expressions. Facial expression of 3D avatar is controled in real time as the user navigates the space. To help this process, we visualized the space of expressions in 2D space by using the Principal Component Analysis(PCA) projection. To see how effective this system is, we had users control facial expressions of 3D avatar by using the system. This paper evaluates the results.

  • PDF

A Study on Realtime Mesh Deformation of 3D Avatar Body (3D 아바타의 실시간 체형 변형에 관한 연구 - 메쉬모핑 기법을 이용한 아바타 및 아이템의 체형변형)

  • Shin, In-Sup
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.688-692
    • /
    • 2008
  • All items from the 3d avatar system should be made to fit the avatar's physical form. However this method is not only a disadvantage in an economical perspective, but also it is difficult to satisfy the client's needs of avatar's variety form. To provide various forms of the avatars, the work load naturally increases. This research is about changing the 3d avatar's body shape based on 3d mesh morphing which allows the 3d avatar with smallest data possible. The result mesh could be generated from source and target mesh with the deformation ratio and all 3d items like hair style, pants, shoes and etc, which was made to fit to basic mesh also could be deformed automatically, to fit them to the result mesh as is. Even if the different physical avatar mesh body such as children style is added to 3d avatar system, it is not necessary to make the 3d avatar items which is fit to the new physical body, New avatar mesh body will be adopted to the 3d avatar system in real time.

  • PDF