• Title/Summary/Keyword: 3차원 아바타

Search Result 84, Processing Time 0.024 seconds

Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data (모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.7 no.3
    • /
    • pp.9-16
    • /
    • 2007
  • This paper describe methodology that is distributed on 2-dimensional plane to much high-dimensional facial motion datas using Isomap algorithm, and user interface techniques to control facial expressions by selecting expressions while user navigates this space in real-time. Isomap algorithm is processed of three steps as follow; first define an adjacency expression of each expression data, and second, calculate manifold distance between each expressions and composing expression spaces. These facial spaces are created by calculating of the shortest distance(manifold distance) between two random expressions. We have taken a Floyd algorithm for it. Third, materialize multi-dimensional expression spaces using Multidimensional Scaling, and project two dimensions plane. The smallest adjacency distance to define adjacency expressions uses Pearson Correlation Coefficient. Users can control facial expressions of 3-dimensional avatar by using user interface while they navigates two dimension spaces by real-time.

A Virtual World Communication Framework Using Avatar Spatial Information (아바타의 공간 정보를 이용한 가상세계 커뮤니케이션 프레임워크)

  • Park, Soo-Hyun;Ji, Seung-Hyun;Ryu, Dong-Sung;Cho, Hwan-Gue
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.35 no.12
    • /
    • pp.552-559
    • /
    • 2008
  • Computing technologies are extending the means by which people communicate. Especially, virtual worlds have recently become successful, due to rapidly improving Information Technologies. Chat is a crucial function in current virtual worlds. We need a realistic and efficient communication framework for multi-agents participating in a virtual world. The main contribution of our work is twofold. First, we propose a realistic communication framework which enables 'Complete Talk' and 'Partial Talk' in terms of spatial relationships between avatar agents. Second, our system reconstructs a dialogue graph which maintains all transcripts in the form of directed graphs with temporal(dialogue sequences) and spatial information(physical positions) about communicating agents.

A Design and Implementation of Multi-Avatar Routing System on 3D Virtual Space (3차원 가상공간에서의 Multi-Avatar 중계시스템의 설계 및 구현)

  • 허도영;전영훈;여인국;황대훈
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 1998.10a
    • /
    • pp.161-167
    • /
    • 1998
  • 오늘날 네트워크 기술의 발전과 인터넷 보급이 대중화됨에 따라, 가상현실 기술로 구축된 인터넷상의 가상공간에 3차원 가상현실 기술을 접목하므로서, 가상현실이 제공하는 몰입감과 임장감을 체험하고 원거리의 네티즌과 동일한 가상환경을 공유하면서 상대방의 움직임과 동적 위치를 확인하고 의사 전달을 수행하고자 하는 요구가 발생하고 있다. 현재의 인터넷상에서의 웹은 HTML문서에 기반을 둔 정적인 2차원의 정보만을 제공하고 있다. 그러나 이러한 2차원의 인터넷에서도 3차원 정보를 표현할 수 있는 수단을 제공하는 VRML이 등장하였다. 이에 본 논문에서는 이 언어로 표현된 3차원 가상공간에서의 사용자간 이벤트를 중계하는 이벤트 중계 서버와 중계 서버들을 관리하는 위치 서버, 그리고 이들 서버와 통신하는 클라이언트와 인터넷상의 다른 세계를 관리할 수 있는 모듈을 설계하고 구현하였다. 또한 이를 통하여 가상공간에 참여하는 사용자를 나타내는 분신인 아바타를 통하여 각자의 가상공간을 체험하고 다른 참여자와 대화할 수 있는 시스템을 구현하였다.

  • PDF

Facial Expression Control of 3D Avatar using Motion Data (모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어)

  • Kim Sung-Ho;Jung Moon-Ryul
    • The KIPS Transactions:PartA
    • /
    • v.11A no.5
    • /
    • pp.383-390
    • /
    • 2004
  • This paper propose a method that controls facial expression of 3D avatar by having the user select a sequence of facial expressions in the space of facial expressions. And we setup its system. The space of expression is created from about 2400 frames consist of motion captured data of facial expressions. To represent the state of each expression, we use the distance matrix that represents the distances between pairs of feature points on the face. The set of distance matrices is used as the space of expressions. But this space is not such a space where one state can go to another state via the straight trajectory between them. We derive trajectories between two states from the captured set of expressions in an approximate manner. First, two states are regarded adjacent if the distance between their distance matrices is below a given threshold. Any two states are considered to have a trajectory between them If there is a sequence of adjacent states between them. It is assumed . that one states goes to another state via the shortest trajectory between them. The shortest trajectories are found by dynamic programming. The space of facial expressions, as the set of distance matrices, is multidimensional. Facial expression of 3D avatar Is controled in real time as the user navigates the space. To help this process, we visualized the space of expressions in 2D space by using the multidimensional scaling(MDS). To see how effective this system is, we had users control facial expressions of 3D avatar by using the system. As a result of that, users estimate that system is very useful to control facial expression of 3D avatar in real-time.

Computer Generated Hologram : Recoding and Reconstruction (컴퓨터 홀로그램의 생성 및 복원)

  • Yang, Yun-Mo;Oh, Byung Tae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.261-263
    • /
    • 2014
  • 최근 영화 <아바타>를 필두로 영화, 방송 등 영상매체에서 다양하게 3 차원 영상기술을 적용하고 있는 추세이다. 본 논문에서는 여러 가지 3 차원 영상 기술 중에서 가장 현실감이 높은 기술인 홀로그래피 (Holography)기술에 대하여 다루고자 한다. 우선 간략하게 홀로그래피 기술에 대하여 소개하고 홀로그램(Hologram)의 기록 및 복원 원리와 컴퓨터를 이용하여 홀로그래피 이미지를 만드는 컴퓨터 홀로그램 (Computer-generated hologram)에 대하여 기술하였으며, 범용 컴퓨터와 GPU(Graphics processing units)통해 컴퓨터 홀로그램 패턴을 기록 및 복원하는 실험을 진행해 보고, 시간 복잡도를 측정, 비교해 본다.

  • PDF

Design and Implementation of A 3D Virtual Environment Engine for Collaboration (다중 사용자의 공동 작업을 위한 3차원 가상 환경 기반 설계 및 구현)

  • 김종석;이진상;최윤철
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.11a
    • /
    • pp.441-446
    • /
    • 2001
  • 본 논문에서는 다중 사용자간의 상호 작용과 공동 작업을 가능하게 하는 3차원 그래픽 기반의 가상 현실 시스템 모듈의 설계에 관하여 제안하였다. 본 논문에서 제안하는 시스템은 3차원 가상 공간을 기반으로 하여 네트워크를 통한 다중 사용자의 참여와 참여자간의 인터렉션을 가능하게 하는 기반 시스템이라고 할 수 있다. 본 시스템은 클라이언트-서버 모델을 기본으로 하여 구성되었으며, 인증/보안, 분산 처리, 데이터베이스, 객체와 지역관리, 전송 데이터 압축, 동적인 Scene Graph 구성 등 여러 가지 세부 모듈이 복합적으로 사용되었다. 개발된 시스템은 3차원 가상 공간상에서 자신의 아바타를 자유롭게 조작, 네비게이션할 수 있으며, 다른 사용자들의 움직임을 실시간으로 관찰할 수 있다. 향후, 시스템에 여러 가지 모듈을 추가하여 확장하게 되면 교육, 다중 사용자들의 공동 작업, 게임, 3차원 기반의 커뮤니티 형성 등 다양한 분야에 응용될 수 있을 것이다.

  • PDF

Development of Emotional Expression Assessment System and a Clinical Pilot Test (감정표현 평가 시스템 개발 및 실험적 적용)

  • Han, Ki-Wan;Kim, Kwang-Uk;Ku, Jeong-Hun;Jang, Hee-Jeong;Park, Jun-Young;Kim, In-Young;Kim, Jae-Jin;Kim, Chan-Hyung;Kim, Sun-I.
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1099-1106
    • /
    • 2006
  • 정신질환자들은 자기감정을 표현하는 능력의 결손을 보인다. 이러한 자기 감정표현기술은 정신질환자들을 위한 사회기술훈련 (Social Skill Training) 과정 중 하나로서 정상적인 사회생활로의 복귀를 위해 반드시 필요하다. 지금까지의 자기감정표현 훈련 및 평가 방법은 치료자 능력의 차이에 따른 주관적 판단이 개입될 수 있다는 문제점을 가지고 있다. 가상현실 (Virtual Reality)은 컴퓨터를 이용한 최신의 방법으로, 최근 자폐증이나 공포증 등의 정신질환 분야에도 적용되고 있다. VR 을 사용하면 상호작용을 할 수 있고, 다양한 환경과 자극을 제시할 수 있으며, 3 차원 랜더링을 통해 몰입감을 제공할 수 있다. 또한 저장된 파라미터들을 바탕으로 객관적 판단을 할 수 있는 기준을 제시할 수 있으며, 안전하고 시간과 공간적 제약이 적은 환경 내에서 과제를 수행할 수 있다. 이에 본 연구에서는 자기감정표현기술의 객관적 평가를 위한 가상현실 시스템을 개발하고 정신분열증 환자와 정상인을 대상으로 실험을 진행하였다. 가상현실은 크게 긍정적 상황과 부정적 상황으로 이루어 지는데 집, 카페, 빵집, 길거리 등 다양한 환경에서 가족, 친구, 직장동료 등의 아바타가 실험 참가자에게 말을 건네고 참가자는 적절한 시기에 자신의 감정표현을 하도록 구성하였다. 실험을 하면서 정서 (긍정적 상황 Vs. 부정적 상황)에 따른 자기감정표현에 대한 파라미터로서 아바타가 말하는 동안 참가자가 아바타의 말에 주목을 하는 정도 (아바타가 말하는 동안 참가자가 아바타의 얼굴을 쳐다보는 시간)와 자기감정을 표현을 하는 시간 (아바타의 말이 끝난 후 감정표현을 시작하는 시간과 감정표현시간)과 상대방 아바타를 주목하는 정도 (참가자가 자기감정을 표현하는 중 아바타를 쳐다보는 시간) 등을 측정하였다. 측정결과 정상인이 정신분열병 환자에 비해 아바타를 주목하는 시간이나 자기감정표현을 하는 시간이 더 긴 경향이 있었다. 또한 부정적 상황에서 정신분열병 환자와 정상인 모두가 긍정적 상황에 비해 말하는 아바타에 더 잘 주목하였고, 자기감정을 표현하는 시간도 더 긴 것을 확인 하였다. 따라서 본 연구에서 도출된 파라미터는 실험 참가자의 자기감정표현의 정도를 객관적으로 나타낼 수 있을 것으로 생각된다. 또한 정신분열병 환자의 자기 감정표현능력을 측정하는 도구로 사용될 수 있을 것으로 생각된다.

  • PDF

A New Chatting System with Practical Constraints based on Virtual Space (현실적 제약사항을 고려한 가상공간 기반의 새로운 채팅 시스템)

  • Ji, Seung-Hyun;Chung, WooKeun;Cho, Hwan-Gue
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.204-207
    • /
    • 2009
  • 채팅 프로그램은 인터넷에서 중요한 기능을 담당하고 있다. 오늘날 많은 사람들이 인터넷에서 채팅을 하고 있다. 이러한 채팅 기능 중 가장 중요하다고 할 수 있는 하나의 기능은 대화 기록을 관리하고 대화의 내용(질문/답변)을 어떻게 일치시키고 저장할 것인가이다. 이러한 문제를 해결하기 위해 많은 방법들이 제시되었지만, Enter-Key를 이용한 채팅의 특성상 이 문제를 완벽히 해결하기에는 역부족이였다. 현재 인터넷 환경은 3차원으로 점차 변화하고 있으며 따라서 채팅 또한 3차원의 가상현실 환경으로 변화하고 있다. 3차원의 채팅은 화려한 그래픽과 아바타를 이용하여 현실과 같은 다양한 컨탠츠를 제공하고 있다. 그러나 대부분의 3차원 채팅 서비스들이 채팅 부분에서는 현실감을 떨어뜨리는 기존의 텍스트 방식을 사용하고 있으며, 관리 방법 또한 전무하다. 본 논문에서는 3차원 공간 정보를 활용하여 실제성을 고려한 채팅 시스템을 제안하고, 이를 이용하여 대화 기록을 효율적으로 관리, 가시화 방법을 제안한다.

Image-based 3D Face Modeling (영상기반 3차원 얼굴 모델링)

  • 민경필;전준철;박구락
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04c
    • /
    • pp.169-171
    • /
    • 2003
  • 현실감 있는 얼굴 모델을 생성하기 위한 방법은 70년대부터 계속되었지만, 얼굴 구조의 복잡성, 색상과 텍스처의 다양한 분포, 잔주름과 같은 미세한 부분을 표현하기 어렵다는 정들로 인해 아직까지도 계속 연구되어지고 있다. 본 논문은 기존의 하드웨어 의존적인 3차원 얼굴 모델을 생성 방법이 아닌 2차원 얼굴 영상만으로 얼굴 모델을 생성하는 방법을 제시한다. 연구 수행 단계는 크게 얼굴 영역 검출 과정과 얼굴 모델링 과정으로 나뉘어지며, 얼굴 영역 검출을 위해 정규화된 TS 색상값과 얼굴의 피부색에 대한 평균과 공분산을 이용한 마할라노비스 거리 측정법을 이용한다. 얼굴 모델링 과정에서는 2차원 영상으로부터 3차원 정보를 추출한 뒤 일반 얼굴 모델에 변형을 주어 모델을 생성한다. 보다 현실감 있는 모델을 생성하기 위해 텍스쳐 매핑 기법을 추가한다. 본 연구를 통해 생성되는 얼굴 모델은 아바타 생성, 화상회의, 인증 시스템과 같은 분야에 적용 가능하며, 입력 영상에 대한 제약점을 줄이고 또한 사람의 손이 거치지 않고 전체적으로 자동화되어 처리할 수 있는 시스템을 제안한다.

  • PDF

Generation Method of Expression Space for Realtime Facial Expression Control of 3D Avatar (3차원 아바타의 실시간 얼굴표정제어를 위한 표정공간의 생성방법)

  • Kim Sung-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.109-111
    • /
    • 2006
  • 본 논문은 애니메이터로 하여금 얼굴 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정을 실시간적으로 제어할 수 있도록 하기 위한 표정공간의 생성방법에 관하여 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정이 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 한 표정에서 다른 표정까지 거쳐 갈 수 있는 경로를 캡쳐된 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정 제어는 애니메이터들이 표정공간을 항해할 때 실시간적으로 수행된다. 이를 도와주기 위해 표정공간을 차원 스케일링 기법을 이용하여 2차원 공간으로 가시화하였고, 애니메이터들로 하여금 본 시스템을 사용하여 실시간 표정 제어를 수행하게 했는데, 본 논문은 그 결과를 평가한다.참여하는 빈들 간의 관계를 분석하여 워크플로우에 대한 성능 측정이 가능하도록 한다. 또한 제안된 메트릭을 통하여 EJB 어플리케이션의 성능 향상을 도모할 수 있도록 한다.로 표면 위로 자라났고, 부종은 창상 밑 조직까지 감소하였으며, 육아조직은 교원질 섬유로 대체되었다. 창상 유발 21일 후, 다른 창상에 비해, HG 처치창은 유의적으로 창상 표면이 거의 재생성 상피로 덮였으며, 육아조직은 창상 유발 14일 후와 비교해서 유의적으로 교원질 섬유로 대체되었다. 위의 모든 결과에서 보듯이, 개에서 전층피부 창상의 처치 시 HG의 사용은 HC와 생리 식염수에 비해 창상치유 복구기의 치유 속도를 촉진하는 것으로 사료된다.시범학교의 자녀를 들 부모들은 환경관련문제에 대한 의식 및 환경관련 제품에 대한 구매행동의 변화가 두드러지게 나타났다.EX>$d^{2+}$ + SA처리구는 두 화합물의 이중 효과에 의해 전반적인 생리 활성을 억제하여, 결국에는 식물의 고사를 유도하는 것으로 사료된다.목에 대한 보안'이 가장 중요한 것으로 나타났다. 본 연구에서는 솔루션 선정요인에 관한 중요도를 e-마켓플레이스의 유형과 산업 별로 평가해보았는데, 여기에서 밝혀진 중요도를 통해 e 마켓플레이스를 구축하고 자 하는 기업은 솔루션을 자체 개발하거나 구입할 때 올바른 의사결정을 할 수 있다. 그리고 솔루션을 제공하려는 기업측면에서는 e-마켓플레이스를 구축하고자 하는 기업에게 유형과 산업별로 적절한 솔루션을 제공할 수 있다.순환이 뇌대사 및 수술 후 신경학적 결과에 보다 유익한 효과를 제공해 줄 수 있음

  • PDF