• 제목/요약/키워드: 3D Realistic Model

검색결과 236건 처리시간 0.037초

공간정보 기반의 무인비행체 시뮬레이터 지형 구축에 관한 연구 (A Study on Terrain Construction of Unmanned Aerial Vehicle Simulator Based on Spatial Information)

  • 박상현;홍기호;원진희;허용석
    • 한국멀티미디어학회논문지
    • /
    • 제22권9호
    • /
    • pp.1122-1131
    • /
    • 2019
  • This paper covers research on terrain construction for unmanned aerial vehicle simulators using spatial information that was distributed by public institutions. Aerial photography, DEM, vector maps and 3D model data were used in order to create a realistic terrain simulator. A data converting method was suggested while researching, so it was generated to automatically arrange and build city models (vWorld provided) and classification methods so that realistic images could be generated by 3D objects. For example: rivers, forests, roads, fields and so on, were arranged by aerial photographs, vector map (land cover map) and terrain construction based on the tile map used by DEM. In order to verify the terrain data of unmanned aircraft simulators produced by the proposed method, the location accuracy was verified by mounting onto Unreal Engine and checked location accuracy.

2.5D Mapping 모듈과 3D 의복 시뮬레이션 시스템 (2.5D Mapping Module and 3D Cloth Simulation System)

  • 김주리;김영운;정석태;정성태
    • 정보처리학회논문지A
    • /
    • 제13A권4호
    • /
    • pp.371-380
    • /
    • 2006
  • 본 논문은 패션 디자인 분야에서 완성된 의상의 모델 사진을 활용해 다양한 원단(직물)을 직접 Draping함으로써 새로운 디자인을 창출할 수 있고 직접 샘플이나 시제품을 제작하지 않고도 시뮬레이션만으로 의상 작품을 확인 할 수 있다. 또한 모델과 원단 이미지에 대한 데이터베이스를 구축하여 실시간으로 Mapping 결과를 확인할 수 있는 시스템을 구현하였다. 그리고 여기에서 추출되는 시제품을 3D 모델에 입혀 시뮬레이션 할 수 있도록 하기 위한 과정으로 우선 여러 옷감 조각들을 이용하여 가상의 3D 인체 모델에 옷을 입히기 위한 의복 시뮬레이션 시스템을 제안한다. 제안된 시스템은 3D 인체 모델 파일과 2D 재단 패턴 파일을 읽어 들인 다음에 mass-spring model에 기반한 물리적 시뮬레이션에 의해 의복을 착용한 3D 모델을 생성한다. 본 논문의 시스템은 사실적인 시뮬레이션을 위하여 인체 모델을 구성하는 삼각형과 의복을 구성하는 삼각형 사이의 충돌을 검사하고 반응 처리를 수행하였다. 인체를 구성하는 삼각형의 수가 매우 많으므로, 이러한 충돌 검사 빛 반응 처리는 많은 시간을 필요로 한다. 이 문제를 해결하기 위하여, 본 논문에서는 Octree 공간 분할 기법을 이용하여 충돌 검사 및 반응 처리 수를 줄이는 방법을 이용하여 사실적인 영상을 생성할 수 있었고, 수초 이내에 가상 인체 모델에 의복을 입힐 수 있었다.

스커트 3D 모델의 자동 생성과 3D 드래핑 (Automatic Generation and 3D Draping Of the Skirt 3D Models)

  • 최우혁;신승철;최창석;김효숙;강인애
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(4)
    • /
    • pp.61-64
    • /
    • 2001
  • This paper proposes an automatic method for generating and 3D draping the skirt 3D models. The method constructs a 3D basic model of the skirts using elliptic cylinder and generates the various skirt 3D models by controlling the ellipses of the basic model. B-Spline approximates the wrinkles around the ellipse for the various 3D draping changing according to designs and textiles. We make some real skirts and investigate appearances for their drapes. This paper simulates their appearances and obtains good results. Furthermore, adaptation of the skirt 3D model to a personal character implements realistic coordination of the various skirts.

  • PDF

CAD/CAM 모델러용 고급 렌더링 라이브러리의 개발 (Development of Advanced Rendering Library for CAD/CAM Moduler)

  • 최훈규;이태현;한훈
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제5권4호
    • /
    • pp.385-394
    • /
    • 1999
  • 제품을 설계하는 디자이너나 엔지니어는 많은 시간과 노력을 들이지 않고서 그들이 설계한 3차원 제품 모델에 대한 사실적인 이미지를 원한다. 디자인 프로세스의 초기인 개념 설계에서부터 설계검증, 그리고 가공 과정에서 사실적인 이미지가 매우 유용하므로, 대부분의 주요 CAD 제작사는 그들의 CAD 소프트웨어에 고급 렌더링 기능을 추가하고 있다. 상용의 CAD/CAM 모델러에서는 NURB 곡면을 기초로 모델링을 수행하므로, NURB 곡면을 렌더링할 수 있는 패키지가 필요하다. VIF(Visual InterFace) 렌더링 라이브러리는 A-buffer 방식과 Ray tracing 방식의 두 가지 고급 렌더링 모드를 제공한다. 다각형은 물론 NURB 곡면을 입력으로 받아 사용자가 설정한 표면의 각종 계수, 원하는 view와 설정된 광원에 따라 이미지를 만들고 다양한 형태로 출력시킬 수 있는 다양한 기능을 제공한다. 본 논문에서는 VIF 렌더링 라이브러리에 대한 구조와 기능별로 분류된 함수에 대하여 설명하며, 실제로 CAD/CAM 시스템과 통합되어 구상설계에서부터 3차원 설계 모델링에 이르기까지의 제조공정에서 설계검증 툴로써 어떻게 활용되고 있는가에 대하여 기술한다.Abstract Engineers and industrial designers want to produce a realistic-looking images of a 3D model without spending a lot of time and money. Photo-realistic images are so useful from the conceptual design, through its verification, to the machining, that most major CAD venders offer built-in as well as add-on photo-realistic rendering capability to their core CAD software. Since 3D model is consists of a set of NURB surfaces in commercial CAD packages, we need a renderer which handles NURB surface as well as other primitives.A new rendering library called VIF (Visual InterFace) provides two photo-realistic rendering modes: A-buffer and Ray tracing. As an input data it takes NURB surfaces as well as polygonal data and produces images in accordance with the surface parameters, view and lights set by user and outputs image with different formats. This paper describes the overall architecture of VIF and its library functions classified by their functionalities, and discusses how VIF is used as a graphical verification tool in manufacturing processes from the conceptual design to 3D modeling.

Producing a Virtual Object with Realistic Motion for a Mixed Reality Space

  • Daisuke Hirohashi;Tan, Joo-Kooi;Kim, Hyoung-Seop;Seiji Ishikawa
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.153.2-153
    • /
    • 2001
  • A technique is described for producing a virtual object with realistic motion. A 3-D human motion model is obtained by applying a developed motion capturing technique to a real human in motion. Factorization method is a technique for recovering 3-D shape of a rigid object from a single video image stream without using camera parameters. The technique is extended for recovering 3-D human motions. The proposed system is composed of three fixed cameras which take video images of a human motion. Three obtained image sequences are analyzed to yield measurement matrices at individual sampling times, and they are merged into a single measurement matrix to which the factorization is applied and the 3-D human motion is recovered ...

  • PDF

3차원 게임에서의 손쉬운 지형 모델 구현 방법 (Development of a terrain model in 3D Game)

  • 박석희;이희범;김수균;임광혁;안성옥
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.533-534
    • /
    • 2013
  • 컴퓨터 게임에서 눈 덥힌 산이나 계곡 등을 표현하기 위해 지형 모델을 사용하며, 이러한 지형모델은 게임 속에서 캐릭터가 생활하는 공간으로 게임에서 없어서는 안 될 중요한 요소이다. 지형모델의 사실적인 묘사는 게임의 몰입도를 좌우하기 때문에, 현재는 많은 지형 모델 툴을 통하여 만들고 있다. 본 논문에서는 지형 모델을 툴을 이용하지 않고, 3D MAX를 이용하여 누구나 쉽게 제작할 수 있는 방법에 대해 설명한다. 3D MAX는 그래픽 디자이너들에게 많이 쓰이고 있으며, 3D 그래픽 소프트웨어로 유지보수가 쉽다는 장점이 있다. 본 논문에서는 3D MAX를 이용하여 지형 모델을 만들고, 이를 DirectX 환경에서 사용하는 방법에 대해 설명한다.

  • PDF

증강현실에서 객체와 오디오의 상호작용 (Interaction between Object and Audio in Augmented Reality)

  • 조현욱;이종근;이종혁
    • 한국정보통신학회논문지
    • /
    • 제15권12호
    • /
    • pp.2705-2711
    • /
    • 2011
  • 최근 멀티미디어 기술의 발달, 특히 음향 기술의 급격한 발달과 더불어 고품질 오디오에 대한 요구와 함께보다 현실감 있는 오디오를 재생하기 위한 실감 오디오기술 개발이 요구되고 있다. 이러한 요구를 만족시키기 위해 사용자의 가상현실 및 증강현실에서 실감나는 오디오 효과를 제공해 줄 수 있는 3차원 오디오에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 증강현실에서 좀 더 나은 오디오 기술을 적용하여 실감나는 오디오 효과를 제공해 줄 수 있는 방법을 연구하고자 하였다. 연구한 내용은 가상세계와 실제세계의 현실감을 제공하기 위하여 마커 위에 띄워진 3D 모델의 움직임에 따라서 움직임에 맞는 사운드. 즉, 거리, 각도 등의 변화에 따른 사운드의 크기 및 피치 변화를 줄 수 있도록 하였다.

Extraction and 3D Visualization of Trees in Urban Environment

  • Yamagishi, Yosuke;Guo, Tao;Yasuoka, Yoshifumi
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.1174-1176
    • /
    • 2003
  • Recently 3D city models are required for many applications such as urban microclimate, transportation navigation, landscape planning and visualization to name a few. The existing 3D city models mostly target on modeling buildings, but vegetation also plays an important role in the urban environment. To represent a more realistic urban environment through the 3D city model, in this research, an investigation is conducted to extract the position of trees from high resolution IKONOS imagery along with Airborne Laser Scanner data. Later, a tree growth model is introduced to simulate the growth of trees in the identified tree-positions.

  • PDF

A 3D Audio-Visual Animated Agent for Expressive Conversational Question Answering

  • Martin, J.C.;Jacquemin, C.;Pointal, L.;Katz, B.
    • 한국정보컨버전스학회:학술대회논문집
    • /
    • 한국정보컨버전스학회 2008년도 International conference on information convergence
    • /
    • pp.53-56
    • /
    • 2008
  • This paper reports on the ACQA(Animated agent for Conversational Question Answering) project conducted at LIMSI. The aim is to design an expressive animated conversational agent(ACA) for conducting research along two main lines: 1/ perceptual experiments(eg perception of expressivity and 3D movements in both audio and visual channels): 2/ design of human-computer interfaces requiring head models at different resolutions and the integration of the talking head in virtual scenes. The target application of this expressive ACA is a real-time question and answer speech based system developed at LIMSI(RITEL). The architecture of the system is based on distributed modules exchanging messages through a network protocol. The main components of the system are: RITEL a question and answer system searching raw text, which is able to produce a text(the answer) and attitudinal information; this attitudinal information is then processed for delivering expressive tags; the text is converted into phoneme, viseme, and prosodic descriptions. Audio speech is generated by the LIMSI selection-concatenation text-to-speech engine. Visual speech is using MPEG4 keypoint-based animation, and is rendered in real-time by Virtual Choreographer (VirChor), a GPU-based 3D engine. Finally, visual and audio speech is played in a 3D audio and visual scene. The project also puts a lot of effort for realistic visual and audio 3D rendering. A new model of phoneme-dependant human radiation patterns is included in the speech synthesis system, so that the ACA can move in the virtual scene with realistic 3D visual and audio rendering.

  • PDF

A Vision-based Approach for Facial Expression Cloning by Facial Motion Tracking

  • Chun, Jun-Chul;Kwon, Oryun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제2권2호
    • /
    • pp.120-133
    • /
    • 2008
  • This paper presents a novel approach for facial motion tracking and facial expression cloning to create a realistic facial animation of a 3D avatar. The exact head pose estimation and facial expression tracking are critical issues that must be solved when developing vision-based computer animation. In this paper, we deal with these two problems. The proposed approach consists of two phases: dynamic head pose estimation and facial expression cloning. The dynamic head pose estimation can robustly estimate a 3D head pose from input video images. Given an initial reference template of a face image and the corresponding 3D head pose, the full head motion is recovered by projecting a cylindrical head model onto the face image. It is possible to recover the head pose regardless of light variations and self-occlusion by updating the template dynamically. In the phase of synthesizing the facial expression, the variations of the major facial feature points of the face images are tracked by using optical flow and the variations are retargeted to the 3D face model. At the same time, we exploit the RBF (Radial Basis Function) to deform the local area of the face model around the major feature points. Consequently, facial expression synthesis is done by directly tracking the variations of the major feature points and indirectly estimating the variations of the regional feature points. From the experiments, we can prove that the proposed vision-based facial expression cloning method automatically estimates the 3D head pose and produces realistic 3D facial expressions in real time.