• Title/Summary/Keyword: 자연 현상 렌더링

Search Result 14, Processing Time 0.023 seconds

Real-Time Water Surface Simulation on GPU (GPU기반 실시간 물 표면 시뮬레이션)

  • Sung, Mankyu;Kwon, DeokHo;Lee, JaeSung
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.6 no.12
    • /
    • pp.581-586
    • /
    • 2017
  • This paper proposes a GPU based water surface animation and rendering technique for interactive applications such as games. On the water surface, a lot of physical phenomenon occurs including reflection and refraction depending on the viewing direction. When we represent the water surface, not only showing them in real time, but also make them adjusted automatically. In our implementation, we are able to capture the reflection and refraction through render-to-texture technique and then modify the texture coordinates for applying separate DU/DV map. Also, we make the amount of ratio between reflection and refraction change automatically based on Fresnel formula. All proposed method are implemented using OpenGL 3D graphics API.

Motion of Stone Skipping Simulation by Physically-based Analysis (물리기반 해석을 통한 물수제비 운동 시뮬레이션)

  • Do, Joo-Young;Ra, Eun-Chul;Kim, Eun-Ju;Ryu, Kwan-Woo
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.3
    • /
    • pp.147-156
    • /
    • 2006
  • Physically-based simulation modeling is to simulate the real world by using physical laws such as Newton's second law of motion, while other modelings use only geometric Properties. In this paper, we present a real time simulation of stone skipping by using the physically-based modeling. We also describe interaction of a stone on the surface of water, and focus on calculating the path of the stone and the natural phenomena of water The path is decided by velocity of the stone and drag force from the water The motion is recalculated until the stone is immersing into the water surface. Our simulation provides a natural motion of stone skippings in real time. And the motion of stone skippings are generated by give interactive displays on the PC platforms. The techniques presented can easily be extended to simulate other interactive dynamics systems.

An Affective 3D Facial Makeup Simulation Using a Multi-sensory Interaction (다중 감각 인터랙션을 이용한 감성적 3차원 얼굴 메이크업 시뮬레이션)

  • Kim, Jeong-Sik;Kim, Hyeon-Joong;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.500-506
    • /
    • 2007
  • 얼굴에 대한 시각적 인지는 오랫동안 인간에게 중요한 문제로 인식되어 왔다. 수 세기 동안 이루어져 왔던 미용 화장과 성형, 치아 교정 등의 다양한 연구는 사람의 얼굴을 감성적 측면에서 어떻게 하면 아름답게 만들 수 있는 가에 초점을 두었다. 본 논문에서는 휴먼 입출력 인터페이스로서 햅틱 장치와 스테레오 디스플레이를 혼합한 다중 감각 인터랙션 기반의 감성적인 3차원 얼굴 메이크업 시뮬레이션 프레임워크를 개발한다. 본 연구는 3차원 스캐너 장비로부터 사용자의 얼굴 모델을 추출하고, 그 데이터를 이용하여 자연스럽고 직관적인 얼굴 메이크업 시뮬레이션을 수행하는 것을 목표로 하고 있다. 이를 위하여 본 연구에서는 surface elements 표현 기반의 3차원 얼굴 필터링 방법과 얼굴 메이크업을 지원하는 페인팅 방법을 개발한다. 우선 사용자의 얼굴 모델을 3차원 스캐너로 획득한 후, 전처리 얼굴 필터링을 수행하여 조명, 그리고 사용자 얼굴 피부 상태에 기인하는 에러 및 속성들을 보정하고 피부 톤을 사용자가 선호하는 색으로 변경한다. 최종적으로 사용자는 햅틱 및 스테레오 디스플레이 장치를 이용하여 두 개의 레이어로 구성된 페인팅 표면 모델에 메이크업을 수행한다. 본 연구에서 적용한 surface elements 표현 기반의 그래픽 렌더링은 일반적인 메쉬 기반 페인팅의 문제점인 텍스쳐 왜곡 현상을 완화하고, 3차원 스캐너 장치에 기인하는 표면 에러를 보정한다. 그리고 전처리 얼굴 필터링과 메이크업 페인팅 방법은 사용자 중심의 감성적인 3차원 얼굴을 재구성하도록 한다. 결과적으로 본 연구에서 개발한 이러한 기술들이 다중 감각 인터페이스 기반의 메이크업 시뮬레이터의 기본 프레임워크가 되어, 차후 메이크업이나 코디네이션 분야 등의 디지털 콘텐츠 산업에서 활용될 수 있음을 확인하였다.

  • PDF

Methodologies for Enhancing Immersiveness in AR-based Product Design (증강현실 기반 제품 디자인의 몰입감 향상 기법)

  • Ha, Tae-Jin;Kim, Yeong-Mi;Ryu, Je-Ha;Woo, Woon-Tack
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.44 no.2 s.314
    • /
    • pp.37-46
    • /
    • 2007
  • In this paper, we propose technologies for enhancing the immersive realization of virtual objects in AR-based product design. Generally, multimodal senses such as visual/auditory/tactile feedback are well known as a method for enhancing the immersion in case of interaction with virtual objects. By adapting tangible objects we can provide touch sensation to users. A 3D model of the same scale overlays the whole area of the tangible object so the marker area is invisible. This contributes to enhancing immersion. Also, the hand occlusion problem when the virtual objects overlay the user's hands is partially solved, providing more immersive and natural images to users. Finally, multimodal feedback also creates better immersion. In our work, both vibrotactile feedback through page motors, pneumatic tactile feedback, and sound feedback are considered. In our scenario, a game-phone model is selected, by way of proposed augmented vibrotactile feedback, hands occlusion-reduced visual effects and sound feedback are provided to users. These proposed methodologies will contribute to a better immersive realization of the conventional AR system.