• 제목/요약/키워드: Virtual viewpoint image

검색결과 49건 처리시간 0.023초

효과적인 사이버 쇼핑몰을 위한 VP 데이타베이스 지원 (VP Database Support for a More Efficient Cyber Shopping Mall)

  • Lim, Jaeguk;Kang, Hyunchul;Han, Sangyong
    • 정보기술과데이타베이스저널
    • /
    • 제8권1호
    • /
    • pp.1-11
    • /
    • 2001
  • More and more cyber shopping malls, one of the new promising Internet businesses of today, are opening business everyday. And instead of the ordinary image and text type of product display, buyers can now view products from any viewpoint through 3D images and also get more detail information on the product more easily thanks to the new VP technology, visual tools, and statecharts. However the currently used virtual prototyping supporting method does not consist of any database support for sharing the data from different virtual prototype developments and reusing the data in developing other prototypes. And in cases of custom order products, there is no linkage with the virtual product database that enables buyers in cyberspace such as cybermalls to try out the products before purchasing. This paper is purported for being applied as the basis for planning the construction of a complete CRM method applied cyber shopping mall that can accommodata all the demands and requests from customers. And the database supporting VP framework that supports data sharing and collaboration between virtual prototype developers and manufacturing custom order products is suggested for this purpose.

  • PDF

운동감 및 다감각 가상현실 효과 시스템의 구조와 응용 (A Framework for VR Effects with Multi-sensory Motional Display)

  • 유병현;한순흥
    • 한국시뮬레이션학회논문지
    • /
    • 제14권3호
    • /
    • pp.55-66
    • /
    • 2005
  • Virtual reality (VR) simulators have been extended to transfer knowledge and education, and demands for exhibition systems for science education and cultural experiences has also increased. Existing VR simulators, which are based on the dynamics equations of motion, cannot easily be adapted to changes in simulation contents. In order to effectively transfer knowledge and maintain interests through educational applications, an experiential system that has multi-sensory effects as well as motion effects is required. In this study, we designed and implemented a motion generation that is tailored to experiential exhibition systems and multi-sensory VR effects. Both the sense of motion which is generated from the movement of the viewpoint of the visual image, and motion effects which are constructed in advance, are applied to motion simulation. Motion effects which occur during interaction between the user and the exhibition system can be easily added. Various sensory cues that are appropriate to the exhibition system are also considered.

  • PDF

실시간 렌더링을 위한 MPEG-I RVS 가속화 기법 (MPEG-I RVS Software Speed-up for Real-time Application)

  • 안희준;이명진
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.655-664
    • /
    • 2020
  • 자유시점 영상합성기술은 MPEG-I(Immersive) 표준에서 중요한 기술 중 하나이다. 현재 MPEG-I에서 개발하여 사용하는 RVS (Reference View Synthesizer) 프로그램은 다수의 시점의 컬러영상과 깊이영상을 바탕으로 임의시점의 영상을 생성하는 DIBR (Depth Information-Based Rendering) 프로그램이다. RVS는 기존의 DIBR이 갖는 깊이정보 전달의 문제를 컴퓨터 그래픽스의 메쉬 표면 방식으로 접근하여 이전 화소방식에 비하여 2.5dB 이상의 성능향상을 보이며 OpenGL을 사용하면 CPU에서 동작하는 코드보다 10배 이상의 속도를 보인다. 그러나 여전히 2개의 2k 해상도 입력 영상에서 0.75fps 정도의 비실시간 처리속도를 보인다. 본 논문에서는 현 RVS의 내부 구현을 분석하고 이를 바탕으로 1) OpenGL 버퍼와 텍스쳐 객체의 재사용 2) 파일 입출력과 OpenGL 실행의 병렬화 3) GPU 셰이더 프로그램과 버퍼 데이터 전송의 병렬화를 적용하였다. 그 결과 두 개의 2k 해상도 입력 영상의 처리속도를 34배 이상 가속하여 22-28fps의 실시간 성능을 확보하였다.

다시점 3차원 방송을 위한 OpenGL을 이용하는 중간영상 생성 (View Synthesis Using OpenGL for Multi-viewpoint 3D TV)

  • 이현정;허남호;서용덕
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.507-520
    • /
    • 2006
  • 본 논문은 다중 카메라에서 얻은 영상과 그 영상으로부터 얻은 깊이영상(depth map)을 사용하여 중간시점에서의 영상을 생성하기 위하여 OpenGL 함수를 적용하는 방법을 소개한다. 기본적으로 영상기반 렌더링 방법은 카메라로 직접 얻은 영상을 그래픽 엔진에 적용하여 결과 영상을 생성하는 것을 의미하지만 주어진 영상 및 깊이정보를 어떻게 그래픽 엔진에 적용시키고 영상을 렌더링 하는지에 관한 방법은 잘 알려져 있지 않다. 본 논문에서는 카메라 정보로 물체가 생성될 공간을 구축하고, 구축된 공간 안에 색상영상과 깊이영상 데이터로 3차원 물체를 형성하여 이를 기반으로 실시간으로 중간영상 결과를 생성하는 방법을 제안하고자 한다. 또한, 중간영상에서의 깊이영상도 추출하는 방법을 소개하도록 하겠다.

증강현실 모니터링 기술의 의료융합 (AR monitoring technology for medical convergence)

  • 이경숙;임원봉;문영래
    • 한국융합학회논문지
    • /
    • 제9권2호
    • /
    • pp.119-124
    • /
    • 2018
  • 증강현실 기술은 사용자의 시각에 가상의 영상 정보를 결합하여 다양한 영상 정보를 동시에 취득할 수 있게 한다. 이러한 증강현실 기술은 최근 의료융합을 통해 이미지 가이드 수술(Image-Guide Operation), 수술 교육 훈련, 영상 진단 분야에서 수술 및 진단 시 환자의 장기나 조직들을 구분하여 가시화하고 가장 효과적인 수술 방법을 제시 할 수 있다. 이에 본 논문을 통해 증강현실 기술의 의료 융합을 위한 각 요소 기술의 기술적 특징과 적용 방안 등을 고찰하고자 하였다. 의료융합을 위한 증강현실 기술에서는 효율적인 의료 영상의 구현을 위해 디스플레이, 마커인식 그리고 영상합성 인터페이스 기술의 유기적인 구동이 필수적이다. 이러한 증강현실 기술은 향후, 이미지 가이드 수술, 수술 교육 및 영상 진단 등의 분야에서 현재의 의료 기술을 획기적으로 증진시킬 수 있는 방안이 될 수 있으리라 여겨진다.

스트립 영상 배치를 이용한 동심원 모자익의 효율적인 생성 (Efficient generation of concentric mosaics using image-strip mosaicking)

  • 장경호;정순기
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제7권2호
    • /
    • pp.29-35
    • /
    • 2001
  • 영상기반 가상현실 시스템에서 사용되는 가상환경은 영상모자익(image mosaics)을 통해 만들어진 파노라마 영상으로 표현할 수 있다. 이 경우 실린더 파노라마 영상은 생성 시 제약성 때문에 고정 시점에 방향만을 바꿀 수 있는 탐색을 지원하다. Shum은 가상환경 내에서 자유로운 시점이동을 제공하기 위해 카메라를 일정한 간격으로 회전시켜 얻은 영상으로부터 동심원을 이루는 여러 개의 실린더 형태인 광필드(light field)의 4차원 함수를 세 개의 파라미터, 즉 중심으로부터 거리, 높이, 각도의 3차원 함수로 단순화시킨 동심원 모자익(concentric mosaics)을 제안하였다[10]. 그러나, 이 방법은 카메라의 동일한 간격의 수평 회전운동에 의해 영상을 얻어야 하기 때문에 특별한 장치가 필요하고, 중심으로부터의 거리에 따라 카메라를 배치시켜 촬영함으로써 많은 영상을 처리해야하는 단점이 있다. 본 논문에서는 Shum의 동심원 모자익 생성시의 단점을 보완하기 위하여 영상 스트립을 실린더 평면에 배치시키는 방법을 이용한 효율적인 동심원 모자익 생성 알고리즘을 제안한다. 이는 영상 촬영 시 자유로운 수평 회전이 가능하여 부가적인 촬영장치가 필요하지 않다. 또한 새로운 시점에 대한 영상을 생성할 때, 보간 영상의 사용을 최소화하여 영상의 질을 향상시켰다.

  • PDF

가상현실에서 표출된 라이드필름 제작 사례연구 - Warrior of the Dawn 제작사례를 중심 - (A Study on the Ride Film Appearing in Virtual Reality - the focus of Warrior of the Dawn -)

  • 김태형;정진헌
    • 한국멀티미디어학회논문지
    • /
    • 제11권9호
    • /
    • pp.1204-1212
    • /
    • 2008
  • 가상현실은 1920년대 vehiclesimula-tion(fight simulator)을 효시로 하여 정밀한 광학적/전자기적 장치의 발달로 군사적 목적 이외의 범위로 발전하기 시작하여 realistic display 기술을 선두로 오락, 의료, 학습, 영화, 건축설계, 관광 등 다양한 분야에서 점점 일반화 되어 지고 있다. 1989년 재론 래니어에 의해 가상현실이란 용어가 고안되었고, 모든 가상 프로젝트들을 하나의 단일 항목으로 묶을 수 있게 되었지만, 그 이전에 가상현실은 연구 되어져왔고 현재에 이르게 되었으며, 불가능한 것에 대한 새로운 경험은 인간에게 가상현실의 한 부문으로써 라이드필름을 개발하게 하였다. 라이드필름(Ride Film)의 어트랙션은 기술적 요소뿐만 아니라 인간의 심리적 기반을 분석하여 그 토대로 구성되어지며, 가상현실의 궁극적인 원칙은 상호작용에 의한 몰입이다. 진정한 상호작용은 인터페이스와 입력센서 그리고 반응능력을 요구하는데, 라이드필름(Ride Film)은 전형적인 상호작용성의 요소는 아니다. 따라서 본 연구는 가상현실 기반에서 연구되어온 기술 중심적 입장 외에, 경험 중심적 정의 측면에서 사이버상의 철학자라 불리 우는 마이클 하임 교수의 7가지 기초 개념, 즉 인공현실 / 상호작용 / 몰입 / 망으로 연결된 세계 / 원격현전 /시뮬레이션 / 온몬 몰입에 근거하여 가상현실로서의 적합성을 대입 분석해 보고, 완전한 몰입을 위한 라이드필름(Ride Film)의 발전 방향과 최적화된 결론을 도출하는데 목적을 두고 있다. 이런 관점에서 라이드필름(Ride Film)의 연구는 선례연구가 부족한 라이드필름(Ride Film)의 선행연구로써의 기틀과 디지털 영상을 한 차원 발전시키는데 기여할 것이라 여긴다.

  • PDF

3차원 데이터베이스 구축을 위한 시점 합성 (View Synthesis for 3D Database)

  • 이종원;이광연;김성대
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 학술대회
    • /
    • pp.17-21
    • /
    • 1998
  • 시점 합성(View synthesis)이란 일반적으로 주어진 기준 영상들(reference viewpoint images 혹은 key frames)으로부터 임의의 시점에서 바라본 영상을 예측하여 합성하는 것을 의미한다. 이러한 시점 합성은 영상 기반 렌더링(Image-based rendering)기법의 일종으로 컴퓨터 그래픽스 분야에서 실시간 렌더링이나 가상 현실(Virtual reality) 구현을 위한 매우 강력한 접근 방식이다. 시점 합성은 물체를 표현하기 위한 3차원 모델링이 필요가 없으며, 렌더링 시간이 물체의 복잡도와는 무관한 장점이 있다. 이러한 시점 합성 기법으로 물체의 3차원 표현과 효과적인 데이터베이스 구축에 응용이 가능하다. 본 논문에서는 물체의 3차원 데이터베이스 구축을 위해 영상 기반 렌더링 기법에 근거한 간단하고, 효과적인 시점 합성 방법을 제안한다.

  • PDF

360 VR 영상용 흔들림 제거 기술 (Stabilization Technique for 360 VR Video Sequences)

  • 김근배;이재영;한종기
    • 방송공학회논문지
    • /
    • 제22권6호
    • /
    • pp.817-828
    • /
    • 2017
  • 본 논문에서는 360 VR 비디오 신호에 적합한 흔들림 제거 기술을 제안한다. 이를 위해서 VR 방송 시스템의 구성 요소들인 스티칭 및 투영포맷(projection format) 등의 특성을 분석하고, 각 단계에서 확보되는 영상 정보들의 기하학적인 특성들을 분석하였다. 이런 정보들을 활용하여 VR 영상 신호용 흔들림 제거 기술을 개발함으로써, 이러한 고려없이 2D 비디오 신호용으로 개발되어온 기존의 흔들림 제거 기술보다 우수한 성능을 제공하는 흔들림 제거 모듈을 구현할 수 있었다. 본 논문에서 제안된 알고리즘의 성능을 기존의 Autopano의 성능과 비교한 결과 물체의 이동 궤적의 흔들림이 눈에 띄게 줄어들었고, 흔들림이 존재하는 비디오 신호의 연속된 프레임들간의 RMSE가 26.04와 5.78 이였던 것이 제안되는 기술로 각각 7.33과 4.38까지 줄일 수 있었다.

Video Mosaics in 3D Space

  • Chon, Jaechoon;Fuse, Takashi;Shimizu, Eihan
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.390-392
    • /
    • 2003
  • Video mosaicing techniques have been widely used in virtual reality environments. Especially in GIS field, video mosaics are becoming more and more common in representing urban environments. Such applications mainly use spherical or panoramic mosaics that are based on images taken from a rotating camera around its nodal point. The viewpoint, however, is limited to location within a small area. On the other hand, 2D-mosaics, which are based on images taken from a translating camera, can acquire data in wide area. The 2D-mosaics still have some problems : it can‘t be applied to images taken from a rotational camera in large angle. To compensate those problems , we proposed a novel method for creating video mosaics in 3D space. The proposed algorithm consists of 4 steps: feature -based optical flow detection, camera orientation, 2D-image projection, and image registration in 3D space. All of the processes are fully automatic and successfully implemented and tested with real images.

  • PDF