• Title/Summary/Keyword: 깊이맵

검색결과 171건 처리시간 0.02초

Hybrid Down-Sampling Method of Depth Map Based on Moving Objects (움직임 객체 기반의 하이브리드 깊이 맵 다운샘플링 기법)

  • Kim, Tae-Woo;Kim, Jung Hun;Park, Myung Woo;Shin, Jitae
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • 제37A권11호
    • /
    • pp.918-926
    • /
    • 2012
  • In 3D video transmission, a depth map being used for depth image based rendering (DIBR) is generally compressed by reducing resolution for coding efficiency. Errors in resolution reduction are recovered by an appropriate up-sampling method after decoding. However, most previous works only focus on up-sampling techniques to reduce errors. In this paper, we propose a novel down-sampling technique of depth map that applies different down-sampling rates on moving objects and background in order to enhance human perceptual quality. Experimental results demonstrate that the proposed scheme provides both higher visual quality and peak signal-to-noise ratio (PSNR). Also, our method is compatible with other up-sampling techniques.

Generation of Stereoscopic Image from 2D Image based on Saliency and Edge Modeling (관심맵과 에지 모델링을 이용한 2D 영상의 3D 변환)

  • Kim, Manbae
    • Journal of Broadcast Engineering
    • /
    • 제20권3호
    • /
    • pp.368-378
    • /
    • 2015
  • 3D conversion technology has been studied over past decades and integrated to commercial 3D displays and 3DTVs. The 3D conversion plays an important role in the augmented functionality of three-dimensional television (3DTV), because it can easily provide 3D contents. Generally, depth cues extracted from a static image is used for generating a depth map followed by DIBR (Depth Image Based Rendering) rendering for producing a stereoscopic image. However except some particular images, the existence of depth cues is rare so that the consistent quality of a depth map cannot be accordingly guaranteed. Therefore, it is imperative to make a 3D conversion method that produces satisfactory and consistent 3D for diverse video contents. From this viewpoint, this paper proposes a novel method with applicability to general types of image. For this, saliency as well as edge is utilized. To generate a depth map, geometric perspective, affinity model and binomic filter are used. In the experiments, the proposed method was performed on 24 video clips with a variety of contents. From a subjective test for 3D perception and visual fatigue, satisfactory and comfortable viewing of 3D contents was validated.

Computation of Stereo Dense Disparity Maps Using Region Segmentation (영상에서의 분할정보를 사용한 스테레오 조밀 시차맵 생성)

  • Lee, Bum-Jong;Park, Jong-Seung;Kim, Chung-Kyue
    • The KIPS Transactions:PartB
    • /
    • 제15B권6호
    • /
    • pp.517-526
    • /
    • 2008
  • Stereo vision is a fundamental method for measuring 3D structures by observing them from two cameras placed on different positions. In order to reconstruct 3D structures, it is necessary to create a disparity map from a pair of stereo images. To create a disparity map we compute the matching cost for each point correspondence and compute the disparity that minimizes the sum of the whole matching costs. In this paper, we propose a method to estimate a dense disparity map using region segmentation. We segment each scanline using region homogeneity properties. Using the segmented regions, we prohibit false matches in the stereo matching process. Disparities for pixels that failed in matching are filled by interpolating neighborhood disparities. We applied the proposed method to various stereo images of real environments. Experimental results showed that the proposed method is stable and potentially viable in practical applications.

Stereoscopic Free-viewpoint Video of a Monoscopic Image (단안 영상의 입체 자유시점 비디오)

  • Lee, Kwan-Wook;Lee, Kwang-Hoon;Kim, Man-Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 한국방송공학회 2010년도 하계학술대회
    • /
    • pp.234-236
    • /
    • 2010
  • 본 논문에서는 한 장의 영상을 가상 카메라와 깊이맵을 이용하여 영상 내부를 네비게이션하는 입체 자유시점 비디오를 제안한다. 이 분야는 한장 또는 여러장의 사진 내부를 탐험하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전처리과정으로 전경 마스크, 배경영상, 및 깊이맵을 자동 및 수동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 투영 영상들을 획득한다. 배경영상과 전객객체의 3D 모델링 데이터를 기반으로 가상 카메라의 3차원 공간 이동, yaw, pitch, rolling의 회전, look-around effect, 줌인 등의 다양한 카메라 기능을 활용하여 자유시점 비디오를 구현한다. 소프트웨어는 OpenGL 및 MFC Visual C++ 기반으로 구축되었으며, 실험영상으로 조선시대의 작품인 김홍도의 무이귀도를 사용하였고, 입체영상으로 제작되어 보다 실감있는 자유시점 콘텐츠를 제공한다.

  • PDF

Image Reprojection Using GPU (GPU를 이용한 영상 재투영)

  • Kim, Hyo-Won;Ki, Hyun-Woo;Lee, Ho-Hyun;Oh, Kyoung-Su
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 3부
    • /
    • pp.170-175
    • /
    • 2007
  • 영상 재투영이란, 깊이 맵을 투영하여 임의의 시점에서 본 이미지를 생성해내는 기법을 말한다. 기존의 CPU를 이용한 영상 재투영 기법들의 가장 큰 단점은 CPU와 GPU 간의 데이터 복사가 일어나고 재투영 연산 자체의 속도가 느리기 때문에 실시간 렌더링이 불가능 하다는 것이다. 따라서 본 논문에서는 GPU를 이용하여 영상 재투영을 구현하고 실시간에 이미지를 렌더링하는 기법을 소개한다. 우리의 기법은 입력으로 참조 이미지와 해당 이미지의 깊이 맵이 주어졌을 때, 임의의 시점에서 보이는 새로운 이미지를 실시간으로 생성한다. 임의의 시점에서 이미지를 생성하기 위해, 각 픽셀에서 참조 이미지에 해당하는 평면을 렌더링하여 시점 반대 방향의 광선을 생성한다. 이 광선을 참조 이미지의 투영 공간으로 변환한 후, 광선과 깊이 맵간의 교차점을 찾는다. 이렇게 찾아낸 깊이 맵의 교차점과 일치하는 참조 이미지의 픽셀 색으로 새로운 시점의 이미지를 만들어 낼 수 있다. 이와 같은 기법은 기하 정보의 복잡도와 관계없이 수십 프레임의 속도로 실시간 렌더링이 가능하다.

  • PDF

Shape Comparison for Human Organ Models Using Multi-resolution Silhouette Images (다해상도 실루엣 영상을 이용한 인체 장기 모델에 대한 형상 비교)

  • 김정식;최수미
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (2)
    • /
    • pp.688-690
    • /
    • 2003
  • 본 논문에서는 다해상도 2차원 실루엣 영상들을 이용하여 3차원 모델간의 형상 유사성을 비교하기 위한 방법을 제안한다. 제안 시스템은 포즈 정규화 모듈, 유사성 계산 모듈, 3차원 시각화 모듈로 구성된다. 형상 비교를 위해서 먼저, 3차원 인체 장기 모델을 입력으로 받아서 정규화를 수행하고, 다해상도 깊이맵을 획득한다. 이어서 유사성 비교를 위해 실루엣 영상을 추출한 후, 유사도 측정을 위해 시그니쳐를 측도로 사용한다. 최종적으로 계산된 결과들은 3차원 글리프 및 컬러 코딩을 이용하여 시각화된다. 본 논문에서 제시한 3차원 형상 비교 시스템은 전처리 단계에서의 정규화 수행을 통하여 스케일 및 회전 변환에 불변하는 특성을 보인다. 그리고 다양한 레벨의 깊이맵을 형상 비교에 사용하여 다해상도 기반의 유사성 평가를 지원하며, 평가 계산 속도와 정확성간의 유연성을 제공한다. 또한 3차원 히스토그램. 3차윈 글리프. 컬러 코딩 시각화 기법들과 2차원 실루엣 피킹 인터페이스를 통하여 인체 장기 모델간의 정량적 형상 차이를 사용자가 직관적으로 평가할 수 있도록 한다. 본 시스템은 차후 데이터베이스를 이용한 원격 진료 시스템에서의 질병 진단, 추적 관찰. 치료계획 등에 활용될 수 있을 것이다.

  • PDF

Real-time Stereo Video Generation using Graphics Processing Unit (GPU를 이용한 실시간 양안식 영상 생성 방법)

  • Shin, In-Yong;Ho, Yo-Sung
    • Journal of Broadcast Engineering
    • /
    • 제16권4호
    • /
    • pp.596-601
    • /
    • 2011
  • In this paper, we propose a fast depth-image-based rendering method to generate a virtual view image in real-time using a graphic processor unit (GPU) for a 3D broadcasting system. Before the transmission, we encode the input 2D+depth video using the H.264 coding standard. At the receiver, we decode the received bitstream and generate a stereo video using a GPU which can compute in parallel. In this paper, we apply a simple and efficient hole filling method to reduce the decoder complexity and reduce hole filling errors. Besides, we design a vertical parallel structure for a forward mapping process to take advantage of the single instruction multiple thread structure of GPU. We also utilize high speed GPU memories to boost the computation speed. As a result, we can generate virtual view images 15 times faster than the case of CPU-based processing.

Free-viewpoint Stereoscopic TIP Generation Using Virtual Camera and Depth Map (가상 카메라와 깊이 맵을 활용하는 자유시점 입체 TIP 생성)

  • Lee, Kwang-Hoon;Jo, Cheol-Yong;Choi, Chang-Yeol;Kim, Man-Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 한국방송공학회 2009년도 추계학술대회
    • /
    • pp.219-222
    • /
    • 2009
  • 자유시점 비디오는 단순히 수동적으로 비디오를 보는 것이 아니라 원하는 시점을 자유로이 선택하여 보는 능동형 비디오이다. 일반적으로 다양한 위치 및 다양한 각도에 위치하는 다수의 카메라로부터 촬영된 영상을 이용하여 제작하는데, 이 기술은 박물관 투어, 엔터테인먼트 등의 다양한 분야에서 활용된다. 본 논문에서는 자유시점 비디오의 새로운 분야로 한 장의 영상을 가상 카메라와 깊이맵을 이용하여 영상 내부를 네비게이션하는 자유시점 입체 Tour-Into-Picture (TIP)을 제안한다. 오래전부터 TIP가 연구되어 왔는데, 이 분야는 한 장의 사진 내부를 탐험하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전처리과정으로 전경 마스크, 배경영상, 및 깊이맵을 자동 및 수동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 투영 영상들을 획득한다. 배경영상과 전객객체의 3D 모델링 데이터를 기반으로 가상 카메라의 3차원 공간 이동, yaw, pitch, rolling의 회전, look-around effect, 줌인 등의 다양한 카메라 기능을 활용하여 자유시점 비디오를 구현한다. 또한 깊이정보의 특성 및 구조에 따라 놀라운 시청효과를 전달하는 카메라 기능의 설정 방법을 소개한다. 소프트웨어는 OpenGL 및 MFC Visual C++ 기반으로 구축되었으며, 실험영상으로 조선시대의 작품인 신윤복의 단오풍정을 사용하였고, 입체 애니메이션으로 제작되어 보다 실감있는 콘텐츠를 제공한다.

  • PDF

A Depth-map Coding Method using the Adaptive XOR Operation (적응적 배타적 논리합을 이용한 깊이정보 맵 코딩 방법)

  • Kim, Kyung-Yong;Park, Gwang-Hoon
    • Journal of Broadcast Engineering
    • /
    • 제16권2호
    • /
    • pp.274-292
    • /
    • 2011
  • This paper proposes an efficient coding method of the depth-map which is different from the natural images. The depth-map are so smooth in both inner parts of the objects and background, but it has sharp edges on the object-boundaries like a cliff. In addition, when a depth-map block is decomposed into bit planes, the characteristic of perfect matching or inverted matching between bit planes often occurs on the object-boundaries. Therefore, the proposed depth-map coding scheme is designed to have the bit-plane unit coding method using the adaptive XOR method for efficiently coding the depth-map images on the object-boundary areas, as well as the conventional DCT-based coding scheme (for example, H.264/AVC) for efficiently coding the inside area images of the objects or the background depth-map images. The experimental results show that the proposed algorithm improves the average bit-rate savings as 11.8 % ~ 20.8% and the average PSNR (Peak Signal-to-Noise Ratio) gains as 0.9 dB ~ 1.5 dB in comparison with the H.264/AVC coding scheme. And the proposed algorithm improves the average bit-rate savings as 7.7 % ~ 12.2 % and the average PSNR gains as 0.5 dB ~ 0.8 dB in comparison with the adaptive block-based depth-map coding scheme. It can be confirmed that the proposed method improves the subjective quality of synthesized image using the decoded depth-map in comparison with the H.264/AVC coding scheme. And the subjective quality of the proposed method was similar to the subjective quality of the adaptive block-based depth-map coding scheme.

Multi-View Color Video and Depth Map Coding based on HEVC (HEVC 기반 다시점 컬러 영상 및 깊이 정보 맵 부호화 방법)

  • Yoo, Sun-Mi;Nam, Jung-Hak;Lim, Woong;Sim, Dong-Gyu;Cheong, Won-Sik;Hur, Nam-Ho
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • 제49권2호
    • /
    • pp.83-93
    • /
    • 2012
  • This paper proposes a method to efficiently encode multi-view color videos and depth maps. The proposed coding method for multi-view color videos and depth maps can improve the coding efficiency by additional inter-view prediction, as well as inter-frame prediction. By means of the proposed method, we achieved the coding gain of approximately 55% for 2-view color videos and approximately 12% for 2-view depth maps. For 3-view case, we found that the proposed system yields 54% of coding gain from outer view color videos and 56% of coding gain from center view color videos, respectively. Moreover, for 3-view depth map case, approximately 11% of coding gain from outer view and 13% of coding gain from center view are obtained with the proposed coder, respectively.