• 제목/요약/키워드: Depth Map Image

검색결과 299건 처리시간 0.022초

Effects of Depth Map Quantization for Computer-Generated Multiview Images using Depth Image-Based Rendering

  • Kim, Min-Young;Cho, Yong-Joo;Choo, Hyon-Gon;Kim, Jin-Woong;Park, Kyoung-Shin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제5권11호
    • /
    • pp.2175-2190
    • /
    • 2011
  • This paper presents the effects of depth map quantization for multiview intermediate image generation using depth image-based rendering (DIBR). DIBR synthesizes multiple virtual views of a 3D scene from a 2D image and its associated depth map. However, it needs precise depth information in order to generate reliable and accurate intermediate view images for use in multiview 3D display systems. Previous work has extensively studied the pre-processing of the depth map, but little is known about depth map quantization. In this paper, we conduct an experiment to estimate the depth map quantization that affords acceptable image quality to generate DIBR-based multiview intermediate images. The experiment uses computer-generated 3D scenes, in which the multiview images captured directly from the scene are compared to the multiview intermediate images constructed by DIBR with a number of quantized depth maps. The results showed that there was no significant effect on depth map quantization from 16-bit to 7-bit (and more specifically 96-scale) on DIBR. Hence, a depth map above 7-bit is needed to maintain sufficient image quality for a DIBR-based multiview 3D system.

단일 영상에서 디포커스 맵을 활용한 보케 효과 알고리즘 (Bokeh Effect Algorithm using Defocus Map in Single Image)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제21권3호
    • /
    • pp.87-91
    • /
    • 2022
  • Bokeh effect is a stylistic technique that can produce blurring the background of photos. This paper implements to produce a bokeh effect with a single image by post processing. Generating depth map is a key process of bokeh effect, and depth map is an image that contains information relating to the distance of the surfaces of scene objects from a viewpoint. First, this work presents algorithms to determine the depth map from a single input image. Then, we obtain a sparse defocus map with gradient ratio from input image and blurred image. Defocus map is obtained by propagating threshold values from edges using matting Laplacian. Finally, we obtain the blurred image on foreground and background segmentation with bokeh effect achieved. With the experimental results, an efficient image processing method with bokeh effect applied using a single image is presented.

Real-Time 2D-to-3D Conversion for 3DTV using Time-Coherent Depth-Map Generation Method

  • Nam, Seung-Woo;Kim, Hye-Sun;Ban, Yun-Ji;Chien, Sung-Il
    • International Journal of Contents
    • /
    • 제10권3호
    • /
    • pp.9-16
    • /
    • 2014
  • Depth-image-based rendering is generally used in real-time 2D-to-3D conversion for 3DTV. However, inaccurate depth maps cause flickering issues between image frames in a video sequence, resulting in eye fatigue while viewing 3DTV. To resolve this flickering issue, we propose a new 2D-to-3D conversion scheme based on fast and robust depth-map generation from a 2D video sequence. The proposed depth-map generation algorithm divides an input video sequence into several cuts using a color histogram. The initial depth of each cut is assigned based on a hypothesized depth-gradient model. The initial depth map of the current frame is refined using color and motion information. Thereafter, the depth map of the next frame is updated using the difference image to reduce depth flickering. The experimental results confirm that the proposed scheme performs real-time 2D-to-3D conversions effectively and reduces human eye fatigue.

흐린 초점의 단일영상에서 깊이맵 생성 알고리즘 (Depth Map Generation Algorithm from Single Defocused Image)

  • 이용환;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제15권3호
    • /
    • pp.67-71
    • /
    • 2016
  • This paper addresses a problem of defocus map recovery from single image. We describe a simple effective approach to estimate the spatial value of defocus blur at the edge location of the image. At first, we perform a re-blurring process using Gaussian function with input image, and calculate a gradient magnitude ratio with blurring amount between input image and re-blurred image. Then we get a full defocus map by propagating the blur amount at the edge location. Experimental result reveals that our method outperforms a reliable estimation of depth map, and shows that our algorithm is robust to noise, inaccurate edge location and interferences of neighboring edges within input image.

상호 구조에 기반한 초점으로부터의 깊이 측정 방법 개선 (Enhancing Depth Measurements in Depth From Focus based on Mutual Structures)

  • 무하마드 타릭 마흐무드;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제21권3호
    • /
    • pp.17-21
    • /
    • 2022
  • A variety of techniques have been proposed in the literature for depth improvement in depth from focus method. Unfortunately, these techniques over-smooth the depth maps over the regions of depth discontinuities. In this paper, we propose a robust technique for improving the depth map by employing a nonconvex smoothness function that preserves the depth edges. In addition, the proposed technique exploits the mutual structures between the depth map and a guidance map. This guidance map is designed by taking the mean of image intensities in the image sequence. The depth map is updated iteratively till the nonconvex objective function converges. Experiments performed on real complex image sequences revealed the effectiveness of the proposed technique.

2D/3D 변환을 위한 깊이정보 생성기법에 관한 연구 (A Study on 2D/3D image Conversion Method using Create Depth Map)

  • 한현호;이강성;이상훈
    • 한국산학기술학회논문지
    • /
    • 제12권4호
    • /
    • pp.1897-1903
    • /
    • 2011
  • 본 논문은 2D/3D 변환을 위한 객체 추출과 깊이정보(Depth-map) 생성기법에 관한 연구이다. 2D영상을 3D로 변환하기 위해서는 영상 객체 추출, 영상 거리 인식, 영상 생성, 재보정 단계를 거치게 되는데 본 논문에서는 영상 객체 추출과 영상 거리 인식에 해당하는 깊이정보를 생성하는 방법을 제안한다. 3D 영상으로의 변환은 2D 영상에서의 객체 추출과, 추출된 객체와 주변 배경을 구별하기 위한 거리감을 할당하는 깊이정보 생성이 중요하다. 보다 정확한 객체 추출과 깊이정보를 생성하기 위해 기존의 Optical flow에서 잡음을 제거한 방법을 제안하였다. 제안한 방법으로 2D 영상을 깊이정보가 포함된 영상으로 변환하여 영상의 깊이 정보가 추정됨을 알 수 있다.

Kinect 깊이 카메라를 이용한 가상시점 영상생성 기술 (Intermediate View Synthesis Method using Kinect Depth Camera)

  • 이상범;호요성
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.29-35
    • /
    • 2012
  • 깊이영상기반 렌더링(depth image-based rendering, DIBR)이란 색상 영상과 각 화소에 대응하는 거리 정보로 이루어진 깊이 영상(depth map)을 이용하여 가상 시점에서의 영상을 합성하는 기술을 말한다. DIBR을 이용하면 3차원 TV에 적합한 컨텐츠를 생성할 수 있지만, 가상 시점에서의 영상을 합성하는 과정에서 원영상에 존재하지 않는 영역, 즉, 비폐색(disocclusion) 영역이 드러나는 등 여러 가지 문제가 발생한다. 본 논문에서는 구조광으로 깊이 정보를 획득하는 Kinect 깊이 카메라를 이용한 가상시점 영상생성 기술을 제안한다. 깊이 카메라로부터 색상 영상과 그에 대응하는 깊이 영상을 획득한 다음, 깊이 영상에 대한 전처리 기술을 수행한다. 전처리가 끝난 깊이 영상은 중간 시점으로 워핑되고, 워핑 과정에서 발생하는 절삭 오차를 제거하기 위해 Median 필터링을 적용한다. 그런 다음, 색상 영상은 워핑된 깊이 영상의 깊이 값을 사용해서 중간 시점으로 워핑된다. 비폐색(disocclusion) 영역을 채우기 위해 배경 기반의 인페인팅 기술을 적용한다. 실험 결과를 통해, 본 논문에서 제안한 방법이 자연스러운 스테레오 영상을 생성한 것을 확인할 수 있었다.

  • PDF

깊이맵 생성 알고리즘의 합성곱 신경망 구현 (Implementing a Depth Map Generation Algorithm by Convolutional Neural Network)

  • 이승수;김홍진;김만배
    • 방송공학회논문지
    • /
    • 제23권1호
    • /
    • pp.3-10
    • /
    • 2018
  • 깊이맵은 현재 다양한 분야에서 활용되고 있다. 이러한 깊이맵을 인공 신경망으로 생성하는 연구가 최근 관심을 받고 있다. 본 논문에서는 기존의 기 제작된 깊이맵 생성 알고리즘을 합성곱 신경망으로 구현할 수 있는지에 대한 타당성을 검증한다. 먼저 깊이맵은 관심맵과 운동 히스토리 영상의 가중치 합으로 얻는다. 실험영상과 깊이맵을 합성곱 신경망의 입력과 출력으로 하여, 신경망을 학습시킨다. 정성적, 정량적 실험 결과는 제안한 합성곱 신경망이 깊이맵 생성 방법을 대체할 수 있다는 것을 보여준다.

움직임 검출과 영역 분할을 이용한 실시간 입체 영상 변환 (Real-Time Stereoscopic Image Conversion Using Motion Detection and Region Segmentation)

  • 권병헌;서범석
    • 디지털콘텐츠학회 논문지
    • /
    • 제6권3호
    • /
    • pp.157-162
    • /
    • 2005
  • 본 논문에서는 2차원 정지 영상 및 동영상에서 블록 정합을 이용한 움직임 검출과 영역 분할을 통하여 생성한 깊이 지도를 이용하여 입체 영상으로 실시간 변환하는 방법을 제안하였다. 성능 평가는 움직임 객체의 깊이 지도와 절대 시차 차이 영상을 생성하여 기존의 변환 방법과 비교를 통해 제안한 방식의 우수성을 입증하였다.

  • PDF

실안개와 상대적 높이 단서 기반의 깊이 지도를 이용한 2D/3D 변환 기법 (2D/3D conversion method using depth map based on haze and relative height cue)

  • 한성호;김요섭;이종용;이상훈
    • 디지털융복합연구
    • /
    • 제10권9호
    • /
    • pp.351-356
    • /
    • 2012
  • 본 논문은 단일영상의 실안개 정보와 상대적 높이 단서를 기반으로 깊이 지도를 생성하고, 이를 이용하여 2D/3D 변환을 하는 기법에 관한 연구이다. 기존의 실안개 정보만을 깊이 지도로써 이용하는 경우, 안개가 없는 영상에서 오류가 발생할 수 있다. 본 논문에서는 이러한 오류를 줄이기 위해, 상대적 높이 단서 기반의 깊이 지도를 생성하고, 실안개 정보와 결합하는 방법을 제안하였다. 또한 Mean Shift Segmentation을 이용한 gray scale 영상과 실안개 정보의 깊이 지도를 결합하여 객체의 경계를 선명화함으로써 3D 영상의 품질을 향상시킬 수 있도록 하였다. 입력영상과 최종 깊이 지도를 DIBR(Depth Image Based Rendering)을 통해 좌영상과 우영상의 시점영상을 생성하고, 적청영상의 형태로 결합함으로써 3D 영상을 생성하였고, 깊이 지도간의 PSNR을 측정하여 검증하였다.