• 제목/요약/키워드: depth-image

검색결과 1,844건 처리시간 0.029초

SuperDepthTransfer: Depth Extraction from Image Using Instance-Based Learning with Superpixels

  • Zhu, Yuesheng;Jiang, Yifeng;Huang, Zhuandi;Luo, Guibo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권10호
    • /
    • pp.4968-4986
    • /
    • 2017
  • In this paper, we primarily address the difficulty of automatic generation of a plausible depth map from a single image in an unstructured environment. The aim is to extrapolate a depth map with a more correct, rich, and distinct depth order, which is both quantitatively accurate as well as visually pleasing. Our technique, which is fundamentally based on a preexisting DepthTransfer algorithm, transfers depth information at the level of superpixels. This occurs within a framework that replaces a pixel basis with one of instance-based learning. A vital superpixels feature enhancing matching precision is posterior incorporation of predictive semantic labels into the depth extraction procedure. Finally, a modified Cross Bilateral Filter is leveraged to augment the final depth field. For training and evaluation, experiments were conducted using the Make3D Range Image Dataset and vividly demonstrate that this depth estimation method outperforms state-of-the-art methods for the correlation coefficient metric, mean log10 error and root mean squared error, and achieves comparable performance for the average relative error metric in both efficacy and computational efficiency. This approach can be utilized to automatically convert 2D images into stereo for 3D visualization, producing anaglyph images that are visually superior in realism and simultaneously more immersive.

2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법 (Applying differential techniques for 2D/3D video conversion to the objects grouped by depth information)

  • 한성호;홍영표;이상훈
    • 한국산학기술학회논문지
    • /
    • 제13권3호
    • /
    • pp.1302-1309
    • /
    • 2012
  • 본 논문은 2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법에 관한 연구이다. 기존의 깊이 정보 획득 기법 중 움직임 정보를 깊이 정보로써 사용할 때 움직임이 존재하지 않는 객체의 경우 깊이 정보를 획득할 수 없어 해당 객체의 3D 효과를 얻을 수 없는 문제점이 있다. 본 논문에서는 이러한 문제점을 해결하고자 객체와 배경을 추출하고 객체에 움직임 정보를 이용한 깊이 정보를 할당하는 과정을 거친 후, 배경과 깊이 정보가 할당되지 못한 객체에 깊이 단서 중 하나인 상대적 높이 단서를 이용한 깊이 정보를 할당함으로써 모든 객체에서 3D 효과를 얻을 수 있는 기법을 제안한다. 제안한 기법으로 깊이맵을 생성하여 DIBR(Depth Image Based Rendering)으로 3D 영상을 생성하여 확인한 결과 움직임이 없는 객체에서도 3D 효과를 얻을 수 있음을 확인하였다.

Three-Dimensional Visualization Technique of Occluded Objects Using Integral Imaging with Plenoptic Camera

  • Lee, Min-Chul;Inoue, Kotaro;Tashiro, Masaharu;Cho, Myungjin
    • Journal of information and communication convergence engineering
    • /
    • 제15권3호
    • /
    • pp.193-198
    • /
    • 2017
  • In this study, we propose a three-dimensional (3D) visualization technique of occluded objects using integral imaging with a plenoptic camera. In previous studies, depth map estimation from elemental images was used to remove occlusion. However, the resolution of these depth maps is low. Thus, the occlusion removal accuracy is not efficient. Therefore, we use a plenoptic camera to obtain a high-resolution depth map. Hence, individual depth map for each elemental image can also be generated. Finally, we can regenerate a more accurate depth map for 3D objects with these separate depth maps, allowing us to remove the occlusion layers more efficiently. We perform optical experiments to prove our proposed technique. Moreover, we use MSE and PSNR as a performance metric to evaluate the quality of the reconstructed image. In conclusion, we enhance the visual quality of the reconstructed image after removing the occlusion layers using the plenoptic camera.

동적신장검사에서 신장깊이에 따른 사구체여과율 비교 (The Comparison of Glomerular Filteration Rate by Kidney Depth in Dynamic kidney Scan)

  • 황주원;임영현;윤종준;이화진;이무석;정지욱;박세윤
    • 핵의학기술
    • /
    • 제18권2호
    • /
    • pp.73-77
    • /
    • 2014
  • 서론: 신장기능을 평가하는데 중요한 지표가 될 수 있는 GFR을 측정하는 데에는 여러 가지 검사방법이 있다. 핵의학 검사에서 사용하는 동적신장검사는 Gates법을 바탕으로 GFR을 구한다. 본 저자는 동적신장검사에서 일반적으로 GFR을 측정하는데 사용되는 Gates법에 신장깊이를 측정하는 방법을 달리하여 각각 적용하여 보았다. Tonnesen방정식을 이용한 신장깊이와 CT사진에서 도출한 신장깊이를 측정한 후, 두 가지 측정방법에 따른 신장깊이와 GFR의 차이를 비교분석하고 그 유용성을 평가하고자 한다. 실험장비및 재료: Dual Detector인 GE사의 감마카메라에 Low energy collimator를 장착하여 사용하였으며 실험에서 대상자에게 투여하는 방사성 의약품은 $^{99m}Tc$-DTPA이다. 실험대상 및 방법: 2013년 2월에서 2014년 2월까지 1년간 본원에서 동적신장검사를 시행한 환자 중 양쪽신장의 GFR이 정상인 27명을 대상으로 하였다. 각 대상자들의 신장깊이를 Tonnesen방정식과 CT사진을 토대로 각각 산출하고 Gates법에 대입하여 GFR을 구하고 비교분석하였다. 결과: 신장깊이는 좌신에서 0.93 cm 우신에서 2.77 cm 차이가 났으며 CT사진으로 구한 깊이수치가 더 큰 것으로 나왔고 GFR 값 역시 15.1 mL/min 상승하였다. 고찰 및 결론: 한국인의 신장깊이가 서양인과 다르며 깊이를 측정하는 방법에 따라 GFR이 변할 수 있으므로 신장깊이 측정에 있어 신뢰도를 높일 수 있는 방법들에 대한 연구가 계속되어야 한다.

  • PDF

포아송 객체 편집을 이용한 스테레오 영상 합성 (Stereo Image Composition Using Poisson Object Editing)

  • 백으뜸;호요성
    • 한국통신학회논문지
    • /
    • 제39A권8호
    • /
    • pp.453-458
    • /
    • 2014
  • 본 논문에서는 포아송 영상 편집을 이용한 스테레오 3차원 영상 합성 방법을 제안한다. 3차원 영상을 만들 때 객체의 깊이 값을 고려하지 않고 색상 영상을 합성하면 매우 부자연스러운 결과를 얻는다. 본 논문에서는 그랩컷 방법을 사용하여 추출한 전경 객체를 새로운 배경 영상에 포함시켜 자연스러운 2차원 영상을 만든다. 제안된 방법에서는 기하학적인 위치뿐 아니라 색상 톤도 고려하여 자연스러운 영상을 합성한 후, 합성된 영상의 경계선 주변에 블러링을 수행하여 전경과 배경이 잘 어우러지게 만든다. 이와 더불어, 임의로 주어진 객체의 깊이 값을 이용하여 추출된 객체의 변위를 구하고, 오른쪽 색상 영상과 깊이 영상을 자동으로 합성한다. 실험을 통해, 제안하는 방법이 자연스러운 스테레오 3차원 영상을 생성할 수 있음을 확인했다.

GPU를 이용한 특징 기반 영상모핑의 가속화 (Acceleration of Feature-Based Image Morphing Using GPU)

  • 김은지;윤승현;이지은
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제20권2호
    • /
    • pp.13-24
    • /
    • 2014
  • 본 논문에서는 특징 기반 영상모핑(feature-based image morphing)을 위한 GPU (Graphics Processing Unit) 기반의 가속화 기법을 제시한다. 제안된 기법은 모핑과정에서 픽셀과 제어선 사이의 최단거리를 효율적으로 계산하기 위해 그래픽스 하드웨어의 깊이 버퍼(depth-buffer)를 이용한다. 먼저 원본영상(source image)과 최종영상(destination image)에 사용자입력을 통해 특징을 표현하는 제어선들을 지정하고, 각 제어선의 거리함수(distance function)를 서로 다른 색상을 갖는 두개의 사각형과 원뿔로 렌더링한다. 그래픽스 파이프라인(graphics pipeline)을 통해 각 픽셀에서 가장 가까운 제어선까지의 거리는 깊이 버퍼에 저장되고, 이는 모핑연산을 효율적으로 수행하는데 사용된다. 본 논문에서는 픽셀 단위의 모핑 연산을 CUDA(Compute Unified Device Architecture)를 이용하여 병렬화함으로써 모핑의 속도를 더욱 향상시키며, 다양한 크기의 입력영상에 대하여 각각 CPU와 GPU를 이용한 영상모핑 실험을 통해 제안된 기법의 효율성을 입증한다.

소수의 협소화각 RGBD 영상으로부터 360 RGBD 영상 합성 (360 RGBD Image Synthesis from a Sparse Set of Images with Narrow Field-of-View)

  • 김수지;박인규
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.487-498
    • /
    • 2022
  • 깊이 영상은 3차원 공간상의 거리 정보를 2차원 평면에 나타낸 영상이며 다양한 3D 비전 연구에서 유용하게 사용된다. 기존의 많은 깊이 추정 연구는 주로 좁은 FoV (Field of View) 영상을 사용하여 전체 장면 중 상당 부분이 소실된 영상에 대한 깊이 정보를 추정한다. 본 논문에서는 소수의 좁은 FoV 영상으로부터 360° 전 방향 RGBD 영상을 동시에 생성하는 기법을 제안한다. 오버랩 되지 않는 4장의 소수 영상으로부터 전체 파노라마 영상에 대해서 상대적인 FoV를 추정하고 360° 컬러 영상과 깊이 영상을 동시에 생성하는 적대적 생성 신경망 기반의 영상 생성 모델을 제안하였으며, 두 모달리티의 특징을 공유하여 상호 보완된 결과를 확인한다. 또한 360° 영상의 구면 특성을 반영한 네트워크를 구성하여 개선된 성능을 보인다.

2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합 (Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion)

  • 한찬희;최해철;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제12권12호
    • /
    • pp.1-13
    • /
    • 2012
  • 3차원 동영상은 다양한 응용분야들에서 차세대 콘텐츠로 큰 주목을 받고 있다. 2D-to-3D 변환은 3차원 동영상의 시대로 넘어가는 과도기 동안에 3차원 동영상 콘텐츠의 부족현상을 해결하기위한 강력한 기술로 여겨지고 있다. 일반적으로 2D-to-3D 변환을 위해서는 2차원 동영상 각 장면의 깊이영상을 추정/생성한 후 깊이 영상 기반 랜더링 (DIBR : Depth Image Based Rendering) 기술을 이용하여 스테레오 동영상을 합성한다. 본 논문은 2차원 동영상 내 존재하는 다양한 변환 단서들을 통합하는 새로운 깊이 융합 기법을 제안한다. 우선, 알맞은 깊이 융합을 위해 몇몇 단서가 현재 장면을 효과적으로 표현할 수 있는 지 아닌지 검사된다. 그 후, 신뢰성 검사의 결과를 기반으로 현재 장면은 4개의 유형 중 하나로 분류된다. 마지막으로 최종 깊이 영상을 생성하기 위해 신뢰할 수 있는 깊이 단서들을 조합하는 장면 적응적 깊이 융합이 수행된다. 실험 결과를 통해 각각의 단서가 장면 유형에 따라 타당하게 활용되었고 최종 깊이 영상이 현재 장면을 효과적으로 표현할 수 있는 단서들에 의해 생성되었음을 관찰할 수 있다.

Projection-Type Integral Imaging Using a Pico-projector

  • Yang, Yucheol;Min, Sung-Wook
    • Journal of the Optical Society of Korea
    • /
    • 제18권6호
    • /
    • pp.714-719
    • /
    • 2014
  • A pico-projector is a compact and mobile projector that has an infinite focus. We apply the pico-projector to a projection-type integral imaging system, which can expand the image depth to form multiple central depth planes. In a projection-type integral imaging system, the image flipping problem arises because the expanded elemental images pass through a lens array. To solve this problem, we propose the ray tracing of a pico-projector at a central depth plane and compensate the elemental image using a pixel-mapping process. Experiments to verify the proposed method are performed, and the results are presented.

2D-to-3D Conversion System using Depth Map Enhancement

  • Chen, Ju-Chin;Huang, Meng-yuan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권3호
    • /
    • pp.1159-1181
    • /
    • 2016
  • This study introduces an image-based 2D-to-3D conversion system that provides significant stereoscopic visual effects for humans. The linear and atmospheric perspective cues that compensate each other are employed to estimate depth information. Rather than retrieving a precise depth value for pixels from the depth cues, a direction angle of the image is estimated and then the depth gradient, in accordance with the direction angle, is integrated with superpixels to obtain the depth map. However, stereoscopic effects of synthesized views obtained from this depth map are limited and dissatisfy viewers. To obtain impressive visual effects, the viewer's main focus is considered, and thus salient object detection is performed to explore the significance region for visual attention. Then, the depth map is refined by locally modifying the depth values within the significance region. The refinement process not only maintains global depth consistency by correcting non-uniform depth values but also enhances the visual stereoscopic effect. Experimental results show that in subjective evaluation, the subjectively evaluated degree of satisfaction with the proposed method is approximately 7% greater than both existing commercial conversion software and state-of-the-art approach.