• 제목/요약/키워드: Depth Map Image

검색결과 299건 처리시간 0.025초

전방향 능동 거리 센서를 이용한 2차원 거리 측정 (Two-Dimensional Depth Data Measurement using an Active Omni-Directional Range Sensor)

  • 정인수;조형석
    • 제어로봇시스템학회논문지
    • /
    • 제5권4호
    • /
    • pp.437-445
    • /
    • 1999
  • Most autonomous mobile robots view only things in front of then, and as a result, they may collide with objects moving from the side or behind. To overcome this problem, an active omni-directional range sensor system has been built that can obtain an omni-directional depth map through the use of a laser conic plane and a conic mirror. In the navigation of the mobile robot, the proposed sensor system produces a laser conic plane by rotating the laser point source at high speed: this creates a two-dimensional depth map, in real time, once an image is captured. The results obtained from experiment show that the proposed sensor system is very efficient, and can be utilized for navigation of mobile robot in an unknown environment.

  • PDF

정확한 깊이 맵을 위한 전처리 과정과 다이나믹 프로그래밍에 관한 연구 (A Study of the Use of Step by Preprocessing and Dynamic Programming for the Exact Depth Map)

  • 김영섭;송응열
    • 반도체디스플레이기술학회지
    • /
    • 제9권3호
    • /
    • pp.65-69
    • /
    • 2010
  • The stereoscopic vision system is the algorithm to obtain the depth of target object of stereo vision image. This paper presents an efficient disparity matching method using nagao filter, octree color quantization and dynamic programming algorithm. we describe methods for performing color quantization on full color RGB images, using an octree data structure. This method has the advantage of saving a lot of data. We propose a preprocessing stereo matching method based on Nagao-filter algorithm using color information. using the nagao filter, we could obtain effective depth map and using the octree color quantization, we could reduce the time of computation.

SuperDepthTransfer: Depth Extraction from Image Using Instance-Based Learning with Superpixels

  • Zhu, Yuesheng;Jiang, Yifeng;Huang, Zhuandi;Luo, Guibo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권10호
    • /
    • pp.4968-4986
    • /
    • 2017
  • In this paper, we primarily address the difficulty of automatic generation of a plausible depth map from a single image in an unstructured environment. The aim is to extrapolate a depth map with a more correct, rich, and distinct depth order, which is both quantitatively accurate as well as visually pleasing. Our technique, which is fundamentally based on a preexisting DepthTransfer algorithm, transfers depth information at the level of superpixels. This occurs within a framework that replaces a pixel basis with one of instance-based learning. A vital superpixels feature enhancing matching precision is posterior incorporation of predictive semantic labels into the depth extraction procedure. Finally, a modified Cross Bilateral Filter is leveraged to augment the final depth field. For training and evaluation, experiments were conducted using the Make3D Range Image Dataset and vividly demonstrate that this depth estimation method outperforms state-of-the-art methods for the correlation coefficient metric, mean log10 error and root mean squared error, and achieves comparable performance for the average relative error metric in both efficacy and computational efficiency. This approach can be utilized to automatically convert 2D images into stereo for 3D visualization, producing anaglyph images that are visually superior in realism and simultaneously more immersive.

스테레오 비전 센서의 깊이 및 색상 정보를 이용한 환경 모델링 기반의 이동로봇 주행기술 (Direct Depth and Color-based Environment Modeling and Mobile Robot Navigation)

  • 박순용;박민용;박성기
    • 로봇학회논문지
    • /
    • 제3권3호
    • /
    • pp.194-202
    • /
    • 2008
  • This paper describes a new method for indoor environment mapping and localization with stereo camera. For environmental modeling, we directly use the depth and color information in image pixels as visual features. Furthermore, only the depth and color information at horizontal centerline in image is used, where optical axis passes through. The usefulness of this method is that we can easily build a measure between modeling and sensing data only on the horizontal centerline. That is because vertical working volume between model and sensing data can be changed according to robot motion. Therefore, we can build a map about indoor environment as compact and efficient representation. Also, based on such nodes and sensing data, we suggest a method for estimating mobile robot positioning with random sampling stochastic algorithm. With basic real experiments, we show that the proposed method can be an effective visual navigation algorithm.

  • PDF

적응적 배타적 논리합을 이용한 깊이정보 맵 코딩 방법 (A Depth-map Coding Method using the Adaptive XOR Operation)

  • 김경용;박광훈
    • 방송공학회논문지
    • /
    • 제16권2호
    • /
    • pp.274-292
    • /
    • 2011
  • 본 논문에서는 실제 영상과는 다른 특성을 지니는 깊이정보 맵의 효율적인 부호화 방법을 제안한다. 깊이정보 맵은 객체 내부 혹은 배경 부분에서 상당히 완만한 특성을 지니지만, 객체 경계 부분에서는 아주 날카로운 에지 성분이 존재한다는 특징이 있다. 그리고 깊이정보 맵을 비트평면 단위로 분리하였을 때, 비트평면 간 완전일치/반전일치되는 특성이 객체 경계 부분에서 자주 발생한다는 특징이 있다. 그래서 본 논문에서는 객체 경계 부분에서 비트평면의 이진 영상간 일치여부를 적절하게 이용하기 위하여 깊이정보 맵을 비트평면 단위로 분리하여 비트평면 간 적응적 XOR 연산을 이용한 블록 기반 비트평면 부호화 방법을 제안한다. 또한 비트평면 단위 영상 부호화 방법과 DCT 기반 동영상 압축 방법(H.264/AVC)의 장점을 적절하게 이용하기 위하여 블록 단위 비트평면 부호화 방법과 기존의 블록 단위 동영상 부호화 방법을 적응적으로 선택하여 부호화하였다. 실험 결과 제안하는 방법이 H.264/AVC보다 BD-PSNR이 0.9 dB ~ 1.5 dB 향상되었고 BD-rate가 11.8 % ~ 20.8 % 감소되었다. 또한 제안하는 방법이 블록 기반 적응적 깊이정보 맵 부호화 방법보다 BD-PSNR이 0.5 dB ~ 0.8 dB 향상되었고 BD-rate가 7.7 % ~ 12.2 % 감소되어 제안하는 방법의 우수함을 확인할 수 있었다. 또한 복원된 깊이정보 맵을 이용하여 생성된 가상 영상 간의 비교에서 제안하는 방법이 DCT 기반 동영상 압축 방법보다 주관적 화질이 향상된 것을 확인할 수 있었으며, 블록 기반 적응적 깊이정보 맵 부호화 방법과 비교하여 주관적 화질이 비슷하다는 것을 확인 할 수 있었다.

자율 이동로봇의 경로추정을 위한 적응적 공간좌표 검출 기법 (Adaptive Spatial Coordinates Detection Scheme for Path-Planning of Autonomous Mobile Robot)

  • 이정석;고정환
    • 전기학회논문지P
    • /
    • 제55권2호
    • /
    • pp.103-109
    • /
    • 2006
  • In this paper, the detection scheme of the spatial coordinates based on stereo camera for a intelligent path planning of an automatic mobile robot is proposed. In the proposed system, face area of a moving person is detected from a left image among the stereo image pairs by using the YCbCr color model and its center coordinates are computed by using the centroid method and then using these data, the stereo camera embedded on the mobile robot can be controlled for tracking the moving target in real-time. Moreover, using the disparity mad obtained from the left and right images captured by the tracking-controlled stereo camera system and the perspective transformation between a 3-D scene. and an image plane, depth information can be detected. Finally, based-on the analysis of these calculated coordinates, a mobile robot system is derived as a intelligent path planning and a estimation.

유전 알고리즘 기반의 초점 측도 조합을 이용한 3차원 표면 재구성 기법 (3D Surface Reconstruction by Combining Focus Measures through Genetic Algorithm)

  • 무하마드 타릭 마흐무드;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제13권2호
    • /
    • pp.23-28
    • /
    • 2014
  • For the reconstruction of three-dimensional (3D) shape of microscopic objects through shape from focus (SFF) methods, usually a single focus measure operator is employed. However, it is difficult to compute accurate depth map using a single focus measure due to different textures, light conditions and arbitrary object surfaces. Moreover, real images with diverse types of illuminations and contrasts lead to the erroneous depth map estimation through a single focus measure. In order to get better focus measurements and depth map, we have combined focus measure operators by using genetic algorithm. The resultant focus measure is obtained by weighted sum of the output of various focus measure operators. Optimal weights are obtained using genetic algorithm. Finally, depth map is obtained from the refined focus volume. The performance of the developed method is then evaluated by using both the synthetic and real world image sequences. The experimental results show that the proposed method is more effective in computing accurate depth maps as compared to the existing SFF methods.

SYNTHESIS OF STEREO-MATE THROUGH THE FUSION OF A SINGLE AERIAL PHOTO AND LIDAR DATA

  • Chang, Ho-Wook;Choi, Jae-Wan;Kim, Hye-Jin;Lee, Jae-Bin;Yu, Ki-Yun
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 Proceedings of ISRS 2006 PORSEC Volume I
    • /
    • pp.508-511
    • /
    • 2006
  • Generally, stereo pair images are necessary for 3D viewing. In the absence of quality stereo-pair images, it is possible to synthesize a stereo-mate suitable for 3D viewing with a single image and a depth-map. In remote sensing, DEM is usually used as a depth-map. In this paper, LiDAR data was used instead of DEM to make a stereo pair from a single aerial photo. Each LiDAR point was assigned a brightness value from the original single image by registration of the image and LiDAR data. And then, imaginary exposure station and image plane were assumed. Finally, LiDAR points with already-assigned brightness values were back-projected to the imaginary plane for synthesis of a stereo-mate. The imaginary exposure station and image plane were determined to have only a horizontal shift from the original image's exposure station and plane. As a result, the stereo-mate synthesized in this paper fulfilled epipolar geometry and yielded easily-perceivable 3D viewing effect together with the original image. The 3D viewing effect was tested with anaglyph at the end.

  • PDF

Disparity 보정을 위한 컬러와 윤곽선 기반 루피 신뢰도 전파 기법 (Improvement of Disparity Map using Loopy Belief Propagation based on Color and Edge)

  • 김은경;조현학;이한수;수료 아드히 위보워;김성신
    • 한국지능시스템학회논문지
    • /
    • 제25권5호
    • /
    • pp.502-508
    • /
    • 2015
  • 스테레오 영상은 2-D 영상으로 분석할 수 없는 깊이(거리) 정보를 포함하고 있다. 하지만 연산을 통해서 거리정보를 얻을 수 있기 때문에 계산 값의 신뢰도가 낮고, 폐색된 공간 등의 영향으로 오차가 발생한다. 또한 Stereo Matching 시 Global Method를 사용할 경우, 많은 연산량에 따라 계산 시간이 오래 걸린다. 따라서 본 논문에서는 연산 시간이 짧고 더 높은 정확도를 갖는 Disparity Map을 구하는 방법을 제안한다. 특징 기반 영상분할 기법인 윤곽선 추출을 통해 정확도는 높이고 연산 시간은 줄였다. 컬러 기반 영상 분할 기법인 Color K-Means를 통해 관심 영역을 추출하고, 이를 기반으로 Loopy Belief Propagation(LBP)을 접목하였다. 제안하는 방법을 적용함으로 영상 내 물체들의 연관성을 고려한 보정이 가능하였고, 관심 영역 추출에 따라 연산 시간을 줄일 수 있었다. 실험 결과, 기존의 방법들보다 연산 시간이 짧고 정확도가 높은 Disparity Map을 얻을 수 있었다.

키넥트 깊이 정보와 DSLR을 이용한 스테레오스코픽 비디오 합성 (Stereoscopic Video Compositing with a DSLR and Depth Information by Kinect)

  • 권순철;강원영;정영후;이승현
    • 한국통신학회논문지
    • /
    • 제38C권10호
    • /
    • pp.920-927
    • /
    • 2013
  • 크로마키 방식에 의한 영상 합성은 색상 정보에 의해 전경 후경을 분리하기 때문에 객체 색상의 제약과 특정 스크린이 위치해 있어야 하는 공간의 제약이 있다. 특히 스테레오스코픽 3D 디스플레이를 위한 영상 합성은 크로마키 방식과는 달리 3D 공간에서의 자연스러운 영상 합성이 요구된다. 본 논문에서는 고해상도의 깊이 정보를 이용하여 깊이 키잉(depth keying) 방식에 의한 3D 공간에서의 스테레오스코픽 영상 합성을 제안하였다. 이를 위해 DSLR과 마이크로소프트사 키넥트 센서간의 카메라 캘리브레이션을 통해 고화질의 깊이 정보 획득 후 RGB 정보와의 정합 과정을 통해 3차원 데이터를 획득하였다. 깊이 정보에 의해 배경과 분리 된 객체는 3차원 공간에서의 포인트 클라우드 형태로 표현되어 가상 배경과 합성하였다. 이후 가상의 스테레오 카메라에 의해 Full HD 스테레오스코픽 비디오 합성 영상 획득 결과를 보였다.