• 제목/요약/키워드: defocus technique

검색결과 14건 처리시간 0.024초

웨이블릿 변환을 이용한 Depth From Defocus (Depth From Defocus using Wavelet Transform)

  • 최창민;최태선
    • 전자공학회논문지SC
    • /
    • 제42권5호
    • /
    • pp.19-26
    • /
    • 2005
  • 본 논문에서는 CCD 카메라를 이용하여 획득된 영상들 간의 상대적인 열화(Blur)를 이용하여 물체의 3차원 형상 및 거리 정보를 얻을 수 있는 Depth From Defocus(DFD) 방법을 제안한다. 기존 논문의 주파수 영역에서 디포커스(Defocus) 연산자를 구하는 역필터링(Inverse filtering) 방법은 정확도가 떨어지고, 윈도우 효과(Windowing effects) 및 영상의 경계 효과(Border effect)와 같은 단점이 있었다. 또한 일반적인 영상은 비정체성 (Nonstationary)이기 때문에, 임의의 텍스처에 대한 가우시안(Gaussian) 및 라플라시안(Laplacian) 연산자 등의 필터를 이용하는 디포커스 방법의 추정값은 결과가 좋지 않다. 이러한 문제점들을 해결하기 위해 지역적 분석과 함께 다양한 크기의 윈도우를 제공하는 웨이블릿 변환을 이용한 DFD 방법을 제안한다. 복잡한 텍스처 특성을 갖는 영상의 깊이 추정을 위해서는 웨이블릿 분석을 사용하는 것이 효과적이다. Parseval의 정리에 의해 영상 간의 웨이블릿 에너지의 비율이 열화 계수(Blur parameter) 및 거리와 관련 있음을 증명하였다. 제안된 DFD 알고리즘의 성능을 계산하기 위해 실험은 종합적이며 실제적인 영상을 이용하여 행하였다. 본 논문의 DFD 방식은 기존의 DFD 방법보다 RMS 에러 측면에서 정확한 결과를 보였다.

단일 영상에서 디포커스 맵을 활용한 보케 효과 알고리즘 (Bokeh Effect Algorithm using Defocus Map in Single Image)

  • 이용환;김흥준
    • 반도체디스플레이기술학회지
    • /
    • 제21권3호
    • /
    • pp.87-91
    • /
    • 2022
  • Bokeh effect is a stylistic technique that can produce blurring the background of photos. This paper implements to produce a bokeh effect with a single image by post processing. Generating depth map is a key process of bokeh effect, and depth map is an image that contains information relating to the distance of the surfaces of scene objects from a viewpoint. First, this work presents algorithms to determine the depth map from a single input image. Then, we obtain a sparse defocus map with gradient ratio from input image and blurred image. Defocus map is obtained by propagating threshold values from edges using matting Laplacian. Finally, we obtain the blurred image on foreground and background segmentation with bokeh effect achieved. With the experimental results, an efficient image processing method with bokeh effect applied using a single image is presented.

Photometric Defocus Observations of Transiting Extrasolar Planets

  • Hinse, Tobias C.;Han, Wonyong;Yoon, Joh-Na;Lee, Chung-Uk;Kim, Yong-Gi;Kim, Chun-Hwey
    • Journal of Astronomy and Space Sciences
    • /
    • 제32권1호
    • /
    • pp.21-32
    • /
    • 2015
  • We have carried out photometric follow-up observations of bright transiting extrasolar planets using the CbNUOJ 0.6 m telescope. We have tested the possibility of obtaining high photometric precision by applying the telescope defocus technique, allowing the use of several hundred seconds in exposure time for a single measurement. We demonstrate that this technique is capable of obtaining a root-mean-square scatter of sub-millimagnitude order over several hours for a V~10 host star, typical for transiting planets detected from ground-based survey facilities. We compared our results with transit observations from a telescope operated in in-focus mode. High photometric precision was obtained due to the collection of a larger amount of photons, resulting in a higher signal compared to other random and systematic noise sources. Accurate telescope tracking is likely to further contribute to lowering systematic noise by exposing the same pixels on the CCD. Furthermore, a longer exposure time helps reduce the effect of scintillation noise which otherwise has a significant effect for small-aperture telescopes operated in in-focus mode. Finally we present the results of modelling four light-curves in which a root-mean-square scatter of 0.70 to 2.3 milli-magnitudes was achieved.

비초점 정밀 계측 방식에 의한 새로운 광학 프로브를 이용한 반도체 웨이퍼의 삼차원 미소형상 측정 기술 (A New Method of Noncontact Measurement for 3D Microtopography in Semiconductor Wafer Implementing a New Optical Probe based on the Precision Defocus Measurement)

  • 박희재;안우정
    • 한국정밀공학회지
    • /
    • 제17권1호
    • /
    • pp.129-137
    • /
    • 2000
  • In this paper, a new method of noncontact measurement has been developed for a 3 dimensional topography in semiconductor wafer, implementing a new optical probe based on the precision defocus measurement. The developed technique consists of the new optical probe, precision stages, and the measurement/control system. The basic principle of the technique is to use the reflected slit beam from the specimen surface, and to measure the deviation of the specimen surface. The defocusing distance can be measured by the reflected slit beam, where the defocused image is measured by the proposed optical probe, giving very high resolution. The distance measuring formula has been proposed for the developed probe, using the laws of geometric optics. The precision calibration technique has been applied, giving about 10 nanometer resolution and 72 nanometer of four sigma uncertainty. In order to quantitize the micro pattern in the specimen surface, some efficient analysis algorithms have been developed to analyse the 3D topography pattern and some parameters of the surface. The developed system has been successfully applied to measure the wafer surface, demonstrating the line scanning feature and excellent 3 dimensional measurement capability.

  • PDF

Follow-up Observations of Transiting Planets using Heavy Defocus Technique

  • ;한원용;윤요나;이재우;이충욱;박장호;김천휘
    • 천문학회보
    • /
    • 제38권1호
    • /
    • pp.56.1-56.1
    • /
    • 2013
  • We have carried out follow-up observations of transiting extrasolar planets using small- to medium-sized reflectors located in Korea. Using the 0.60m telescope stationed at CbNUO (Chungbuk National University Observatory) we have achieved a photometric precision of 1.48 milli-magnitudes (root-mean-square scatter of data) of a HAT-P-09b (transit duration of 3.43 hrs) transit light curve (transit depth ~ 1.3%) with V=12.3 mag for the host star. We expect a photometric precision of 1.0 - 1.2 milli-magnitude for brighter targets (V ~ 10 - 11 mag). The transit technique and its application will be outlined. The results of test observations will be presented and the defocus technique will be discussed.

  • PDF

A Defocus Technique based Depth from Lens Translation using Sequential SVD Factorization

  • Kim, Jong-Il;Ahn, Hyun-Sik;Jeong, Gu-Min;Kim, Do-Hyun
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.383-388
    • /
    • 2005
  • Depth recovery in robot vision is an essential problem to infer the three dimensional geometry of scenes from a sequence of the two dimensional images. In the past, many studies have been proposed for the depth estimation such as stereopsis, motion parallax and blurring phenomena. Among cues for depth estimation, depth from lens translation is based on shape from motion by using feature points. This approach is derived from the correspondence of feature points detected in images and performs the depth estimation that uses information on the motion of feature points. The approaches using motion vectors suffer from the occlusion or missing part problem, and the image blur is ignored in the feature point detection. This paper presents a novel approach to the defocus technique based depth from lens translation using sequential SVD factorization. Solving such the problems requires modeling of mutual relationship between the light and optics until reaching the image plane. For this mutuality, we first discuss the optical properties of a camera system, because the image blur varies according to camera parameter settings. The camera system accounts for the camera model integrating a thin lens based camera model to explain the light and optical properties and a perspective projection camera model to explain the depth from lens translation. Then, depth from lens translation is proposed to use the feature points detected in edges of the image blur. The feature points contain the depth information derived from an amount of blur of width. The shape and motion can be estimated from the motion of feature points. This method uses the sequential SVD factorization to represent the orthogonal matrices that are singular value decomposition. Some experiments have been performed with a sequence of real and synthetic images comparing the presented method with the depth from lens translation. Experimental results have demonstrated the validity and shown the applicability of the proposed method to the depth estimation.

  • PDF

북스펙트럼 스펙클 영상법의 성능기준 (Performance Criterion of Bispectral Speckle Imaging Technique)

  • 조두진
    • 한국광학회지
    • /
    • 제4권1호
    • /
    • pp.28-35
    • /
    • 1993
  • 수차가 정확히 알려지지 않은 결상계에 있어서, exit pupil에 인위적인 위상의 random fluctuation을 도입하고 북스펙트럼 스펙클 영상법(bispectral speckle imaging)을 이용하므로서 수차의 효과를 극소화하여 거의 회절한계의 영상을 얻을 수 있다. Defocus, 구면수차, 코마수차, 비점수차가 각각 1파장씩 있을 때, 주어진 사용영상수(50개)에 대해서 Gaussian random phase model의 correlation length가 어느 정도일 때 최적의 결과를 얻을 수 있는지를 점 물체에 대해 컴퓨터 시뮬레이션을 시행하므로서 연구하였다. 평가기준으로서는 복원된 점물체에 대한 point spread function의 FWHM, normalized peak intensity, MTF 그리고 visual inspection을 채용하였는데, exit pupil 위에서 Fried parameter ${\Upsilon}_0$ 범위에 대한 수차의 차의 rms값 $\sigma$가 구면수차에 대해서는 0.27~0.53 파장일 때, defocus와 비점수차에 대해서는 0.24~0.36 파장일 때, 좋은 결과를 주는 것으로 나타났고, 코마수차의 경우에는 좋은 결과를 얻을 수 없었다.

  • PDF

초점 영상 및 비초점 영상으로부터 깊이맵을 생성하는 방법 (Depth Map Generation Using Infocused and Defocused Images)

  • 사이드 마흐모드포어;김만배
    • 방송공학회논문지
    • /
    • 제19권3호
    • /
    • pp.362-371
    • /
    • 2014
  • 카메라 초점에 의해 발생하는 흐림(blur)의 변화는 깊이값을 측정하는데 사용한다. DFD(Depth from Defocus)는 깊이값과 흐림의 비례 관계를 이용하여 흐림의 양을 측정하는 기술이다. 기존 DFD 방법은 입력으로 두 장의 비초점 영상(defocused image)을 사용하는데, 기술적인 문제로 낮은 품질의 복원된 초점 영상(infocused image)과 깊이맵을 얻고 있다. 상기 문제점을 해결하는 방법으로 초점영상과 비초점 영상을 이용함으로써 복원된 초점 영상의 품질 저하를 해결한다. 제안 방법에서는 Subbaro가 제안한 DFD 방법에 새로운 에지 흐림 측정 방법을 결합하여 보다 정확한 흐림 값을 구한다. 또한 명암의 변화가 적은 영역에서는 흐림의 양을 측정하기가 어렵기 때문에, 관심맵(saliency)을 이용하여 비에지 영역을 채울 수 있도록 하였다. 실험에서는 초점 조절 기능이 있는 카메라로부터 20장의 2K FHD 해상도의 초점 및 비초점 영상을 생성한 후에 제안 방법을 이용하여 깊이맵을 생성하고, 마지막으로 입력 초점 영상과 깊이맵으로부터 3D 입체영상을 제작하였다. 3D 모니터로 시청한 결과 안정된 3D 공간감과 입체감을 얻을 수 있었다.

단일 프레임 영상에서 초점을 이용한 깊이정보 생성에 관한 연구 (A Study on Create Depth Map using Focus/Defocus in single frame)

  • 한현호;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제10권4호
    • /
    • pp.191-197
    • /
    • 2012
  • 본 논문에서는 단일 프레임 영상에서 초점을 이용하여 초기 깊이정보를 추출한 후 입체 영상을 생성하는 방법을 제안하였다. 단일 프레임 영상에서 깊이를 추정하기 위해 원본 영상과 가우시안 필터를 중첩 적용하여 생성된 영상의 비교를 통해 영상의 초점 값을 추출하고 추출된 값을 기반으로 초기 깊이정보를 생성하도록 하였다. 생성된 초기 깊이정보를 Normalized cut을 이용한 객체 분할 결과에 할당하고 각 객체의 깊이를 객체 내 깊이 정보의 평균값으로 보정하여 동일 객체가 같은 깊이 값을 갖도록 하였다. 객체를 제외한 배경 영역은 객체를 제외한 배경 영역의 에지 정보를 이용하여 깊이를 생성하였다. 생성된 깊이를 DIBR(Depth Image Based Rendering)을 이용하여 입체 영상으로 변환하였고 기존 알고리즘을 통해 생성된 영상과 비교 분석하였다.

Compensate and analyze of Optical Characteristics of AR display using Zernike Polynomials

  • Narzulloev Oybek Mirzaevich;Jumamurod Aralov Farhod Ugle;Leehwan Hwang;Seunghyun Lee
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권3호
    • /
    • pp.77-84
    • /
    • 2024
  • Aberration is still a problem for making augmented reality displays. The existing methods to solve this problem are either slow and inefficient, consume too much battery, or are too complex for straightforward implementation. There are still some problems with image quality, and users may suffer from eye strain and headaches because the images provided to each eye lack accuracy, causing the brain to receive mismatched cues between the vergence and accommodation of the eyes. In this paper, we implemented a computer simulation of an optical aberration using Zernike polynomials which are defocus, trefoil, coma, and spherical. The research showed that these optical aberrations impact the Point Spread Function (PSF) and Modulation Transfer Function (MTF). We employed the phase conjugate technique to mitigate aberrations. The findings revealed that the most significant impact on the PSF and MTF comes from the influence of spherical aberration and coma aberration.