그림 1. 카메라에 상이 맺히는 기하학적 구조 Fig. 1. The geometric structure of a camera
그림 2. 1개의 영상을 이용한 DFD에서 흐림 정도의 크기 계산 방법 Fig. 2. Calculation method of blur size by using a DFD image
그림 3. 얇은 렌즈 모델의 기하학적 형태. 거리 d에서 초점이 맞은 피사체는 렌즈 안쪽의 길이 DLS 지점에 초점을 맞추고, 입력으로 사용하는 영상의 흐림 정도의 커널은 반지름 r1, r2를 각각 갖는다. Fig. 3. Geometry of the thin-lens model. A scene point at depth d is in focus at distance DLS behind the lens. Its blur kernel in the input images has radius r1 and r2, respectively
그림 4. 물체의 경계 부분에서 흐림 정도의 크기를 이용한 DFD 알고리즘 순서도 Fig. 4. Flowchart of DFD algorithm using blur size of boundary of object
그림 6. DFD를 적용한 3D 거리 추정에 사용된 테스트 환경 Fig. 6. The test environment used for 3D depth estimation with DFD
그림 5. (a) 문턱값 추출을 위한 테스트 사진, (b)-(e) 문턱값에 따라 추출된 경계, 문턱값은 (b)부터 (e)까지 각각 0.01, 0.03, 0.05, 0.07이다. Fig. 5. (a) is test image for threshold extraction, (b)-(e) boundary images are extracted according to the threshold of 0.01, 0.03, 0.05, and 0.07, respectively
그림 7. (a) 스마트폰 카메라에서 촬영한 1개의 영상을 이용하여 추정한 3D 깊이의 오류 정도, (b) 스마트폰 카메라에서 촬영한 2개의 영상을 이용하여 추정한 3D 깊이의 오류 정도 Fig. 7. (a) Depth error of 3D depth estimated using one image taken by a smartphone camera. (b) Depth error of 3D depth estimated using two images taken by a smartphone camera
그림 8. (a) DSLR 카메라에서 촬영한 1개의 영상을 이용하여 추정한 3D 깊이의 오류 정도, (b) DSLR 카메라에서 촬영한 2개의 영상을 이용하여 추정한 3D 깊이의 오류 정도 Fig. 8. (a) Depth error of 3D depth estimated using one image taken by a DSLR camera. (b) Depth error of 3D depth estimated using two images taken by a DSLR camera
표 1. 단일 스마트폰 카메라로 촬영한 영상의 깊이 유효 범위. (a) 1개의 영상을 이용하여 추정한 3D 깊이의 유효 범위. (b) 2개의 영상을 이용하여 추정한 3D 깊이의 유효 범위 Table 1. The effective 3D depth with a single smartphone camera. (a) The effective 3D depth range estimated using one image. (b) The effective 3D depth range estimated using two images
Table 1. The effective 3D depth with a single smartphone camera. (a) The effective 3D depth range estimated using one image. (b) The effective 3D depth range estimated using two images
표 2. DSLR 카메라로 촬영한 1개의 영상의 유효 깊이 범위 Table 2. The effective depth range estimated by one image with a DSLR camera
표 3. DSLR 카메라로 촬영한 2개의 영상의 유효 범위 Table 3. The effective depth range calculated by two images with a DSLR camera
References
- Jong O Ban, Digital cameras and virtual reality, Yeonhaksa, pp.33, 2011.
- H. Tang, S. Cohen, B. Price, and S. Schiller, "Depth from defocus in the wild", 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Nov. 2017, doi: 10.1109/CVPR.2017.507.
- S. Suwajanakorn, C. Hernandez, and M. Seitz, "Depth from focus with your mobile phone", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp.3497-3506, Oct. 2015, doi: 10.1109/CVPR.2015.7298972.
- W. Balley, I. Echevarria, B. Bodenhelmer, and D. Gutierrez, "Fast depth from defocus from focal stacks", The Visual Computer, Vol.31, No.12, pp.1697-1708, Dec. 2015. https://doi.org/10.1007/s00371-014-1050-2
- C. Bae, Y. Ko, S. Kim, and D. Kim, "3D depth estimation by using a single smartphone camera", Proceedings of the Korean Society of Broadcast Engineers Conference, pp.240-243, Jul. 2018.
- S. Zhuo and T. Sim, "Depth map estimation from a single image", Pattern Recognition, Vol.44, No.9, pp. 1852-1858, Sep. 2011. https://doi.org/10.1016/j.patcog.2011.03.009
- H. Tang, S. Cohen, B. Price, S. Schiller, and K. N. Kutulakos, Supplementary material for depth from defocus in the wild, http://www.dgp.toronto.edu/WildDFD/supp.pdf (accessed Oct. 1, 2017).
- J. Canny, "A computational approach to edge detection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.PAMI-8, No.6, pp.679-698, Nov. 1986, doi: 10.1109/TPAMI.1986.4767851.