• 제목/요약/키워드: reprojection error

검색결과 10건 처리시간 0.027초

카메라 재투영 오차로부터 중요영상 선택을 이용한 3차원 재구성 (3D Reconstruction using the Key-frame Selection from Reprojection Error)

  • 서융호;김상훈;최종수
    • 대한전자공학회논문지SP
    • /
    • 제45권1호
    • /
    • pp.38-46
    • /
    • 2008
  • 중요영상 선택 알고리즘은 다수의 비교정 영상으로부터 3차원 재구성을 위해 필수 영상을 선택하는 과정이다. 또한 3차원 재구성을 위해 영상들 사이의 카메라 자동교정(auto-calibration)이 필수적이다. 본 논문은 재구성 오차를 최대한 줄이는 최적의 영상을 선택하는 중요영상 선택 알고리즘을 제안한다. 선택된 중요영상들 사이의 카메라 투영행렬은 카메라 전자동교정(full-auto-calibration)과정을 통하여 추정한다. 정확하게 추정된 카메라 투영행렬로부터 대수학적 유도를 이용하여 기본행렬(fundamental matrix)을 계산하고, 이로부터 잘못된 대응점들을 제거하여 최종적으로 3차원 데이터를 얻는다. 실험 결과는 제안한 중요영상 선택 알고리즘이 다른 알고리즘에 비해 적은 시간이 소요되며, 재구성된 3차원 데이터의 오차가 가장 작았다. 대수학적 유도로부터 얻어낸 기본행렬은 다른 알고리즘에 비해 매우 짧은 시간이 소요 되며 평균 오차는 비슷한 결과를 갖는다.

소실점 정보의 Loss 함수를 이용한 특징선 기반 SLAM (Line-Based SLAM Using Vanishing Point Measurements Loss Function)

  • 임현준;명현
    • 로봇학회논문지
    • /
    • 제18권3호
    • /
    • pp.330-336
    • /
    • 2023
  • In this paper, a novel line-based simultaneous localization and mapping (SLAM) using a loss function of vanishing point measurements is proposed. In general, the Huber norm is used as a loss function for point and line features in feature-based SLAM. The proposed loss function of vanishing point measurements is based on the unit sphere model. Because the point and line feature measurements define the reprojection error in the image plane as a residual, linear loss functions such as the Huber norm is used. However, the typical loss functions are not suitable for vanishing point measurements with unbounded problems. To tackle this problem, we propose a loss function for vanishing point measurements. The proposed loss function is based on unit sphere model. Finally, we prove the validity of the loss function for vanishing point through experiments on a public dataset.

An Improved Fast Camera Calibration Method for Mobile Terminals

  • Guan, Fang-li;Xu, Ai-jun;Jiang, Guang-yu
    • Journal of Information Processing Systems
    • /
    • 제15권5호
    • /
    • pp.1082-1095
    • /
    • 2019
  • Camera calibration is an important part of machine vision and close-range photogrammetry. Since current calibration methods fail to obtain ideal internal and external camera parameters with limited computing resources on mobile terminals efficiently, this paper proposes an improved fast camera calibration method for mobile terminals. Based on traditional camera calibration method, the new method introduces two-order radial distortion and tangential distortion models to establish the camera model with nonlinear distortion items. Meanwhile, the nonlinear least square L-M algorithm is used to optimize parameters iteration, the new method can quickly obtain high-precise internal and external camera parameters. The experimental results show that the new method improves the efficiency and precision of camera calibration. Terminals simulation experiment on PC indicates that the time consuming of parameter iteration reduced from 0.220 seconds to 0.063 seconds (0.234 seconds on mobile terminals) and the average reprojection error reduced from 0.25 pixel to 0.15 pixel. Therefore, the new method is an ideal mobile terminals camera calibration method which can expand the application range of 3D reconstruction and close-range photogrammetry technology on mobile terminals.

다중 입체 영상 획득을 위한 정밀 카메라 캘리브레이션 기법 (Accurate Camera Calibration Method for Multiview Stereoscopic Image Acquisition)

  • 김중희;윤여훈;김준수;윤국진;정원식;강석주
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.919-927
    • /
    • 2019
  • 본 논문에서는 입체 영상을 획득하기 위한 정밀 카메라 캘리브레이션(calibration) 기법을 제안한다. 일반적인 카메라 캘리브레이션 기법은 체커보드 구조의 목적 패턴을 이용하여 수행한다. 체커보드 패턴은 사전에 인지된 격자구조를 활용할 수 있으며, 체커보드 코너점을 통해 특징점 매칭을 용이하게 수행할 수 있음에 따라 2차원 영상 픽셀 지점과 3차원 공간상의 관계를 정확히 추정할 수 있다. 특징점 매칭을 통해 카메라 파라미터를 추정하므로 정밀한 카메라 캘리브레이션을 위해선 영상 평면내의 정확한 체커보드 코너 검출이 필요하다. 따라서 본 논문은 정확한 체커보드 코너 검출을 통해 정밀한 카메라 캘리브레이션을 수행하는 기법을 제안한다. 정확한 코너를 검출하기 위해 1-D 가우시안 필터링을 활용하여 코너 후보군들을 검출한 후 코너 정제(refinement) 과정을 통해 이상치(outlier)들을 제거하며 영상내의 부분 픽셀(sub-pixel) 단위의 정확한 코너를 검출한다. 제안한 기법을 검증하기 위해 카메라 내부 파라미터를 추정 결과를 판단하는 재투사 오차(reprojection error)를 확인하며, 카메라 위치 ground truth 값이 제공된 데이터 셋을 활용하여 카메라 외부 파라미터 추정 결과를 확인한다.

CCD 카메라 모델을 이용한 플렌옵틱 카메라의 캘리브레이션 방법 (Calibration Method of Plenoptic Camera using CCD Camera Model)

  • 김송란;정민창;강현수
    • 한국정보통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.261-269
    • /
    • 2018
  • 본 논문은 플렌옵틱 영상에 CCD 카메라 모델을 적용하여 플렌옵틱 카메라의 내부 파라미터를 구하는 편리한 방법을 제안한다. 플렌옵틱 카메라 캘리브레이션에 사용되는 영상은 일반적으로 CCD 카메라 캘리브레이션에서 사용하는 체크보드패턴을 사용한다. CCD 카메라 모델에 기반 하여 플렌옵틱 카메라 모델의 행렬식을 구하고 이를 통해 초점거리, 주점, 베이스라인, 가상카메라와 물체사이의 거리를 나타내는 4가지 방정식을 공식화한다. 그리고 비선형 최적화 기법을 수행하여 방정식의 해를 찾는다. 구해진 추정치는 실제 매개 변수와 비교하고 구해진 파라미터를 이용해 재 투영 오차율을 구한다. 실험 결과 제안한 방법을 통해 구한 매개 변수는 실제와 매우 유사한 값을 가지며 재투영 오차율은 수용할 수 있는 정도로 나타난다.

구형물체의 중심좌표를 이용한 VLP-16 라이다 센서와 비전 카메라 사이의 보정 (Calibration of VLP-16 Lidar Sensor and Vision Cameras Using the Center Coordinates of a Spherical Object)

  • 이주환;이근모;박순용
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권2호
    • /
    • pp.89-96
    • /
    • 2019
  • 전방향 3차원 라이다 센서와 비전 카메라는 자동차나 드론 등의 자율주행기술 개발에 활용되고 있다. 한편 라이다 센서와 카메라 좌표계 사이의 변환 관계를 보정하기 위한 기존의 기술들은 특수한 보정물체를 제작하거나 보정물체의 크기가 큰 단점이 있다. 본 논문에서는 한 개의 구형물체를 사용하여 두 센서 사이의 기하보정을 간편하게 구현하는 방법을 소개한다. 구형 물체의 3차원 거리정보에서 RANSAC으로 네 개의 3차원 점을 선택하여 구의 중심좌표를 계산하고, 카메라 영상에서 물체의 2차원 중심점을 구하여 두 센서를 보정하였다. 구는 다양한 각도에서 영상을 획득하여도 항상 원형의 형상을 유지하기 때문에 데이터 획득 시 유리한 장점이 있다. 본 논문에서 제안하는 방법으로 약 2픽셀의 투영오차의 결과를 얻었고, 기존의 방법과의 비교실험을 통하여 제안 기술의 성능을 분석하였다.

고해상도 입체 위성영상 처리를 위한 무기준점 기반 상호표정 (Relative RPCs Bias-compensation for Satellite Stereo Images Processing)

  • 오재홍;이창노
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.287-293
    • /
    • 2018
  • 고해상도 입체 위성영상을 보다 정확하고 효율적으로 처리하기 위해서는 종시차를 제거한 정밀한 에피폴라 영상을 생성하는 것이 필요하다. 종시차 제거를 위해서는 두 입체 영상간의 정밀한 센서모델링이 선행되어야하는데, 이를 위해 일반적으로 지상 기준점을 이용한 번들 조정을 수행한다. 그러나 접근이 힘들거나, 참조 데이터를 확보하기 어려운 지역, 또는 절대적 위치 정확성이 크게 중요치 않은 경우에는 기준점을 활용하지 않고, 공액점(conjugate points)만을 활용한 상호표정을 수행하여야 한다. 항공, 지상 사진 등에 사용되는 프레임 카메라와는 달리, 위성 센서에 활용되는 푸쉬부룸 센서의 경우 상호 표정의 정확성 등의 분석의 검증이 필요하므로, 본 연구에서는 고해상도 입체 영상 처리를 위해 가장 많이 활용하는 RPCs의 무기준점 편위 보정을 통하여 상호표정의 정밀성을 분석하고 입체 영상 생성 시 종시차 달성의 정확성을 분석하였다. 연구 과정에서 공액점은 영상간의 매칭을 통해 생성하였고, 공액점의 오차를 고려하여 과대오차 제거 기법을 적용하여 필터링하였다. RPCs 편위보정은 affine과 다항식 기반으로 진행되었으며, 보정 후 RPCs의 투영 오차를 검토하였다. 최종적으로 에피폴라 영상을 생성하여 종시차를 평가하였으며, 그 결과 아리랑 3호 영상의 경우 2차 다항식으로 1픽셀 수준의 종시차를 달성할 수 있음을 알 수 있었다.

특징점 매칭 개선 및 강인추정을 통한 이종해상도 위성영상 자동영상정합 (Automated Image Matching for Satellite Images with Different GSDs through Improved Feature Matching and Robust Estimation)

  • 반승환;김태정
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1257-1271
    • /
    • 2022
  • 최근 많은 수의 지구관측용 광학위성이 개발되어 위성영상에 대한 수요가 증가하고 있다. 따라서, 위성영상의 활발한 활용을 위해서 신속한 전처리 과정이 요구된다. 위성영상 정합은 두 영상을 하나의 특정한 좌표계로 변환하여 등록하는 기술로서 원격탐사 분야에서 영상정합 기술은 서로 다른 대역의 영상을 정렬하거나, 두 위성영상 간의 상대적인 위치 오차를 수정하는데 사용된다. 본 논문에서는 서로 다른 Ground Sample Distance (GSD)를 가지는 위성영상 간의 자동 영상정합 방법을 제안하였다. 제안방법은 개선된 특징점 매칭방법과 강인한 변환모델 추정기법을 기반으로 하며, 다음과 같이 5가지 처리과정으로 구성된다: 중첩 영역 계산, 개선된 특징점 탐지, 특징점 매칭, 강인한 변환모델 추정, 영상 리샘플링. 특징점 탐지를 위해서 중첩영역을 추출하여 두 영상의 GSD가 유사하도록 영상 리샘플링을 수행하였다. 특징점 매칭 단계에서는, Oriented FAST and Rotated BRIEF (ORB) 알고리즘을 사용하여 영상정합 성능을 향상시켰다. 영상정합 실험은 KOMPSAT-3A와 RapidEye영상을 실험대상으로 수행되었으며 제안방법의 성능검증은 정성적, 정량적 두 가지 방법으로 수행되었다. 영상정합의 재투영오차는 RapidEye GSD를 기준으로 1.277 (8.3 m)에서 1.608 (10.452 m)의 픽셀 정확도를 보였다. 즉, 결론적으로, 제안방법을 통해 이종해상도 위성영상의 영상정합 가능성을 확인하였다.

개선된 화질의 영상을 이용한 열화상 카메라 캘리브레이션 (Calibration of Thermal Camera with Enhanced Image)

  • 김주오;이덕우
    • 한국산학기술학회논문지
    • /
    • 제22권4호
    • /
    • pp.621-628
    • /
    • 2021
  • 본 논문에서는 3개의 시점을 가진 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하고, 카메라의 내부 파라미터 추정 및 그 결과의 정확도를 파악하기 위해 역투영 오류값을 제시한다. 3개의 시점을 가진 카메라는 일반 카메라와 다르게 각 시점마다 겹치는 영상이 존재하지 않고, 획득한 영상의 화질은 일반 카메랄 획득한 영상보다 낮다. 카메라 캘리브레이션은 3차원 실제 영상의 좌표 정보 또는 카메라와 목표물체 사이의 거리를 계산하기 전에 반드시 수행되어야 하는 작업이다. 카메라 캘리브레이션 작업을 통해 얻는 것은 카메라의 내부 및 외부 파라미터이며 내부 파라미터는 카메라의 초점거리, 비대칭계수, 이미지 중심점으로 구성되어 있고, 외부 파라미터는 사용되는 카메라들 사이 또는 사용되는 카메라의 상대적 위치인 회전행렬과 변위벡터로 구성되어 있다. 본 논문에서는 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하며, 열화상 카메라의 캘리브레이션 수행을 위해 온도에 반응하는 열상 체커보드를 활용한다. 캘리브레이션이 안정적으로 수행되기 위해 본 논문에서는 심층 학습 기반 촬영대상 물체의 화질을 개선하여 코너 추출의 정확도를 높인 후 캘리브레이션 파라미터 계산을 수행하고, 개선된 화질의 영상이 캘리브레이션을 개선한 결과를 제시한다.

크라우드소싱 드론 영상의 기하학적 품질 자동 검증 (Automatic Validation of the Geometric Quality of Crowdsourcing Drone Imagery)

  • 이동호;최경아
    • 대한원격탐사학회지
    • /
    • 제39권5_1호
    • /
    • pp.577-587
    • /
    • 2023
  • 크라우드소싱(crowdsourcing) 공간 데이터 활용 연구가 활발히 진행되고 있으나 데이터 품질의 불확실성으로 인한 문제점이 제기되고 있다. 특히 드론 영상 데이터셋에 품질이 낮은 데이터가 포함될 경우, 출력되는 공간 정보의 품질이 저하될 수 있다. 이를 위해 본 연구에서는 크라우드소싱된 영상의 기하학적 품질을 자동으로 검증하는 방법론을 제안하였다. 주요 품질 요소로는 영상의 공간해상도, 해상도 변화량, 매칭점 재투영 오차, 번들 조정 결과 등을 입력변수로 활용하였다. 공간 정보 생성에 적합한 영상을 분류하기 위해 학습 및 검증 데이터를 구축하고, radial basis function (RBF) 기반의 support vector machine (SVM) 모델로 학습을 진행하였다. 학습된 SVM 모델의 분류 정확도는 99.1%를 기록하였다. 품질 검증 모델 효과를 확인하기 위해 학습 및 검증에 사용하지 않은 드론 영상에 대하여 해당 모델을 적용하기 전후의 영상 데이터셋으로 각각 정사영상을 생성하고 비교하였다. 그 결과 모델 적용을 통하여 정사영상에 포함될 수 있는 다양한 왜곡을 줄이고 객체 식별력을 증대시키는 것을 확인하였다. 제안된 품질 검증 방법론은 다양한 품질의 크라우드소싱 데이터를 입력으로 받아 양질의 정보만을 자동 선별하게 함으로써 공간정보 생성에서의 활용 가능성을 증대시킬 것으로 기대한다.