1. 서론
오늘날 고해상도 위성 이미지는 정사 영상, 디지털 고도 모델, 수치지도 등과 같은 정확한 지형 정보를 생성하기 위한 주요 자원으로 활용되고 있다. 위와 같은 최종 산출물들의 정확도는 사용한 위성영상의 기하 정확도에 의해 결정된다. 초기 센서 모델의 경우 다양한 원인으로 인한 기하학적 오차가 존재하며, 위성 영상의 기하 정확도 향상을 위해서는 일반적으로 일정 수의 지상기준점을 사용하여 영상화소의 관측벡터가 해당 영상화소의 지상좌표에 잘 부합하도록 영상의 외부표정 요소를 조정하는 번들조정 과정을 거치게 된다. 번들조정 과정은 센서모델의 종류와 요구 정확도에 따라 각 이미지에 대해 일정 수의 지상기준점(Ground control point, GCP)들을 필요로 한다.
일반적으로 번들조정 과정에서 많은 수의 기준점을 사용하면 위치 정확도는 향상될 수 있다. 그러나 높은 정확도의 위치정보를 획득하기 위해 측량에 의해서 취득된 많은 수의 기준점을 사용하게 되면 시간과 비용에 대한 효율성이 떨어지게 된다. 또한 대단위 지역의 번들 조정 시, 각 영상마다 지상기준점을 사용하여 번들 조정을 수행하게 될 경우, 필요한 지상기준점의 개수가 너무 많이 지는 문제가 발생할 수 있다. 또한 촬영 대상 지역 특성에 따라 지상기준점 확보에 어려움이 발생할 수 있다.
위와 같은 문제점을 보완하기 위해서 단일 영상이 아닌 전체 스트립을 모델링하는 방법에 대한 연구가 활발히 진행되었다. Kim et al.(2007)은 사진측량에서 주로 사용되는 공선조건식을 변형한 위치-오일러각 모델과 인공위성의 궤도좌표계 및 실제 인공위성의 자세값을 나타내는 각을 모델 파라미터로 사용하는 궤도-자세각 모델 및 미지수조합 시험을 통해 궤도-자세각 모델과 자세각에 대한 변위만을 고려한 모델이 궤도모델링을 위한 최적의 조합임을 보였다. Kim et al.(2008)는 특정 Scene에 존재하는 GCP만을 사용하여 연속된 궤도 스트립에 대한 모델 수립이 가능함을 보였다. Rottensteiner et al.(2009)는 스트립에 대한 물리적 센서모델을 수립하고 번들조정을 적용하여 단일 영상 기반 블록조정의 경우보다 사용되는 GCP 수를 최대 90%까지 감소시켰으며, 스트립 번들조정을 통해 1pixel 이내의 정확도 획득이 가능함을 보였다. Fraser and Ravanbakhsh(2011)는 ALOS 영상을 사용하여 1500 km 길이의 스트립 모델을 생성하고 4개의 GCP를 사용하여 스트립 번들조정을 수행한 결과 sub pixel 수준의 정확도를 얻었다.
그러나, 위와 같은 선행 연구들은 물리적 센서모델을 기반으로 하고 있어 사용자에게 물리적 파라미터가 제공되지 않는 경우 적용이 불가능하다는 한계점이 존재한다. 이에 본 연구에서는 일반적으로 위성영상의 센서모델로 제공되는 RFM에 기반하여 동일 궤도상에 존재하는 각 Scene 영상들로부터 스트립 영상의 RFM을 구성하고 스트립 간 번들조정을 통해 전체 스트립을 모델하는 방법을 제안한다. 본 논문의 2장에서는 스트립 번들조정의 좌표계 변환, 스트립 RPC(Rational polynomial coefficient) 추정 그리고 번들조정에 대하여 설명하고, 3장에서는 실험 데이터에 대한 설명 및 실험 결과, 4장에는 결론을 다룬다.
2. 스트립 번들조정
일반적으로 위성영상은 Scene 단위 영상의 형태로 제공되므로 본 연구에서 제안하는 스트립 번들조정을 적용하기 위해 먼저, 각 단일영상의 좌표를 통일된 스트립 영상좌표계 상의 영상좌표로 변환하는 과정을 수행한다. 두 번째로 동일 궤도상에 존재하는 단일 영상 모델들로부터 스트립 영상 모델을 재구성하는 과정을 거친다. 이후 스트립 간 번들조정을 수행하게 된다. Fig. 1는 본 연구의 순서도를 나타낸 것이다.
Fig. 1. Flowchart of this study.
1) 스트립 영상 좌표계로의 변환
동일 궤도상에 존재하는 단일 영상들로부터 하나의 스트립 영상을 구성하기 위해서는 단일 영상의 영상좌표를 스트립 영상 좌표계의 영상좌표로 변환하는 과정을 수행해야한다. 스트립 영상 좌표계로의 변환은 인접영상과의 중복영역의 길이를 기반으로 계산될 수 있다. Fig. 2는 단일영상의 영상좌표를 스트립 좌표계 상 영상좌표로 구성하는 과정을 나타낸다.
Fig. 2. Mosaicking adjacent scene images.
영상 간의 중복영역의 길이는 두 영상에서 공통으로 나타나는 특징점(Tiepoint)들을 사용하며, 아래 수식 (1)을 통해 단일 영상의 영상좌표를 스트립 좌표계 상 영상좌표로 변환할 수 있다.
\(\begin{array}{l} c_{\text {strip }}=c_{\text {scene }_{i}} \\ r_{\text {strip }}=r_{\text {scene }_{i}}+\sum_{j=0}^{i} l_{j}-\sum_{j=0}^{i} O_{j} \end{array}\) (1)
여기서 cscenei, rscenei는 i번째 영상의 column, row 좌표이며, cstrip, rstrip은 스트립 좌표계 상 영상좌표, li는 i번째 영상의 row 방향 길이, oi는 i번째 영상 중복영역의 길이를 나타낸다.
2) 스트립 RPC 생성
RFM의 모델 파라미터인 RPC는 다수의 영상기준점(c, r)과 이에 대응하는 지상기준점(X, Y, Z)들을 관측 자료로 사용하여, 최소제곱법과 반복계산을 통해 산출할 수 있다.
대표적인 RPC 생성방식은 지상준점 생성방식에 따라 Terrain-independent 방식과 Terrain-dependent 방식으로 구분할 수 있다. Terrain-independent 방식은 DEM이나 수치지도 등 부가적인 자료를 사용하지 않고 영상 센서모델로부터 가상의 지상기준점들을 생성하여 RPC를 산출하기 위한 관측자료로 사용하는 방식으로 Terrain-independent 방식을 통한 RPC 산출은 다음과 같다. 먼저 영상 영역 전체에 걸쳐 영상점(, r)들을 고르게 분포시킨다. 다음으로 영상점들에 대응하는 지상좌표(X, Y, Z)들을 산출한다. 이 과정에서는 영상에 포함되는 대상지역의 지형을 고려하여 예상되는 최소(Zmin), 최대(Zmax) 높이 구간을 설정하고 해당 구간을 3개 이상의 높이 층(Z1, Z2, Z3)으로 분할한 뒤, 영상점(c, r)과 높이(Zi)를 입력값으로 하여 센서모델을 통해 이에 대응되는 평면좌표(Xi, Yi)를 산출하게 된다. Terrain-dependent 방식은 DEM이나 수치지도 등을 통해 촬영지역의 실제 지상좌표(X, Y, Z)가 제공될 경우 영상점(c, r)들에 대응하는 실제 지상좌표들을 관측자료로 사용하여 RPC를 추정하는 방식이다(Tao and Hu, 2001). 본 실험에서는 스트립 영상의 RPC 산출을 위해 가상의 지상기준점들을 사용하는 Terrain-independent 방식을 적용하였으며, Fig. 3과 같이 전체 스트립 영역에 대하여 균일하게 영상기준점들을 배치하고 이에 대응하는 지상기준점들을 추출하였다.
Fig. 3. Schematic of the 3D control grid.
3) 스트립 번들조정
본 실험에 사용한 RFM 기반 번들조정식은 다음 (2)와 같으며, 최소제곱법과 반복계산을 통해 RFM 보정 모델의 계수들을 산출한다 (Grodecki and Dial, 2003).
\(\begin{array}{l} c_{k}=\Delta c+\overline{c_{k}}+v_{c} \\ r_{k}=\Delta r+\overline{r_{k}}+v_{r} \end{array}\) (2)
여기서 ck, rk는 k번째 기준점의 column, row 좌표이며, Δc, Δr는 RFM의 column, row 방향으로의 모델 보정치이다. ck–과 rk–는 RFM과 k번째 기준점의 지상좌표로 산출된 영상좌표를 나타내며, vc, vr는 각 column, row 방향으로의 잔차를 나타낸다. 본 실험에 적용한 RFM 보정모델은 KOMPSAT-3 영상을 사용한 선행 연구를 바탕으로 아래 수식과 같이 affine model 형태의 1차 다항식 모델을 사용하였다(Jeong and Kim, 2014).
\(\begin{array}{l} \Delta r=a_{0}+a_{r} \cdot r_{k}+a_{c} \cdot c_{k} \\ \Delta c=b_{0}+b_{r} \cdot \mathrm{r}_{k}+b_{c} \cdot c_{k} \end{array}\) (3)
여기서 a0는 위성의 진행 방향 오차, pitch 회전의 자세오차, 주점과 센서 위치의 row 방향오차를 포함하며, b0는 위성의 진행 수직방향 오차, roll 회전의 자세오차, column 방향으로 발생하는 주점 및 센서 위치 오차를 포함한다. ac, bc는 방사방향의 오차 및 초점거리와 렌즈왜곡과 같은 내부표정오차를 포함하며, ar과 br는 상촬영 시 발생하는 gyro drift를 포함한다.
3. 실험자료 및 결과
1) 실험자료 및 방법
본 연구에서는 스트립 영상 번들조정을 위해 2017년 10월 21일과 2017년 11월 9일에 전라북도 김제시 일대 (지상면적 약 43 km×18 km)를 대상으로 촬영한 동일궤도상의 KOMPSAT-3A 스테레오 스트립 영상을 사용하였다. 각각의 스트립 영상은 3개의 단일영상으로 구성되며 Table 1와 2는 실험에 사용한 영상과 그 속성을 나타낸다.
Table 1. KOMPSAT-3A images used in this study (left strip)
Table 2. KOMPSAT-3A images used in this study (right strip)
본 연구에서는 KOMPSAT-3A 영상의 센서모델 수립 및 기하 정확도 평가를 위해 국토정보맵(https://map.ngii.go.kr)에서 제공하는 통합기준점 자료를 활용하였다. 기준점에 대한 영상좌표는 영상처리 소프트웨어를 사용하여 수동 독취 하였으며, 총 37점을 추출하였다.
RFM 기반 궤도모델링 가능성 검증을 위해 총 6가지 모델점 배치를 사용하여 실험을 진행하였으며, 각 실험에 대한 모델점의 배치는 아래 Table 3와 같다. Case-1, 2, 3은 특정영역의 기준점만을 사용하여 전체 궤도모델링이 가능한지 실험하기 위해 각각 스트립의 상단, 중앙, 하단에서 6개의 모델점을 추출하여 사용한 경우이고 Case-4는 스트립의 상단, 중앙, 하단에서 각 2개의 모델점을 추출하여 사용한 경우로 Case-1, 2, 의 결과와 비교를 수행하였다.
Table 3. Distribution of the model points
다음으로 스트립 번들조정을 통해 필요 기준점 수량 감소가 가능한지 여부를 알아보기 위하여, 전체 영역에서 9개의 기준점(Case-5), 12개의 기준점(Case-6)을 모델점으로 사용하여 스트립 번들조정을 수행하였으며 각 영상마다 6개의 기준점을 사용한 단일영상 번들조정과 결과를 비교하였다.
2) 초기모델 정확도 분석
KOMPSAT-3A 단일영상의 초기 위치 정확도 분석을 위해, 위성영상과 함께 제공되는 RPC파일을 이용하여 각 단일영상의 초기 센서모델을 수립하고 위치오차 분석을 실시하였다. 초기 센서모델 수립은 별도의 모델점을 필요로 하지 않으므로, 취득한 37개 기준점을 모두 검사점으로 사용하였다. 초기 센서모델에서 발생하는 오차 분석을 위해 Table 4에 각 영상별로 영상 좌표 및 수평 위치에 대한 평균 제곱근 오차 (Root Mean Square Error, RMSE)를 제시하였다. Table 5에는 KOMPSAT3A 영상으로부터 산출된 3차원 위치 정확도 산출 결과를 나타내었다. 3차원 위치 정확도 산출을 위해 스트립의 단, 중앙, 하단에 해당하는 좌, 우 영상들로 스테레오 모델을 수립하고, 각 스테레오 영상에서 동시에 관측되는 동일 지상점에 대한 좌, 우 영상점으로부터 3차원 위치를 계산한 뒤, 실제 기준점의 지상좌표와의 차이를 계산하였다. 정확도 산출 결과를 확인해보면 KOMPSAT-3A 각 영상에서 영상 내의 위치 오차들의 크기와 방향이 유사한 형태로 나타난 것을 확인할 수 있다. 또한 왼쪽 스트립의 경우 영상 간의 차이가 존재하나 대략 20 m의 수평위치 오차를 보였다. 오른쪽 스트립은 15 m 내외의 수평 위치오차를 보였으며, 전체적으로 왼쪽 스트립보다 오른쪽 스트립의 정확도가 높게 나타났다. 3차원 위치 정확도의 경우 X방향으로 12~20 m, Y방향으로 7 m 이내, Z방향으로 4~15 m 내외의 위치 결정이 가능하였으며, Left-Top과 Right-Top 스테레오 조합에서 오차가 가장 크게 나타난 것을 확인할 수 있다.
Table 4. The geolocation accuracy of the initial scene models
Table 5. The 3D geopositioning accuracy of KOMPSAT-3A stereo images
3) 단일영상 번들조정 정확도 분석
이번에는 스트립 번들조정 결과와의 비교분석을 위해, GCP를 이용하여 기하보정된 KOMPSAT-3A 영상의 모델 정확도를 분석하였다. 정밀 기하수립을 위해 각 영상에 포함되는 6개의 기준점을 사용하였으며, 모델점으로 사용하지 않은 나머지 기준점들을 검사점으로 활용하여 위치 정확도를 평가하였다. Table 6은 모델점 검사점에 대한 영상좌표 오차를 나타낸다. 정밀 기하보정된 KOMPSAT-3A 단일영상의 경우 영상 내에서 모델점에 대하여 약 2 pixel 정도의 오차를 가지는 것이 확인되었으며, 검사점에 대하여 약 4 pixel 내외의 오차를 가지는 것을 확인할 수 있었다. 기하보정된 KOMPSAT-3A 영상의 3차원 위치 결정 정확도는 Table 7와 같으며 모델점에 대하여 X방향으로 1.7 m, Y방향으로 1 m 내외, Z방향으로 1~2.7 m 내외의 위치결정이 가능하였고, 모델점에 대하여 X방향으로 1~2.3 m, Y방향으로 2 m 내외, Z방향으로 1~3.5 m 정도의 오차가 발생하는 것을 확인할 수 있었다.
Table 6. The image space accuracy of the KOMPSAT-3A images after bundle adjustment of individual images
Table 7. The 3D positioning accuracy after bundle adjustment of individual images
4) 스트립 RPC 추정 정확도 분석
스트립 영상의 RPC 추정을 위해 861개의 영상기준점(Column, Row)을 스트립 전 구간에 걸쳐 고르게 분포하도록 설정하였으며, 각 단일영상에 기록된 최초, 최대 높이 구간을 5개의 높이 레이어 층으로 분할하여, 영상기준점에 대응하는 가상 지상준점(X1:5, Y1:5, X1:5)들을 생성하였다. 각 스트립 별로 4,305개의 가상 기준점들을 사용하여 스트립 영상의 RPC를 산출하였고, 861개 기준점 대한 영상공간에서의 모델 잔차를 Table 8에 정량적으로 나타내었다. Fig. 4는 RPC 추정 후 발생한 오차의 패턴을 식별하기 위해 영상 공간상에서 발생한 오차를 영상 면적에 대비하여 확대하여 나타낸 것이다. RPC산출 결과를 확인해보면 왼쪽 스트립에서 0.5 pixel의 평균오차가 발생하였으며, 영상 하단 및 외각 지역에서 1 pixel 이상의 오차가 발생하였다. 오른쪽 스트립의 경우 0.3 pixel의 평균오차가 발생하였으며, 스트립 영상상단과 외각 지역에서 1 pixel 이상의 오차가 발생한 것을 확인할 수 있다. 추정 정확도 산출 결과를 종합해보면 생성된 스트립 모델이 단일영상 모델과 약간의 차이는 있으나 평균적으로 1 pixel 이하의 차이를 보였다.
Table 8. RPC fitting error
Fig. 4. Illustration of RPC fitting error
추가로 GCP를 이용하여 생성된 스트립 모델의 위치 정확도 분석을 실시하였다. 위치 정확도 분석을 위해 단일영상 초기모델 분석과 동일하게 가용한 37개의 GCP를 모두 사용하였고, 생성된 스트립 모델의 영상및 3차원 공간상 오차를 Table 9와 Table 10에 정량적으로 나타내었다. 앞선 과정에서 산출한 단일 영상의 초기모델 정확도 산출 결과와 비교할 때 왼쪽 스트립 영상의 경우 상단, 중앙, 하단 영역에서의 영상좌표 오차 및 수평위치 오차가 소폭 감소한 것을 확인하였으며, 오른쪽 스트립의 경우 상단과 중앙영역에서의 오차가 소폭 감소하였고, 하단 영역에서의 영상좌표 오차 0.1 pixel 정도 증가한 것을 확인하였다. 또한 두 스트립 영상 모두에서 단일영상과 발생한 오차의 크기는 차이가 있으나 오차 발생 패턴이 동일하게 나타난 것을 확인할 수 있다.
Table 9. The geolocation accuracy of the KOMPSAT-3A stirp images
Table 10. The 3D positioning accuracy of KOMPSAT-3A stereo strip
RPC 추정 잔차 분석과 생성된 스트립 모델 정확도 분석을 통해 동일궤도 상에 존재하는 단일영상의 RFM들로부터 스트립 모델을 생성하는 것이 가능함을 확인할 수 있었다.
5) 스트립 번들조정 정확도 분석
본 절에서는 동일궤도상에 존재하는 영상들의 궤도 모델링 가능성을 검증하기 위해, KOMPSAT-3A 스트립 영상의 번들조정을 실시하였다. 먼저 상단(Case-1), 중앙(Case-2), 하단(Case-3) 그리고 전체 영역에 고르게 분포(Case-)하는 4가지 경우에 대하여 실험을 진행하였으며, 각 6개의 모델점을 사용하였다. 기하보정된 스트립 모델의 위치 정확도 검증을 위해 모델점에 대한 정확도와 31개의 검사점에 대한 위치 정확도를 산출하였다.
Table 11과 12는 모델점에 대한 오차를 RMSE로 나타내었다. 모델점에 대하여 영상 내에서 약 2 pixel 정도의 모델 오차를 가지는 것을 확인하였으며, 수평 공간상에서 1.5 m의 위치 오차가 발생하였다. 모델점에 대한 3차원 위치 오차의 경우 각 Case 별로 약간의 차이가 발생하였으나 X방향으로 0.6~1.9 m, Y방향으로 2.3 m 이내, Z방향으로 1~2.5 m 사이의 오차가 존재함을 확인할 수 있었다.
Table 11. The geolocation accuracy after strip bundle adjustment against model points (Case 1 to 4)
Table 12. The 3D positioning accuracy after strip bundle adjustment (Case 1 to 4)
각 Case별 검사점에 대한 영상 공간 및 수평 위치오차는 아래 Table 13와 같으며, 검사점에 대한 3차원 위치 정확도를 Table 14와 같이 산출하였다. 영상 일부 영역에서만 모델점을 추출하여 번들조정을 수행한 Case1, 2, 3의 경우 모델링 수행 결과 초기모델에 비하여 영상 상단, 중앙, 하단 영역 모두에서 발생하는 모델오차의 크기가 감소한 것을 확인할 수 있고, 모델점이 포함된 영역으로부터의 거리가 증가할수록 모델오차 감소폭이 적게 나타남을 확인할 수 있다.
Table 13. The geolocation accuracy after strip bundle adjustment against check points (Case 1 to 4)
Table 14. The 3D positioning accuracy after strip bundle adjustment (Case 1 to 4)
스트립의 일부영역의 모델점만을 사용한 경우, 하단 영역에서 추출한 모델점을 사용한 Case-3에서 가장 높은 모델 정확도를 보였으며, 스트립의 상단, 중앙, 하단에서 각각 2개의 모델점을 추출한 Case-4의 경우, Case3에 비하여 다소 큰 오차를 보였으나, 스트립의 상단, 중앙, 하단 영역에서 비슷한 정도의 오차가 발생하였다.
검사점에 대한 3차원 위치 정확도 산출 결과 스트립 상단에서 모델점을 추출한 Case-1의 경우 영상 중앙에서 Y방향과 Z방향에 대한 오차가 증가한 것을 확인할 수 있고, 하단 영역에서도 Z방향 오차가 증가하였다. Case-2의 경우 상단 및 중앙에서의 3차원 위치 정확도가 향상되었으나, 하단 영역의 경우 Z방향으로 약 3m 정도 오차가 증가한 것을 확인할 수 있었다. Cae-3의 경우 전 구간에서 3차원 위치 결정 정확도가 향상된 것을 확인할 수 있었으며, 스트립 전체 영역에서 모델점을 추출한 Case-4의 수평 정확도가 Case-3에 비하여 다소 떨어지나, 수직위치 정확도는 전 구간에서 높게 나타난 것을 확인할 수 있었다.
위 실험을 통해 스트립의 일부 영역에 포함된 기준점만을 사용하여 궤도모델링이 가능함을 확인하였으며, 전체 스트립에 걸쳐 기준점을 추출한 Case-4가 가장 높은 정확도를 나타내었다.
이번에는 모델점 수에 따른 스트립 번들조정 정확도를 확인하기 위해 스트립의 상단, 중앙, 하단 영역에서 각 3개의 모델점을 추출한 Case-5와 4개의 모델점을 추출한 Case-6에 대한 실험을 진행하였으며, 각 영역에서 2개의 모델점만을 사용한 Case-4의 결과와 비교분석을 실시하였다. 스트립 번들 조정 후 모델점에 대한 영상 공간 및 수평위치 정확도를 Table 15에 정리하였으며, 모델점에 대한 3차원 위치 정확도를 Table 16과 같이 나타내었다. 번들조정 결과 Case-5, 6에서 2 pixel 정도의 영상좌표 오차를 가지는 것을 확인하였으며, 공간상에서 2 m 이내의 수평위치 오차를 갖는 것을 확인하였다. 3차원 위치 결정 정확도의 경우 X방향으로 2 m, Y방향으로 약 1 m, Z방향으로 1.8 m 정도의 오차가 발생하였다.
Table 15. The eolocation accuracy after strip bundle adjustment against model points (Case 4 to 6)
Table 16. The 3D positioning accuracy after strip bundle adjustment (Case 4 to 6)
모델점에 대한 정확도 산출 결과 모델점의 수를 증가시킨 Case-5와 Case-6에서 왼쪽 스트립의 경우 각 영역에서 2개의 기준점을 사용한 Case-4와 유사한 정확도를 보였으나 오른쪽 스트립의 경우 Case-5와 Case-6에서 약간의 오차 증가를 보였다.
검사점에 대한 영상 및 수평위치 정확도 산출 결과는 Table 17와 같으며, 정확도 산출 결과 9개의 모델점을 사용한 Case-5의 경우, 좌 우 스트립에서 약 4 pixel 내외의 영상 내 오차와 3 m 내외의 수평위치 오차가 발생함을 확인하였으며, 단일 영상 번들조정과 유사한 모델 정확도가 나타났다. 12개의 기준점을 사용한 Case-6의 경우 약 3 pixel 정도의 영상 좌표 오차와 2 m의 수평위치 오차가 발생하였고, 앞서 수행한 단일영상 번들조정보다 우수한 조정 후 모델 정확도를 나타내었다.
Table 17. The geolocation accuracy after strip bundle adjustment against check points (Case 4 to 6)
Table 18에는 스트립 번들조정 검사점에 대한 3차원 위치 정확도를 정량적으로 나타내었다. Case-5의 경우 상단 영역에서 수평 방향으로 약 3.8 m, 수직 방향으로 4.5 m 정도로 나타났으며, 중앙 영역에서 약 3 m의 수평 및 수직 위치 정확도를 보였고, 스트립 하단에서 수평 3 m 수직 2 m 정도의 위치 정확도가 나타났다. 12개의 기준점을 사용한 Case-6의 경우 상단 영역에서 수평 및 수직 방향으로 약 2 m, 중앙에서 수평방향으로 3 m, 수직방향으로 2 m, 하단 영역에서 수평·수직 방향으로 각각 1.5 m, 2 m의 위치 결정이 가능함을 확인하였다.
Table 18. The 3D positioning accuracy after strip bundle adjustment (Case 4 to 6)
검사점에 대한 정확도 산출 결과 번들조정에 사용되는 모델점의 수가 증가할수록 정확한 위치 결정이 가능함을 확인할 수 있었으며, 상단 영역에서의 정확도 향상이 가장 크게 나타난 것을 확인할 수 있었다.
앞선 단일영상 기반 번들조정 결과와 비교하여 전체 영역에서 12개의 기준점을 사용한 스트립 번들조정(Case-6)을 통해 각 영상에서 6개의 기준점을 사용한 단일 영상 기반 번들조정보다 정밀한 3차원 위치 결정이 가능함을 확인할 수 있었다.
4. 결론
이 논문에서는 동일궤도상에 존재하는 개별영상들의 RFM으로부터 스트립 모델을 생성하고 번들조정을 통해 전체 궤도에 대한 모델링이 가능성을 알아보았다. 이를 위해 먼저 각 3장의 개별영상으로 구성되는 2개의 스트립 모델을 생성하고 생성된 스트립 모델의 정확도를 분석하였다. 실험결과 스트립 모델 생성 시 일부 영상 외각 지역에서 1 pixel 이상의 오차가 발생하였으나 전체적으로 0.5 pixel 이하의 평균오차가 발생하여, 개별 영상의 RFM로부터 스트립 모델을 구성하는 것이 가능함을 확인하였다. 다음으로 특정 영역에 분포한 기준점만으로 전체 궤도 모델링이 가능한지 확인하기 위해 스트립의 상단, 중앙, 하단에 모델점을 배치하고 번들조정을 수행하였다. 실험결과 스트립의 일부 영역에 포함된 기준점만을 사용하여 궤도모델링이 가능함을 확인할 수 있었다. 마지막으로 번들조정 시 사용되는 모델점 개수에 따른 영향을 분석하기 위해 전체구간에서 6개, 9개, 12개의 모델점을 추출하여 스트립 번들조정을 수행하였으며, 조정 결과를 비교하였다. 실험결과 6개의 모델점을 사용한 경우 수평·수직 방향으로 약 4 m의 위치 결정이 가능하였으며, 9개의 모델점을 사용한 경우 수평·수직 방향으로 약 3 m의 3차원 위치 결정이 가능하였고, 12개의 모델점을 사용하였을 때 약 2 m의 수평·수직 결정이 가능하여, 번들조정 시 사용하는 기준점의 수가 증가할수록 정확한 위치 결정이 가능함을 확인하였다. 또한 12개의 기준점을 사용한 Case-6에서 단일영상 기반 번들조정보다 정밀한 모델 수립이 가능함을 확인였다.
이 논문에서는 RFM 기반 스트립 번들조정 가능성을 검토하기 위해, 일반적으로 물리적 모델에서 RPC를 생성하기 위한 한계인 약 40 km 정도의 비교적 짧은 스트립을 사용하여 스트립 영상의 RPC를 추정하고, 1차 다항식 형태의 RFM 보정모델을 적용하였다. 향후 연구에서는 본 논문의 RPC 추정과정에서 발생한 오차를 감소시키기 실험, 1차 다항식 형태의 RFM 보정모델 이외에 다양한 보정모델 적용 실험, 그리고 물리적 모델을 사용한 궤도모델링과의 비교를 수행할 예정이다.
References
- Fraser, C.S. and M. Ravanbakhsh, 2011. Precise georeferencing of long strips of ALOS imagery, Photogrammetric Engineering and Remote Sensing, 67(12): 1347-1357.
- Grodecki, J. and G. Dial, 2003. Block adjustment of high-resolution satellite images described by rational polynomials, Photogrammetric Engineering and Remote Sensing, 69(1): 59-68. https://doi.org/10.14358/PERS.69.1.59
- Jeong, J. and T. Kim, 2014. Analysis of dual-sensor stereo geometry and its positioning accuracy, Photogrammetric Engineering and Remote Sensing, 80(7): 653-662. https://doi.org/10.14358/PERS.80.7.653
- Kim, T., H. Kim, and S. Rhee, 2007. Investigation of physical sensor models for modelling SPOT 3 orbits, The Photogrammetric Record, 22(119): 257-273. https://doi.org/10.1111/j.1477-9730.2007.00441.x
- Kim, D., H. Kim, and T. Kim, 2008. Accuracy Analysis of the Orbit Modelling with Various GCP Configurations and Unknown Parameter Sets, Korean Journal of Remote Sensing, 24(2): 133-140 (in Korean with English abstract). https://doi.org/10.7780/kjrs.2008.24.2.133
- Rottensteiner, F., T. Weser, A. Lewis, and C. S. Fraser, 2009. A strip adjustment approach for precise georeferencing of ALOS optical imagery, IEEE Transactions on Geoscience and Remote Sensing, 47(12): 4083-4091. https://doi.org/10.1109/TGRS.2009.2014366
- Tao, C. V. and Y. Hu, 2001. A comprehensive study of the rational function model for photogrammetric processing, Photogrammetric Engineering and Remote Sensing, 67(12): 1347-1358.