1. 서 론
최근 고해상도 위성영상의 경우 과거에 비해 정밀 궤도 모델링 기술의 발전으로 인해 무기준점 기반 좌표 등록의 정확도가 비약적으로 향상되고 있다. 그러나 여전히 지도 제작이나 영상 지도 등의 분야에 활용하기 위해서는 지상기준점 등을 활용한 정밀 좌표등록 및 보정 과정이 필수적이다. 통상적으로 수동에 기반하여 기준점을 획득하고 확인하는 경우, 시간, 인력 및 비용이 많이 소요되는 단점이 있어 최근 자동화된 좌표 등록 방법에 대한 연구가 많이 진행되어 발표되었다. 대부분의 연구가 항공사진 또는 위성영상을 정확한 지리좌표를 내포하고 있는 참고 데이터에 매칭하는 기법이며 사용된 데이터에 따라, 기존의 지도 (Dowman et al., 1996; Hild, 2001), 이미 보정된 항공사진 또는 위성영상 (Wong and Clausi, 2007; Han et al., 2013; Oh et al., 2013), 라이다 (Habib et al., 2005; Abedini et al., 2008)를 이용하는 방법 등으로 나뉜다. 지도의 경우 도로나 건물과 같이 관심 지형지물 이외에는 도화과정을 통해 많은 정보가 걸러지는 경우가 많고, 또한 도로 등에 속성에는 높이 정보가 누락된 경우가 많다. 이미 기하보정 또는 정사 보정된 위성영상의 경우에는 2차원 데이터로서 정확한 표고 정보가 존재치 않으며, 그로 인해 건물 등의 기복 변위가 존재하여 고해상도 위성영상에 매칭할 경우 좌표등록 결과에 편위를 발생시킬 가능성이 매우 높다. 반면 라이다 데이터의 경우 공간 해상도 및 정확도가 높고 무엇보다 3차원 데이터이기 때문에 기복 변위 등을 내포하고 있지 않는 등 많은 장점을 내포하고 있다. 라이다 데이터의 확보율 또한 증가하고 있는 점도 고무적이다. 미국의 경우에도 USGS, NGA, FEMA, NASA등이 함께하는 국가 수치표고 프로그램(National Digital Elevation Program, NDEP)을 통해 라이다 데이터를 수집하고 제공하고 있으며, 국내의 경우에도 대도시 지역을 중심으로 라이다 데이터가 다수 확보된 상태이다.
앞서 설명한 라이다 데이터의 많은 장점에도 불구하고, 대용량의 데이터라는 점에서 활용에 제약이 따르며 이로 인해 관련 연구가 많이 진행되지 못했다. 예로 최근 라이다 데이터와 고해상도 위성영상간의 매칭을 위한 기법이 발표되었으나(Oh et al., 2012), 해당 기법은 대상지역의 전체 라이다 데이터를 RPCs (Rational Polynomial Coefficients)를 이용하여 위성영상 공간으로 투영시키는 작업을 필요로 하며, 이 과정에서 많은 시간이 소요되는 단점이 있었다. 따라서 본 연구에서는 전체 라이다 데이터의 활용을 지양하고, 고해상도 위성영상의 좌표 등록에 의미 있게 사용될만한 일부의 지역만을 선별하고, 이를 라이다 칩으로 추출 및 저장하여 활용하는 연구를 수행하였다. 이를 통해, 라이다 데이터의 디스크 공간을 현저히 줄일 수 있을 뿐 아니라, 고해상도 위성영상의 자동 좌표등록에 활용할 경우 선별된 적은 양의 라이다 칩만을 활용하므로 효율성을 향상시킬 수 있다.
본 연구에서는 라이다 칩 생성을 위해 라이다 반사강도 데이터를 이용하여 정사영상을 생성한다. 이후 반사강도 정사영상으로부터 에지 추출을 수행하고 이를 통해 의미 있는 양의 에지 정보만을 포함하는 지역을 선정하여 주변 지역을 라이다 칩으로 추출 및 저장하였다. 이 때, 생성된 라이다 칩은 반사강도 뿐 아니라 수치 표고 정보를 갖고 있는 3차원 칩으로 저장된다. 본문에서는 라이다 칩 생성 과정 및 활용된 변수 등에 대한 내용을 실제 데이터를 이용하여 단계별로 제시한다. 저장된 라이다 칩 생성이 완료된 후 아리랑 2호 및 아리랑 3호 영상의 자동 좌표등록에 활용하여 정확성을 평가하였다.
본 논문의 구성은 아래와 같다. 2장에서는 라이다 칩 생성에 대한 내용을 제시하였고, 3장에서는 라이다 칩을 자동 좌표 등록에 활용하기 위한 방법론을 소개하였다. 4장에서는 생성된 라이다 칩을 아리랑2호와 3호 영상에 적용하여 자동 좌표등록 결과를 분석하였으며, 마지막 5장에 결론을 제시하였다.
2. 라이다 칩 생성
2.1 라이다 데이터
테스트 대상 지역은 대구 지역 및 북서쪽 산악지역을 포함하는 영역이다(Fig. 1). 즉, 대상지역의 우측 하단은 대부분 도심지이고 좌상단 쪽으로 산이 분포되어 있는 지형이다. 지형의 표고는 약 0~750m의 범위를 갖고 있다.
Fig. 1.The tested LiDAR data with the grayscale showing elevation
대상지역에 대해 2008년 2월부터 4월까지 두 달에 걸쳐 라이다 데이터가 획득되었으며, 설계 점밀도는 1m2당 5포인트이다(Table 1). Fig. 1에서 뚜렷이 보이는 상단의 한 라이다 스트립의 경우, 주변 스트립과의 인접성이 떨어져 점밀도가 상대적으로 낮으며, 데이터의 빈 공간이 있다. 라이다 데이터의 표고는 정표고이며, 총 데이터양은 19.4기가바이트이다.
Table 1.LiDAR data specification
2.2 반사강도 정사 영상 생성
라이다 데이터는 3차원 포인트 클라우드의 형태로 이루어져 있으며, 각 포인트는 3차원 위치 좌표 및 반사강도의 속성을 지닌 벡터 데이터 형태이다. 이 중 반사강도 정보는 고해상도 위성 영상의 좌표등록을 위한 영상 매칭 과정에 사용될 수 있는 정보이므로, 라이다 전체 데이터를 이용하여 반사강도 정사영상을 생성한다. 이를 위해 생성할 정사 영상의 공간해상도를 설정하고 라이다 데이터가 존재하는 전체 영역의 범위를 계산하여 그리드 형태의 영상 틀을 생성한다. 이후 라이다 포인트의 수평 위치에 해당하는 정사 영상 틀 내의 픽셀 위치를 계산하여 해상 위치에 반사강도 값을 할당한다. 쉽게 말해 벡터형태인 라이다 포인트 별 반사강도 정보를 이용하여 설정된 공간해상도로 래스터화하는 것이다. 이 때, 건물로 인한 폐색 지역, 라이다 인접 스트립의 중첩 부족 등으로 인해 라이다 데이터 점밀도가 상대적으로 낮은 지역이 있는 경우 생성된 정사영상에서는 노이즈 형태의 빈 공간이 다수 발생될 수 있다. 이러한 경우에는 중간값 필터 등을 통해 제거해야 한다. 그렇지 않은 경우 빈 공간과 주변의 반사강도 차이로 인해 향후 고해상도 위성영상과의 매칭에 큰 장애물이 될 수 있다.
이렇게 생성되는 반사강도 정사 영상은 2차원 영상의 형태이므로, 각 픽셀에 해당하는 표고값을 영상 형태, 즉 수치표고모델을 별도로 저장하여 3차원 정보를 보존한다. 단, 라이다 데이터의 표고 값이 정표고이고, 목적에 따라 타원체고로 변환이 필요할 경우에는 지오이드 모델을 활용하여 변환을 수행한다.
Fig. 2(a)와(b)는 테스트 데이터를 이용하여 생성한 1미터 해상도의 반사강도 정사영상 및 수치표고모델을 보여주고 있다. 앞서 설명한 바와 같이 영상 전반에 걸쳐 점밀도가 낮은 지역에서 데이터 누락이 발생하여 페퍼 노이즈(pepper noise) 형태가 다수 관찰되며, 중간값 필터를 적용한 결과 Figure 2(c)와 (d) 같은 개선된 결과를 얻을 수 있었다.
Fig. 2.One meter resolution intensity image and digital elevation model generated from the LiDAR point cloud
2.3 라이다 칩 선별 및 저장
고해상도 위성영상의 좌표 등록을 위해서는 라이다 데이터와 고해상도 위성영상간의 영상 매칭 과정이 필요하며, 이 때 라이다 반사강도 영상의 에지 정보가 사용된다. 따라서 앞서 생성된 반사강도 영상에서 에지정보가 풍부한 지역만을 선별하여 라이다 칩으로 저장하였다. 즉, 반사강도 영상에 Canny 연산자를 적용하여 에지정보를 추출하고, 노이즈 형태의 에지를 차단하기 위해 길이가 10픽셀 이상(지상 거리로 약 10미터)인 에지만을 의미 있는 에지로 분류하였다. 최종적으로 10픽셀이상의 길이를 갖는 에지가 전체 에지의 50% 이상인 경우 해당 지역을 라이다 칩으로 선택하여 저장하였다.
라이다 칩 크기 결정을 위해서는 Oh et al.(2012)의 연구를 참고하였다. 해당 연구에서는 라이다 데이터와 고해상도 영상간의 에지 매칭을 위한 다양한 윈도우 크기를 테스트했으며, 약 500x500 픽셀 이상의 크기가 매칭에 적합하다고 보고하였다. 본 연구에서는 라이다 칩이 좌표변환 등을 통해 변환될 수 있음을 고려하여 여유 공간을 두어 720x720 픽셀 사이즈로 라이다 칩 생성을 수행하였다. 향후 매칭 시에는 500x500 픽셀만을 활용한다.
대상지역 전체에 대해 720x720 픽셀 사이즈를 단위로 구획을 나누어본 결과 총 756개의 구획으로 나뉘어졌으며, Fig. 3에 나타낸 바와 같이 총 182개의 구획(전체 영역 대비 약 24%)이 라이다 칩으로 선택되어 저장되었다. Fig. 4는 추출된 몇 개의 샘플 라이다 칩을 보여주고 있다. 통상적으로 패턴이 일정하게 나오는 도심지, 농경지 뿐 아니라 산림지역이더라도 에지 정보가 강하게 나타나는 지역도 포함된 것을 알 수 있다.
Fig. 3.Selected areas for LiDAR chips
Fig. 4.LiDAR chip samples
라이다 칩 생성 결과, 대상지역의 라이다 데이터 총 양이 19.4 기가바이트인데 비해 저장된 182개의 라이다 칩의 데이터 용량은 약 110메가바이트로서 약 176배의 저장용량을 감소시킬 수 있었다. 따라서 남한 전체 등 광역범위의 라이다 데이터를 활용하고자 할 경우 일반적인 크기의 하드디스크에 저장하여 활용키 어려운데 반해 라이다 칩을 생성시켜 활용한다면 그 이점은 더욱 클 것으로 판단된다.
3. 라이다 칩을 활용한 위성영상 좌표 보정
사용자가 좌표 등록하고자 하는 고해상도 위성영상과 RPCs가 입력하면, 라이다 칩의 반사 강도 정보는 위성영상으로 투영된다. 이때, 저장된 동일점의 표고정보가 이용된다. 투영된 라이다 칩의 위치는 RPCs의 오차에 따라 정확한 위치가 아닌 곳에 위치하게 되므로, 위성영상과의 매칭 과정을 통해 정확한 영상 위치를 찾게 된다. 이렇게 원 위치와 찾아진 영상 위치와의 차이를 이용하여 RPCs의 오차를 보정한다 (Oh et al., 2012).
3.1 라이다 칩 영상 투영
반사강도 정보를 가지고 있는 라이다 칩은 같이 저장된 수치표고모델의 높이값을 이용하여 고해상도 위성영상 공간으로 투영된다. 대부분의 고해상도 위성영상은 RPCs가 같이 제공되므로, 투영을 위해서는 Eq. (1)의 RFM (Rational Function Model)식을 활용할 수 있다.
실제 위성 영상이 획득될 때는 건물 등으로 가려지는 지상의 폐색영역은 영상에 나타나지 않는다. 그러나, 라이다 칩을 RPCs에 의해 위성영상 공간에 투영할 경우에는 이에 대한 고려가 이루어지지 않으므로, 위성영상 하나의 픽셀 공간에 다수 개의 라이다 반사강도 영상이 중첩되는 경우가 발생한다. 쉽게 말해, 건물 등으로 가려져야하는 영역의 라이다 반사강도 정보 또한 위성 영상 공간으로 투영된다. 따라서, 본 연구에서는 라이다 칩을 영상에 투영 후, 동일한 위치에 중첩되어 나타나는 반사강도 중에서 지상의 표고값이 가장 높은 경우의 반사강도만을 선택하여 활용함으로써 폐색되어 투영되지 말았어야하는 지역의 반사강도를 제거하였다.
최종적으로 앞서 언급한 것과 같이 Oh et al.(2012)의 연구결과에 따르면 약 500x500 픽셀 이상의 크기가 매칭에 적합하므로, 투영을 통해 최종 위성영상 내에서 위치하는 라이다칩의 크기는 500x500만큼만 잘라서 활용하였다.
with
u = [1 V U WVU VW UW V2 U2 W2 UVW V3 VU2 VW2 V2 U U3 UW2 V2W U2W W3]T
a = [a1 a2 … a20]T,b = [b1 b2 … b20]T, c = [c1 c2 … c20]T,d = [d1 d2 … d20]T
where X, Y : the normalized image coordinates, U, V, W: the normalized ground point coordinates, ϕ,λ,h : the geodetic latitude, longitude and ellipsoidal height of ground point, l, s : the image line (row) and sample (column) coordinates, ϕ0,λ0,h0,S0,L0 : the offset factors for the latitude, longitude, height, sample and line, ϕS,λS,hS,SS,LS : the scale factors for the latitude, longitude, height, sample and line.
3.2 매칭
일반적인 상관계수 매칭이나 SIFT 매칭 등 포인트 피쳐 기반의 매칭 기법은 라이다 반사강도와 고해상도 위성영상과 같이 서로 다른 분광적 특성을 갖는 데이터간의 매칭에서는 활용할 수가 없다. 따라서, 본 연구에서는 에지의 상관도를 기반으로 매칭을 수행하는 RECC (Relative Edge Cross Correlation)을 활용하였다(Oh et al., 2012). RECC는 상관계수 식과 유사한 Eq. (2)와 같이 구성되어 있으며, 분모는 두 영상에서 추출되는 에지 픽셀의 총 수의 합계를 나타내고, 분자는 두 영상 모두에서 에지인 픽셀의 총 수이다.
상관계수 매칭의 경우 매칭의 성공여부를 0.7, 0.8과 같이 설정한 상관계수로 판단하지만, RECC의 경우 Eq. (3)에 제시된 CV4를 이용하여 성공 여부를 판단한다. 설정된 검색 영역내에서 매칭 윈도우가 지나가며 RECC 값을 계산하고 최대 RECC인 위치를 도출한다. 또한, 상위 4개의 RECC값을 보이는 위치를 찾아, 최대값을 보인 위치와의 거리를 계산하여 평균한 것이 CV4이다. CV4가 작은 값을 가질수록 RECC 매칭이 성공한 것일 확률이 높다는 것을 의미한다.
where RECC : relative edge cross correlation, L : an edge image of the LiDAR chip, R : an edge image of a subarray of the satellite image, Lij, Rij: the digital numbers associated with image L and image R, respectively, at line i and sample i (this digital number is one if it is on the edge, otherwise it is zero).
where CV4: the concentration value based on the maximum to fourth largest RECC values, (rmax, cmax), (ri, ci): the image coordinates of the positions of the maximum RECC and i-th largest RECC values, respectively.
3.3 RPCs 보정
위성 영상 전반에 걸쳐 라이다 칩과의 매칭이 모두 완료되면, RPCs의 오차를 보정시킬 수 있으며, 이를 위해 Eq. (4)과 같은 선형 변환식을 사용한다. Eq. (4)에서 RPCs의 오차를 편위량(shift)만 고려하여 보정하는 경우에는 A0, B0 두개만 사용하며, Affine 변환식을 활용할 경우에는 A0, A1, A2 와 B0, B1, B2 의 6개의 파라미터를 활용한다(Fraser and Hanley, 2005).
여기서 주의할 부분은, 앞서 수행된 자동 매칭 기법 자체가 과대 오차가 발생하지 않는다는 보장을 하지 못하므로, 항상 과대오차 탐지를 통해 결과 검사를 수행해야 한다.
where A0, A1, A2 와 B0, B1, B2 : coefficients of the affine model for shift, drift and systematic errors, l, s : the computed image coordinates of a point (sample and line), l′, s′ : the correct coordinates of the point.
4. 자동 좌표등록 실험
4.1 실험 위성 영상
라이다 칩이 만들어진 대구지역에 대해 획득된 아리랑2호 및 아리랑3호 위성영상을 이용하여 자동 좌표등록 실험을 수행하였다. 정확도 평가는 영상 전반에 걸쳐 획득된 검사점을 이용하였다. 실험 영상 데이터의 제원은 Table 2와 같으며, 영상은 각각 Fig. 5에 나타내었다. 검사점의 경우 항공사진에서 추출되었으며 약 10cm의 위치 정확도를 갖는다. 검사점의 표고는 약 20~150m 사이에 위치하고 있다. Fig. 5에서 우측영상의 검정색 영역은 보안처리된 지역이다. 아리랑 2호 영상의 경우 2009년과 2010년에 획득된 영상으로서 81개, 86개의 검사점으로 정확도를 분석해본 결과 각 영상별로 샘플방향으로는 각각 65픽셀, 29픽셀가량의 오차를 보였고, 라인방향으로는 그보다 큰 136픽셀, 146픽셀의 오차를 보였다. 아리랑 3호 영상의 경우 영상 별로 샘플방향 33.9픽셀, 39.7픽셀 그리고 라인방향 3.0픽셀, 8.0픽셀로서 아리랑 2호 보다 향상된 정확도를 보였다.
Table 2.Specification of tested Kompsat-2 and Kompsat-3 data
Fig. 5.Tested Kompsat-2(left: #K2-1) and Kompsat-3 data(right: #K3-1)
4.2 라이다 칩 투영 및 매칭
2.3절에서 기 생성된 182개의 라이다 칩을 아리랑 2호 및 아리랑3호 각 영상의 RPCs를 이용하여 영상 투영을 수행하였으며, 영상 영역 내에 위치하는 칩만을 선별해 500x500픽셀로 잘라냈다. 각 영상별 칩 개수는 Table 3에 제시된 바대로 아리랑 3호의 경우 약 140여개, 아리랑 2호의 경우 108개에서 139개이다. 아리랑 3호의 경우 영상의 면적이 더 크기 때문에 보다 많은 라이다 칩이 포함된 이유이다. 또한 아리랑 3호에 비해 아리랑 2호가 서로 다른 개수의 라이다 칩 개수를 보이는 것은 아리랑 2호의 경우 타 시기에 촬영되어 대상지의 위치가 약간 다르기 때문이다.
Table 3.RPCs projected LiDAR chips and match rates
라이다를 활용하여 위성 영상을 좌표 등록하는 기존 접근법의 경우 라이다 포인트 클라우드 전체를 영상으로 투영하던데 비해, 라이다 칩을 활용하는 경우에는 1미터로 영상화된 픽셀을 투영하므로 연산 시간을 절감할 수 있다. 즉, 라이다 점밀도가 1제곱미터당 3포인트인 경우에는 3번이 아닌 1번의 영상 투영을 수행하므로 연산시간을 1/3로 절감할 수 있다. 더욱이 라이다 칩의 영역 자체가 전체 영역 대비 약 24%이므로, 영역 대비로만 4배 정도의 연산시간을 절감할 수 있다.
투영 후 RECC기반 영상 매칭을 수행했으며, 보다 정확한 매칭 성공 판단을 위해 CV4 기준으로 1.5픽셀을 설정하였다. 탐색 영역은 앞서 본 바와 같이 RPC의 정확도가 다르기 때문에 아리랑 2호, 아리랑 3호 영상 각각 다르게 설정할 수 있으나, 간략성을 위해, 아리랑 2호의 경우의 정확도를 기준으로 200 픽셀 범위로 탐색 영역을 설정하였다.
최종 매칭 결과 Table 3에서 나타낸 대로 아리랑 2호의 경우 각각 80개, 65개의 라이다 칩이 매칭 성공 되었으며, 아리랑 3호의 경우 63개, 101개의 매칭이 성공으로 판단되었다. 성공률을 분석해본 결과 약 45%~71%의 범위를 보였다.
Fig. 6은 라이다 칩과 아리랑 2호 영상간의 매칭 결과 샘플을 보여주는 것으로서, Fig. 6(a)와 (b)는 라이다 칩 및 에지 영상이며, Fig. 6(c)와 (d)는 #K2-1 데이터에서 설정된 탐색 영역영상 및 에지 영상이다. 하얀색 박스 및 ‘x’표시가 RECC 매칭으로 찾아진 영역을 나타낸다.
Fig. 6.A RECC matching result sample
4.3 RPCs 보정 및 정확도 분석
상기의 매칭 결과를 이용하여 Eq. (4)의 Affine식을 활용하여 RPCs 오차를 보정하였다. 아리랑 2호의 경우 영상 전반에 걸친 80여개의 검사점에서 정확도를 분석해본 결과 Table 4에 제시된 바와 같이 평균 1픽셀, 최대 4.4픽셀에 해당하는 오차를 보였으며, 평균제곱근오차는 1.9픽셀로 계산되었다. 아리랑 3호 영상의 경우에도 평균 오차가 0.8~1.7픽셀로서 유사하거나 조금 예측되었으며, 최대 오차의 경우에도 #K3-1 영상에서 라인 방향으로 조금 큰 오차를 보였으나 대부분 유사한 값을 보였다. 평균 제곱근 오차의 경우 이에 따라 2.2픽셀, 1.8픽셀로 계산되었다.
Table 4.Geo-referencing accuracy using LiDAR chips
Fig. 7에서는 각각의 영상 영역 내에서 라이다 칩이 매칭이 성공한 위치를 사각형으로 나타내었고, 검사점의 위치 및 오차를 삼각형과 화살표로 나타내었다. 오차 화살표의 크기는 500으로서 즉, 500배로 확대하여 디스플레이 하였다. Fig. 7(a)와 (b)는 아리랑 2호의 경우를 나타낸 것으로서, 좌측 하단부의 경우 Fig. 1에서 나타내었듯이 사용 가능한 라이다 칩이 부족하여 매칭점 밀도가 낮으나 그 외의 지역의 경우 영상 전체에 걸쳐 라이다 매칭점이 분포하는 것을 알 수 있다. Fig. 7(c)와 (d)의 경우 아리랑 3호 영상에 대한 것으로서, 아리랑 3호 영상의 면적이 넓기 때문에 라이다 칩의 위치 및 크기를 나타내는 사각형의 크기가 상대적으로 작게 그려졌다. 영상 범위가 라이다 데이터의 영역보다 크기 때문에 라이다 칩 매칭점 분포도가 아리랑 2호의 경우에 비해 상대적으로 좋지 않다. 따라서, 영상의 우측 부분에 위치한 검사점 등에서 상대적으로 큰 오차가 발생하였다.
Fig. 7.The distribution of the matched LiDAR chips (‘+’ in the square symbols) and the error patterns at the check points (arrows at the triangles) The scale of the arrows is 500
최종적으로 과대오차 검사 기능을 적용해본 결과 매칭의 결과에서 과대오차는 검출되지 않았다.
4. 결 론
본 논문에서는 대용량의 항공 라이다 데이터를 이용하여 고해상도 위성영상의 자동 좌표등록을 수행하기 위한 부분기술로서, 라이다 칩 생성 및 활용에 대해 연구하였다. 대용량의 데이터를 처리하여 라이다 칩을 생성해 둠으로써, 전체 라이다 데이터를 활용하여 좌표등록을 하는 기존의 기법에 비해 효율성을 확보할 수 있었다. 본 연구를 통해 도출한 연구결과는 아래와 같이 정리될 수 있으나, 제시된 구체적인 수치는 라이다 칩 생성 시에 활용된 변수 설정 등에 의해 달라질 수 있다.
- 위성 영상의 좌표 등록을 목적으로 한 라이다 칩 생성을 통해 176배의 라이다 데이터 저장 공간을 줄일 수 있었다. - 라이다 칩을 사용함으로써 라이다 데이터를 고해상도 위성 영상으로 투영하는 과정에서 연산시간을 4배 이상 줄일 수 있었다. - 생성된 라이다 칩으로 아리랑2호 및 아리랑3호 영상에 적용 시 평균 오차 한 픽셀 가량의 정확도 향상을 획득할 수 있었다. - 라이다 칩을 이용한 매칭 결과에 대한 과대 오차 탐색 시 과대 오차는 발견되지 않았으나, 매칭 기법 자체가 과대 오차가 발생하지 않는다는 보장을 하지 못하므로, 항상 과대오차 탐지 기능을 적용하여 검사해야할 것이다.
참고문헌
- Abedini, A., Hahn, M., and Samadzadegan, F. (2008), An investigation into the registration of LIDAR intensity data and aerial images using the SIFT approach, Proceedings of XXI ISPRS Congress, ISPRS, July, Beijing, China. Vol. 37, pp. 169-174.
- Dowman, J., Morgado, A., and Vohra, V. (1996), Automatic registration of images with maps using polygonal features, Int. Archives of Photogrammetry and Remote Sensing, ISPRS, July, Vienna, Austria, Vol.31(B3), pp. 139-145.
- Fraser, C.S. and Hanley, H.B. (2005), Bias-compensated RPCs for sensor orientation of high-resolution satellite imagery, Photogrammetric Engineering & Remote Sensing, Vol. 71, No. 8, pp. 909-915. https://doi.org/10.14358/PERS.71.8.909
- Habib, A., Mwafag, G., Morgan, M., and Al-Ruzouq, R. (2005), Photogrammetric and LIDAR data registration using linear features, Photogrammetric Engineering & Remote Sensing, Vol. 71, No. 6, pp. 699-707. https://doi.org/10.14358/PERS.71.6.699
- Han, Y.K., Byun, Y.G., Choi, J.W., Han, D.Y., and Kim, Y.I. (2012), Automatic registration of high-resolution images using local properties of features, Photogrammetric Engineering & Remote Sensing, Vol. 78, No. 3, pp. 211-221. https://doi.org/10.14358/PERS.78.3.211
- Hild, H. (2001), Automatic image-to-map-registration of remote sensing data, In: Fritsch, D. and Spiller, R. (eds.), Photogrammetric Week '01', Herbert Wichmann Verlag, Heidelberg, pp. 13-23.
- Oh, J., Lee, C., Eo, Y., and Bethel, J. (2012), Automated georegistration of high-resolution satellite imagery using a RPC model with airborne LiDAR information, Photogrammetric Engineering & Remote Sensing, Vol. 78, No. 10, pp. 1045-1056. https://doi.org/10.14358/PERS.78.10.1045
- Oh, J., Lee, C., and Seo, D.C. (2013). Automated HRSI georegistration using orthoimage and SRTM: focusing KOMPSAT-2 imagery, Computers & Geosciences, Vol. 52, pp. 77-84. https://doi.org/10.1016/j.cageo.2012.09.026
- Wong, A. and Clausi, D.A. (2007), ARRSI: automatic registration of remote-sensing images, IEEE Transactions on Geoscience and Remote Sensing, Vol. 45, No. 5, pp. 1483-1493. https://doi.org/10.1109/TGRS.2007.892601
피인용 문헌
- 1:25,000 수치지도를 이용한 RapidEye 위성영상의 좌표등록 정확도 자동 향상 vol.32, pp.5, 2014, https://doi.org/10.7848/ksgpc.2014.32.5.505
- KOMPSAT-3 위성영상의 RPC 보정을 위한 국가 통합기준점 탐지 vol.30, pp.6, 2014, https://doi.org/10.7780/kjrs.2014.30.6.13
- 이종 공간 데이터를 활용한 에지 정보 기반 도시 지역 변화 탐지 vol.33, pp.4, 2014, https://doi.org/10.7848/ksgpc.2015.33.4.259
- Accuracy Improvement of KOMPSAT-3 DEM Using Previous DEMs without Ground Control Points vol.35, pp.4, 2014, https://doi.org/10.7848/ksgpc.2017.35.4.241
- 건설공사 현황측량을 위한 UAV DSM의 활용성 평가 vol.19, pp.3, 2018, https://doi.org/10.5762/kais.2018.19.3.155
- 농림위성용 GCP 칩 매칭 성능 향상을 위한 위성영상 공간해상도 결정 vol.37, pp.6, 2021, https://doi.org/10.7780/kjrs.2021.37.6.1.3