DOI QR코드

DOI QR Code

Accuracy Analysis of Target Recognition according to EOC Conditions (Target Occlusion and Depression Angle) using MSTAR Data

MSTAR 자료를 이용한 EOC 조건(표적 폐색 및 촬영부각)에 따른 표적인식 정확도 분석

  • Kim, Sang-Wan (Department of Energy and Mineral Resources Engineering, Sejong University) ;
  • Han, Ahrim (Department of Geoinformation Engineering, Sejong University) ;
  • Cho, Keunhoo (Department of Geoinformation Engineering, Sejong University) ;
  • Kim, Donghan (Department of Geoinformation Engineering, Sejong University) ;
  • Park, Sang-Eun (Department of Energy and Mineral Resources Engineering, Sejong University)
  • 김상완 (세종대학교 에너지자원공학과) ;
  • 한아림 (세종대학교 지구정보공학과) ;
  • 조근후 (세종대학교 지구정보공학과) ;
  • 김동한 (세종대학교 지구정보공학과) ;
  • 박상은 (세종대학교 에너지자원공학과)
  • Received : 2018.12.12
  • Accepted : 2019.06.24
  • Published : 2019.06.30

Abstract

Automatic Target Recognition (ATR) using Synthetic Aperture Radar (SAR) has been attracted attention in the fields of surveillance, reconnaissance, and national security due to its advantage of all-weather and day-and-night imaging capabilities. However, there have been some difficulties in automatically identifying targets in real situation due to various observational and environmental conditions. In this paper, ATR problems in Extended Operating Conditions (EOC) were investigated. In particular, we considered partial occlusions of the target (10% to 50%) and differences in the depression angle between training ($17^{\circ}$) and test data ($30^{\circ}$ and $45^{\circ}$). To simulate various occlusion conditions, SARBake algorithm was applied to Moving and Stationary Target Acquisition and Recognition (MSTAR) images. The ATR accuracies were evaluated by using the template matching and Adaboost algorithms. Experimental results on the depression angle showed that the target identification rate of the two algorithms decreased by more than 30% from the depression angle of $45^{\circ}$ to $30^{\circ}$. The accuracy of template matching was about 75.88% while Adaboost showed better results with an accuracy of about 86.80%. In the case of partial occlusion, the accuracy of template matching decreased significantly even in the slight occlusion (from 95.77% under no occlusion to 52.69% under 10% occlusion). The Adaboost algorithm showed better performance with an accuracy of 85.16% in no occlusion condition and 68.48% in 10% occlusion condition. Even in the 50% occlusion condition, the Adaboost provided an accuracy of 52.48%, which was much higher than the template matching (less than 30% under 50% occlusion).

Synthetic Aperture Radar(SAR)영상을 이용한 자동 표적 인식(Automatic Target Recognition(ATR))은 날씨와 주야에 영향을 받지 않는 장점으로 감시, 정찰, 및 국토안보 등의 분야에서의 관심이 증대되고 있다. 그러나 SAR 자동표적인식은 실제 환경에서 발생하는 다양한 문제로 인해 자동으로 표적을 식별하는데 어려움이 있다. 따라서 본 연구에서는 실제 환경과 유사한 Extended Operating Conditions(EOC)에서의 ATR 문제에 대한 분석을 수행하였다. 특히, 표적의 폐색 조건과 훈련 영상과 테스트 영상의 관측 부각 차이에 따른 표적 식별률의 변화를 정량적으로 분석하였다. 관측 부각은 $30^{\circ}$$45^{\circ}$로 구분하였으며, 10%부터 50%까지의 다양한 폐색 조건에 대한 영상을 생성하기 위해 SARBake 알고리즘을 적용하였다. 표적에 대한 정량적인 식별률은 표적인식 분야에서 대표적으로 이용되는 템플릿 매칭과 Adaboost 알고리즘을 적용해 분석하였다. 분석 결과 관측부각에 따른 식별률은 두 알고리즘 모두 $45^{\circ}$에서 $30^{\circ}$보다 30%이상 급감했다. $30^{\circ}$의 관측 부각에서 템플릿 매칭은 75.88%, Adaboost 알고리즘은 94.46%로 Adaboost의 식별률이 높았다. 폐색 조건에 따른 식별률은 템플릿 매칭의 경우 폐색이 없을 때 95.77%에서 10%의 폐색 조건일 때 52.69%로 식별률이 급감하였다. Adaboost 알고리즘의 경우 폐색이 없을 때 85.16%, 10%의 폐색 조건일 때 68.48%로 폐색 조건에서의 식별률이 높았다. Adaboost 알고리즘은 50%의 폐색조건에서도 52.48%로 템플릿 매칭이 동일한 조건에서 30% 이하의 식별률을 보이는 것에 비해 전반적으로 높은 식별률을 보였다.

Keywords

1. 서론

자동 표적 인식(Automatic Target Recognition: ATR)이란 감시, 국토 안보 및 군사 업무와 같은 많은 응용 분야에서 중요한 연구 주제이다. 이러한 ATR 알고리즘을 효율적이고 강력한 알고리즘을 개발하는 것이 중요하다(Mossing et al., 1998). SAR (Synthetic Aperture Radar) 영상은 날씨와 주야간에 상관없이 고해상도 자료를 취득할 수 있는 장점을 가지고 있기 때문에 SAR 영상을 기반으로 한 자동표적인식 알고리즘 개발에 관심이 쏠리고 있다. 그러나 SAR 영상의 특징 상 스페클 잡음이 매우 강하여 넓은 영역에서 관심 표적을 한눈에 식별하기가 매우 힘들고, 사용자가 영상 전체 정보를 직관적으로 사용하기가 매우 어렵기 때문에 SAR 영상에서 관심 표적의 특징을 추출하는 것이 매우 중요하다(Ding et al.,2017). 이러한 SAR 자동표적인식의 단계는 표적 탐지단계와 표적 식별 단계로 나눈다. 최근의 연구 동향은 식별 단계에서 더 높은 정확도를 얻는 것을 중요하게 여긴다(Doo et al., 2016).

SAR ATR의 식별 단계를 위한 표준시험환경을 SOC (Standard Operation Condition) 이라고 한다. SOC 환경 데이터베이스를 구축하기 위해 사용되는 SAR 자료는 조건이 모두 동일해야 하고,표적을 확실하게 구분 가능해야 하며 각각의 표적을 구별할 수 있는 고유의 특징이 포함되어야 한다. 위성이나 항공기, 무인기 등과 같은 다양한 플랫폼을 이용하여 우리가 살고 있는 실제 세상, 즉 다양한 환경에서 영상이 얻어지기 때문에 모든 환경에서 자동으로 표적을 식별하는 것은 매우 어려운 문제이다(Copsey, 2004). SAR 자동표적인식의 문제점 중 가장 많은 부분을 차지하는 운용 조건은 표적, 환경 그리고 센서의 문제를 포함한다(Ross et al., 1999). Extended Operating Conditions (EOC) 환경은 실제 세계와 유사한 환경조건을 위해 SOC 환경에 촬영부각, 배열, 엄폐, 폐색, 위장 등의 조건을 추가한 환경을 말한다(Jones et al., 2001). 본 논문에서는 EOC 환경 중 촬영부각과 폐색환경에서의 표적 식별률을 분석하였다.

2. 연구방법

본 논문에서는 Moving and Stationary TargetAcquisition and Recognition (MSTAR) public dataset과 SARBake 알고리즘(David and Morten, 2015)을 이용한 영상분할 결과를 분석에 사용하였다. MSTAR 자료는 미 국방고등연구 기획청(The Defense Advanced Research Projects Agency: DARPA)과 미 공군에서 지원한 사업으로 1990년대 이후 세 차례에 걸쳐 여러 군사 표적을 다양한 방위각과 촬영부각에 대한 수천 장의 SAR 영상과 숲, 평야, 도시와 같은 다양한 지역을 측정한 SAR 영상 자료로 구성되어 있다(Kim, 2011). MSTAR 자료는 주요 표적(public) 자료 및 군사용 표적과 민간용 표적이 합쳐진 혼합(mixed)표적으로 구성되어 있다. EOC 조건(표적 폐색 및 촬영 부각)에 따른 표적 인식 정확도 분석은 표적 인식 방법 중 가장 대표적으로 쓰이는 템플릿 매칭과 Adaboost 알고리즘으로 수행하였다.

1) 폐색 영상 생성

폐색 정도에 따른 인식 정확도에 대한 분석을 정량적으로 수행하기 위해서는 다양한 폐색영상의 획득이 필요하다. 그러나 MSTAR 자료의 경우 폐색영상이 없어 분석을 위해서는 폐색영상을 생성해야 한다. 표적영상으로부터 정량적인 폐색 영상 생성을 위해서는 영상분할이 선행되어야 한다. SARBake 알고리즘은 영상분할 (segmentation)기법 중 하나로 MSTAR 자료로부터 SAR 영상의 방위각과 촬영부각이 획득되면 해당 표적의 3D CAD 모델을 바탕으로 2D SAR 영상으로 시뮬레이션한다(David and Morten, 2015). 모사된 SAR 영상은 다시 표적, 배경 또는 그림자영역으로 구분된다(Fig. 1(a)참조). SARBake 알고리즘은 표적의 3D 모델을 기반으로 하기 때문에 Convolution Neural Network (CNN)과 비교해 탱크의 포신과 같은 표적의 특징이나 표적으로부터 발생하지 않은 그림자 영역을 잘 구분한다(Fig. 1(b)).

OGCSBN_2019_v35n3_457_f0007.png 이미지

Fig. 1. (a) SARBake process for slant range direction, (b) segmentation results using CNN and SARBake algorithm (David and Morten, 2015).

본 논문에서는 SAR 영상분할 결과에 따른 오차를 최소화하기 위해 MSTAR 타입 중 SARBake에서 영상분할 결과를 제공하는 총 10개 표적 자료를 연구에 사용하였다(Table 1). 표적 종류별, 그리고 추가 장비 변형에 따른 범퍼별로 제공되는 표적영상의 수가 DB 구성 시리얼과 촬영 부각별로 정리되어 있다. 10개의 표적은 3개의 일반 표적과 7개의 혼합 표적으로 구성되어 있으며, 각 표적의 사진과 SAR 영상의 예는 Fig. 2와 같다.

Table 1. MSTAR data with SARBake segmentation results

OGCSBN_2019_v35n3_457_t0001.png 이미지

OGCSBN_2019_v35n3_457_f0001.png 이미지

Fig. 2. Photo and SAR images of public targets and mixed targets.

MSTAR 자료 중 SARBake에서 영상분할 결과를 제공하는 자료를 통해 표적의 폐색 정도에 따른 식별률을 분석하기 위한 폐색 표적 칩을 생성하였다. 폐색영상 생성은 표적 화소를 무작위로 선택해 제거하거나, 지역적으로 인접한 화소들을 마스킹하는 방법으로 생성될 수 있다. 본 연구에서는 표적 주변에 위치하는 장애물로 인한 폐색을 모사하기 위해 지역적으로 인접한 화소들을 마스킹하는 방법을 적용하였다. SARBake를 이용하여 폐색 영상을 생성하는 알고리즘 순서도는 Fig. 3과 같다.

OGCSBN_2019_v35n3_457_f0002.png 이미지

Fig. 3. Flow chart of occlusion image generation.

SARBake 자료로부터 영상분할 결과를 읽고, MSTAR 자료 중에 해당하는 표적 영상을 읽는다.표적방위각(θ) 을 무작위로 선정한 후 표적 영상의 중심에서부터 거리(d)에 따른 폐색 정도를 구한다. 여기서, d 는 표적영상의 중심에서부터 임의로 선정된 표적방위각(θ)를 갖는 벡터에 수직인 선분까지의 거리이다(Fig. 4 참조). 표적영상 중심부 가장 멀리에서부터 d가 표적 안쪽으로 접근함에 따라 폐색 지역(Fig. 4에서 회색 음영 지역)이 점차 넓어지게 된다. 폐색 정도 Pocc는 다음과 같이 정의하였다.

\(P_{occ} = {No. \ of\ occulded \ target \ pixels \over No.\ of\ total\ target\ pixels }\)

OGCSBN_2019_v35n3_457_f0008.png 이미지

Fig. 4. (a) Occluded area by θ and d in a target chip, (b) occlusion percent with respect to d.

Fig. 4(b)와 같이 거리 d에 따른 폐색 정도를 구하면, 주어진 폐색 정도를 만족하는 d를 구해, 해당하는 지역을 마스킹하고 클러터로 채워 파일로 저장한다. 본 연구에서는 표적 화소의 10%부터 50%까지 10%씩 폐색되는 5개 그룹의 폐색 영상을 생성하였다. 10개의 표적들 중 BMP2, BTR70, 그리고 BRDM2표적 영상으로부터 폐색 영상을 생성한 결과의 예는 Fig. 5와 같다. 각 표적별로 표적영상, SARBake 영상분할 결과 그리고 10%, 30%, 50%의 폐색 정도를 갖는 폐색 영상과 임의 선택된 표적방위각에서의 d에 따른 폐색정도 곡선 Pocc를 보여주고 있다.

 OGCSBN_2019_v35n3_457_f0003.png 이미지

Fig. 5. SAR image, SARBake, occluded images, and graphs of occlusion percent. (a) BMP2, (b) BTR70, and (c) BRDM2 target.

2) 템플릿 매칭

템플릿 매칭 기반 자동표적식별 알고리즘은 테스트 자료와 템플릿 자료 사이의 화소값을 이용하여 유사도를 계산하는 방법이다. 비교적 구현이 쉬운 반면에 표적의 영상을 모두 저장 및 사용하기 때문에 저장 공간이 많이 필요하고, 모든 화소값을 계산하기 때문에 시간이 많이 소모된다. 또한 다양한 EOC 환경 조건에서 추가적인 자료처리 과정이 고려되지 않으면 일반적으로 성능 저하가 급격히 발생하게 된다.

템플릿 매칭 기반 자동표적식별 알고리즘은 기본적으로 Lim et al.(2014)에서 제안한 방법을 사용하였다. 훈련 영상이 입력되면 영상 밝기값 조절, 스펙클 필터링과 같은 영상 전처리를 통해 다양한 오차를 감소시키고, 영상정규화 및 방위각 추출을 통해 훈련자료의 DB를 생성한다. 표적 영상별로 추정된 방위각은 시험 표적영상과의 유사도 계산 시 비교 범위를 감소시켜 계산 효율을 높인다. 시험영상이 입력되면 같은 과정을 거쳐 자료처리를 수행한 후 표적의 방위각을 추정하고, 훈련자료 DB 자료 중 방위각이 근접한 자료들 간의 유사도를 측정하였다. 본 연구에서는 템플릿과 테스트 영상 사이의 밝기 차이와는 독립적으로 기하학적인 유사도를 측정하는 방법인 Zero-mean Normalized Cross Correlation (ZNCC)을 이용하였다. 템플릿 매칭을 위한 조건들은 선행연구에서 경험적으로 우수하다고 실험된 값을 사용하였다. 데이터 칩 크기는 29×60 화소, 템플릿의 이동 범위는 ±5 화소, 방위각 검색 범위는 ±10°로 고정하였다.

3) Adaboost 매칭

Adaboost 기법은 앙상블 기법 중 변형(boosting)에 조정(adaptive)개념이 추가되어 오류에 더 큰 가중치를 두어정확도를 높이는 분류기법이다자료의 노이즈에 민감하고 이상점에 취약하지만 과적합에 강한 모습을 보이는 알고리즘이다(Freund and Schapire, 1996). Adaboost 알고리즘은 입력되는 인자에 따라 다른 결과를 보인다. 본 논문에서는 경험적으로 Histogram of Oriented Gradients (HOG), 주성분분석 (Principal Component Analysis: PCA) 그리고 Hessian기반 영상패치 총 3개의 특징정보(feature)를 입력인자로 사용하였다. HOG는 주로 객체인식에 사용되는 알고리즘으로 이미지의 지역적 변화율(gradients)을 특징 정보로 사용하며, 조명 변화와 국소적인 변화에 강인하다는 특징이 있다(Dalal and Triggs, 2005). PCA는 특징의 차원을 감소시키는 알고리즘으로 가장 널리 사용되고 있는 선형변환 알고리즘이다(Jolliffe, 2011). Hessian 검출기는 SURF 특성 정보 추출에 주로 사용되는 블롭(blob) 검출기로서 표적으로 추정되는 영역을 한정할 수 있다(Bay et al., 2008).

3. 실행 결과

1) 템플릿 매칭 기반

(1) EOC 환경 중 촬영부각 차이에 따른 결과

SOC환경은 표준시험환경으로 촬영부각 17°에서 획득된 MSTAR 자료를 훈련용으로, 15°에서 획득된 자료를 테스트용으로 사용하였다. 그러나 MSTAR#1 자료 셋에서는 다양한 촬영부각의 자료를 제공하기 때문에 훈련용 자료의 촬영부각인 17°와 차이가 많이 나면 날수록 EOC 환경이라고 할 수 있다. 따라서 본 연구에서는 촬영부각 30°와 45°에서 획득된 자료를 테스트하였다. 그러나 촬영부각 30°와 45°에서 획득된 자료는 2S1, ZSU23/4, BRDM2와 T72 총 4개뿐이다. 그러므로 이들 4개의 표적을 17°의 촬영부각에서 획득한 표준시험 환경의 10종류의 표적으로 분류하는 시험을 수행하였다. 본 연구에서 표적 식별률은 전체 자료에 대해 올바르게 매칭된 확률 Pcc (percent correctly classified)로 나타내었다.

Table 2와 3은 각각 촬영부각 30°와 45°에서 획득된 4개의 표적에 대해 ZNCC를 이용한 템플릿 매칭 기반 알고리즘 정확도를 보여준다. 두 결과 모두 입력 표적을 T72로 오식별된 경우가 눈에 띄게 많은 것을 볼수있다. 이러한 결과는 T72 표적이 Table 1과 같이 범퍼 번호에 따라 다양한 변동이 존재하기 때문으로 추정되는데, 분류기는 이들 다양한 변형의 표적영상을 모두 T72 표적으로 간주하기 때문에 많은 표적들이 T72로 오인될 가능성이 크다.

Table 2. Data obtained at 30° of depression angle and template matching algorithm based on ZNCC for 4 targets (Average of Pcc = 75.88%)

OGCSBN_2019_v35n3_457_t0002.png 이미지

Table 3. Data obtained at 45° of depression angle and template matching algorithm based on ZNCC for 4 targets (Average of Pcc = 33.66%)

OGCSBN_2019_v35n3_457_t0003.png 이미지

(2) EOC 환경 중 표적영상 폐색 정도에 따른 결과

SARbake에 의해 생성된 폐색 영상 자료에 ZNCC를 이용한 템플릿 매칭 기반 알고리즘 실험을 수행하였다. 폐색 정도에 따라 10%부터 50%까지의 자료에서 실험을 수행하였다. 먼저 각 표적의 폐색 정도에 따른 식별률은 Table 4와 같다. 이 중 ZSU23/4, T72, BMP2 표적이 식별률이 가장 높은 상위 3개 종류이고, 반대로 BRDM2, T62, ZIL131 표적이 식별률이 가장 낮은 하위 3개 종류이다.

Table 4. Identification rate (Pcc) of 10 targets with respect to occlusion percent

OGCSBN_2019_v35n3_457_t0004.png 이미지

Fig. 6(a)는 폐색 정도에 따른 표적별 식별률 변화를 나타내며 x축은 폐색의 정도, y축은 식별률을 나타낸다. 각 데이터는 10개의 표적을 나타낸다. 가장 식별률이 높은 표적은 T72 표적이지만, 폐색에 따라 식별률이 급격하게 감소한다. D7과 ZIL131 표적의 경우는 식별률이 낮지만 폐색의 영향을 크게 받지 않는 특징을 보인다. Fig. 6(b)는 폐색 정도에 따른 ZNCC를 이용한 템플릿 매칭 기반 알고리즘의 식별률 변화를 타나낸다. x축에는 10개의 표적, y축은 식별률을 나타낸다. 각각의 데이터는 폐색정도에 따른 식별률을 나타낸다. 폐색의 정도가 심해질수록 정도의 차이는 있지만 10개 모든 표적의 식별률이 감소하는 특징이 있다. 특히, BRDM2, T62, D7, ZIL131은 10%의 폐색에서도 급격하게 식별률이 떨어짐을 뚜렷하게 확인할 수 있다.

OGCSBN_2019_v35n3_457_f0004.png 이미지

Fig 6. Variation of identification rate with respect to occlusion percent

Table 5부터 Table 7은 10개의 표적에 대해, 폐색 영상에 ZNCC를 이용한 템플릿 매칭 기반 알고리즘 실험 결과를 보여준다. 표준 테스트 자료인 촬영부각 15°에서 획득된 자료를 사용하여 알고리즘을 수행하였을 때는 전체 정확도 평균 약 95.77%에 도달했다. 그러나 Table 5에 나타나 있듯이 15°에서 획득된 표적이 10%만 폐색되도 템플릿 매칭의 전체 정확도는 평균 약 52.69%로 급감한다. ZSU23/4, T72, BMP2의 경우, 표적이 10% 폐색되어도 템플릿 매칭 기반 알고리즘 식별률이 70% 이상이지만, 반대로 BRDM2, T62, ZIL131의 경우는 그 정확도가 30%를 미치지 못한다. 이들은 정확도가 높은 3개의 표적으로 오식별되는 비율이 높다. 10% 폐색영상과 마찬가지로 촬영부각 15°에서 획득된 표적을 20% 폐색시킨 영상을 사용하여 알고리즘을 수행하면 전체 정확도 평균은 약 35.26%이다. 10% 폐색에 비해서 정확도가 현저하게 낮아짐을 볼 수 있다. 여전히 식별율이 높은 상위 3개 표적과 낮은 하위 3개 표적은 같다. 30% 폐색된 영상을 사용하여 알고리즘을 수행한 결과는 Table 6과 같고, 표적이 50% 폐색된 영상을 사용하여 알고리즘을 수행한 결과는 Table 7과 같다. 기존 촬영부각 15°에서 획득된 영상과 비교하면 50% 폐색된 영상의 식별률은 현저하게 낮다. 이는 폐색 조건에서 ZNCC를 이용한 템플릿 매칭 기반 알고리즘의 성능이 급격하게 저하되고 있다고 판단할 수 있다.

Table 5. Experimental results of template matching algorithm using ZNCC for 10 targets and 10% occluded Images (Average of Pcc = 52.69%)

OGCSBN_2019_v35n3_457_t0005.png 이미지

Table 6. Experimental results of template matching algorithm using ZNCC for 10 targets and 30% occluded Images (Average of Pcc = 24.17%)

OGCSBN_2019_v35n3_457_t0006.png 이미지

Table 7. Experimental results of template matching algorithm using ZNCC for 10 targets and 50% occluded Images (Average of Pcc = 13.31%)

OGCSBN_2019_v35n3_457_t0007.png 이미지

2) Adaboost 알고리즘 기반

(1) SOC 환경 표적

SOC 환경 자료에 대한 PCA 특징정보 분류 결과는 Fig. 7, Table 8과 같다. Fig. 7의 X축은 Adaboost 알고리즘의 반복 횟수, Y축은 에러율을 나타낸다. 적색 선과 청색 선은 각각 테스트 시와 학습시의 반복 횟수에 따른 에러율을 의미하며, 학습이 반복될수록 Adaboost 분류기의 효과로 에러율이 감소하는 것을 확인할 수 있다. 세부 표적들에 대한 분류 결과는 Table 8과 같으며 평균 식별률은 85.16%이다. D7 표적을 제외한 대부분의 표적 식별율은 90%에 근접하나, D7 표적 식별율은 20.4%로 매우 낮은 값을 보인다. 본 연구에서는 모든 표적에서 150개의 PCA 특징 정보를 추출하여 사용하였는데, 이는 주요 3 표적 분류를 수행하는 기존 연구(Sun et al., 2007)를 참조하여 선정된 개수이다. 다른 표적들에 비하여 크기가 작은 D7 표적(길이: 약 3 m, 폭: 약 1 m)을 고려하였을 때 너무 많은 PCA 특징정보가 추출되어 발생한 현상으로 판단된다.

Table 8. Confusion matrix of Adaboost algorithm on 10 targets in SOC environment

OGCSBN_2019_v35n3_457_t0008.png 이미지

OGCSBN_2019_v35n3_457_f0005.png 이미지

Fig. 7. Classification error curve using PCA feature for SOC environment data.

(2) EOC 환경 중 촬영 부각의 차이

EOC 환경 중 촬영부각 차이가 표적 인식에 끼치는 영향에 대한 실험을 수행하기 위하여 17° 훈련 자료로 분류기를 학습시킨 뒤 촬영부각 30°와 45°에서 획득된 자료를 각각 테스트하였다. PCA 단일특징만을 이용하여 촬영부각 30°인 표적들을 인식한 결과는 Table 9의 좌측과 같다. 평균 식별율은 86.8%이며, T72 표적이 76.8%로 다소 낮은 식별율을 보인다. 표적 식별율 개선을 위해 앞서 제시된 3가지 특징정보(HOG, PCA 그리고 Hessian 기반 영상 패치)를 이용한 인식 결과는 Table 9와 같다. 전반적으로 표적 식별율이 개선되어 평균 식별율은 94.46%이고, 특히 T72 표적의 식별율은 97.6%로 매우 향상되었다.

Table 9. Confusion matrix of Adaboost algorithm using only PCA feature and three features for 30° depression angle data

OGCSBN_2019_v35n3_457_t0009.png 이미지

촬영부각 45°조건 하에서의 PCA 특징정보 분류, 평균 식별률은 57.03%로 급격한 감소가 발생했다. 3가지 특징정보를 적용한 분류 결과는 Fig. 8과 같다. 가장 높은 정확도가 반복횟수 9회에서 나타났는데 이는 특징 정보의 수가 많아져서 과적합(overfitting)이 일어났다고 판단할 수 있다. 촬영부각이 커짐에 따라 발생하는 SAR 영상의 특성들(layover, shadow)로 인하여 추출한 특징 정보들이 상당 부분 의미를 잃어 발생한 현상으로 생각된다. 세부 표적들에 대한 분류 결과는 Table 10과 같으며 70.72%의 평균 식별률을 보였다.

OGCSBN_2019_v35n3_457_f0006.png 이미지

Fig. 8. Classification error curve using 3 features for 45° depression angle in EOC environment.

Table 10. Confusion matrix of Adaboost algorithm using 3 features for 45° depression angle data​​​​​​​

OGCSBN_2019_v35n3_457_t0010.png 이미지

(3) 표적영상 폐색 정도에 따른 결과

SARbake에 의해 생성된 폐색 영상에 Adaboost 알고리즘 기반 분류를 수행하였다. 폐색 자료에 대한 식별은 3가지 특징정보에 대하여 수행되었으며 템플릿 매칭 기법과 비교하여 전반적으로 높은 평균 식별률을 보였다. 폐색조건에 따른 평균 식별률은 10%, 30%, 50%에서 각각 68.48%, 64.76%, 52.48%를 보였다(Table 11, Table 12, Table 13). 템플릿 매칭 알고리즘 결과와 비교할 때, 상대적으로 높은 평균 식별률을 보이는 것으로 분석된다.

Table 11. Confusion matrix of Adaboost algorithm using 3 features for 10% occluded image in EOC environment

OGCSBN_2019_v35n3_457_t0011.png 이미지

Table 12. Confusion matrix of Adaboost algorithm using 3 features for 30% occluded image in EOC environment​​​​​​​

OGCSBN_2019_v35n3_457_t0012.png 이미지

Table 13. Confusion matrix of Adaboost algorithm using 3 features for 50% occluded image in EOC environment​​​​​​​

OGCSBN_2019_v35n3_457_t0013.png 이미지

PCA 특징정보와 3가지 특징정보를 사용했을 때 페색 정도에 따른 식별 정확도는 Table 14에서 확인할 수 있다. 촬영부각 실험의 경우와 마찬가지로 폐색이 일어난 환경에서도 PCA 특징정보를 사용했을 때 보다 제안한 3가지 특징정보를 사용한 경우가 식별 정확도가 더 높음을 확인할 수 있다. 이는 식별이 어려운 환경에서 제안한 특징정보들의 조합이 Adaboost를 이용한 식별에 효과적임을 시사한다.

Table 14. Identification rate of Adaboost algorithm combining PCA feature and 3 features​​​​​​​

OGCSBN_2019_v35n3_457_t0014.png 이미지

위의 실험에서 3가지의 특징정보를 조합하는 것이 EOC 환경에서 Adaboost 알고리즘의 성능이 평균적으로 10%~20% 이상 향상되는 것을 확인할 수 있었다. 그럼에도 불구하고 낮은 정확도는 EOC 환경의 자료가 가지는 한계와 더불어 이상점에 취약한 Adaboost 알고리즘의 특성으로 인한 성능 저하라고 판단된다.

4. 결론

본 연구는 MSTAR 자료의 EOC 환경 중 폐색조건과 촬영부각이 다른 조건에 대한 표적 식별의 정확도에 대한 분석을 수행하였다. 정확도 평가를 위한 분류기로는 템플릿 매칭과 Adaboost알고리즘이 사용되었다. 분석 결과 촬영부각에 따른 식별률은 두 알고리즘 모두 45°에서 30°보다 30%이상 급감했다. 30°의 촬영부각에서 템플릿 매칭은 75.9%, Adaboost 알고리즘이 94.5%로 Adaboost의 식별률이 높았다. 폐색 조건에 따른 식별률은 템플릿 매칭의 경우 폐색이 없을 때 95.8%, 10%의 폐색 조건일 때 52.7%로 급감했다. 20%의 폐색 조건에서는 35.3%로 낮았으며 30%이상의 폐색 조건에서는 30% 이하의 식별률로 신뢰도가 떨어졌다. Adaboost 알고리즘의 경우 폐색이 없을 때 85.2%, 10%의 폐색 조건일 때 68.5%로 템플릿 매칭보다 폐색 조건에서의 식별률이 높았다. 50%의 폐색조건에서도 52.5%로 템플릿 매칭보다 전반적으로 높은 식별률을 보였다. 이러한 결과는 Adaboost 알고리즘 분류에서 제안한 3가지 특징정보의 조합으로 인해 높은 식별률을 보이는 것으로 분석된다. 본 논문에서는 식별률 분석을 위해 두 가지 알고리즘만을 적용했지만 폐색 조건과 촬영부각이 다른 관측 상황에 대해 표적 식별률의 정량적인 분석 결과를 제시하였다. 본 연구의 정량적인 분석을 통해 최종적으로 SAR 자동표적인식 시스템의 정확도를 높이는 데에 영향을 미칠 것으로 기대된다. 추가적으로 폐색 조건에 대한 포즈 추정을 시도하고 그 결과를 분석함으로써 제안된 알고리즘의 보완이 필요하다고 판단되며, 나아가 다양한 조건에서의 포즈 추정 알고리즘의 정확도에 대한 연구가 요구된다.

사사

본 연구는 국방과학연구소의 연구비 지원으로 수행되었습니다

References

  1. Kim, G. T., 2011. SAR target identification technology, Journal of Electromagnetic Engineering and Science, 22(6): 80-89.
  2. Lim, H., D. H. Hyung, J. H. Yoo, and K. Kwon, 2014. Template Matching-Based Target Recognition Algorithm Development and Verification using SAR Images, Korea Institute of Military Science and Technology, 17(3): 364-377 (in Korean with English abstract). https://doi.org/10.9766/KIMST.2014.17.3.364
  3. Bay, H., A. Ess, T. Tutelaars, and L. V. Gool, 2008. Speeded-Up Robust Features (SURF), Computer Vision and Image Understanding, 110(3): 346-359. https://doi.org/10.1016/j.cviu.2007.09.014
  4. Copsey, K., 2004. Bayesian approaches for robust automatic target recognition, University of London, London, UK.
  5. Dalal, N. and B. Triggs, 2005. Histograms of Oriented Gradients for Human Detection, Proc. of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, United States, Jun. 20-25, vol. 1, pp. 886?893.
  6. David, M.-H. and N.-J. Morten, 2015. Convolutional Neural Networks for SAR Image Segmentation, Proc. of IEEE International Symposium on Signal Processing and Information Technology (ISSPIT), Abu Dhabi, United Arab Emirates, Dec. 7-10, pp. 231-236.
  7. Ding, B., G. Wen, J. Zhong, C. Ma, and X. Yang, 2017. A robust similarity measure for attributed scattering center sets with application to SAR ATR, Neurocomputing, 219: 130-143. https://doi.org/10.1016/j.neucom.2016.09.007
  8. Doo, S., G. E. Smith, and C. J. Baker, 2016. Aspect invariant features for radar target recognition, IET Radar, Sonar & Navigation, 11(4): 597-604. https://doi.org/10.1049/iet-rsn.2016.0075
  9. Jolliffe, I., 2011. Principal Component Analysis, In: Lovric M. (eds), International Encyclopedia of Statistical Science, Springer, Berlin, Heidelberg, Germany, pp. 1094-1096.
  10. Sun, Y., Z. Liu, S. Todorovic, and J. Li, 2007. Adaptive boosting for SAR automatic target recognition, IEEE Transactions on Aerospace and Electronic Systems, 43(1): 112-125. https://doi.org/10.1109/TAES.2007.357120
  11. Yoav, F. and R. E. Schapire, 1996. Experiments with a new boosting algorithm, Proc. of the 13th International Conference on Machine Learning, Bari, Italy, Jul. 3-6, vol. 96, pp. 148-156.