DOI QR코드

DOI QR Code

A Study on the Attributes Classification of Agricultural Land Based on Deep Learning Comparison of Accuracy between TIF Image and ECW Image

딥러닝 기반 농경지 속성분류를 위한 TIF 이미지와 ECW 이미지 간 정확도 비교 연구

  • Kim, Ji Young (Dept. of Software Engineering, BaeWha Women's University) ;
  • Wee, Seong Seung (Information & Statistical Policy Division, Ministry of Agriculture, Food and Rural Affairs)
  • Received : 2023.08.01
  • Accepted : 2023.09.13
  • Published : 2023.11.30

Abstract

In this study, We conduct a comparative study of deep learning-based classification of agricultural field attributes using Tagged Image File (TIF) and Enhanced Compression Wavelet (ECW) images. The goal is to interpret and classify the attributes of agricultural fields by analyzing the differences between these two image formats. "FarmMap," initiated by the Ministry of Agriculture, Food and Rural Affairs in 2014, serves as the first digital map of agricultural land in South Korea. It comprises attributes such as paddy, field, orchard, agricultural facility and ginseng cultivation areas. For the purpose of comparing deep learning-based agricultural attribute classification, we consider the location and class information of objects, as well as the attribute information of FarmMap. We utilize the ResNet-50 instance segmentation model, which is suitable for this task, to conduct simulated experiments. The comparison of agricultural attribute classification between the two images is measured in terms of accuracy. The experimental results indicate that the accuracy of TIF images is 90.44%, while that of ECW images is 91.72%. The ECW image model demonstrates approximately 1.28% higher accuracy. However, statistical validation, specifically Wilcoxon rank-sum tests, did not reveal a significant difference in accuracy between the two images.

Keywords

Ⅰ. 서론

농경지 전자지도인 팜맵은 고해상도 위성⋅항공영상, GIS(지리정보시스템) 등을 이용하여 전국 농경지의 면적 및 농경지 속성정보인 논, 밭, 과수, 시설, 인삼을 제공하는 농경지 전자지도이다. 팜맵을 통해 필지별 농산물우수관리 인증, 친환경 인증, 재해보험 현황 등 각종 행정정보를 연계하여 현장을 반영한 스마트 농정 추진, 정책의 효율성을 증대하고자 농림축산식품부에서 2014년부터 본격적으로 구축하였다 (Wee et al., 2022).

팜맵은 3개년도에 걸쳐 3개의 권역으로 농경지 속성정보를 구축하였으며, 국토지리정보원에서 제공하는 항공영상은 매년 전국의 항공영상이 제공되지 않고 전국 항공영상의 동쪽 지역 (우판)과 서쪽 지역 (좌판)의 갱신 항공영상을 매년 1년씩 제공되어 전국 농경지 속성정보는 2년 주기로 갱신하고 있다.

국토지리정보원은 2022년부터 전국이 갱신된 항공영상 주기가 1년 단위로 변경되었으며 농림축산식품부는 이에 맞춰 농경지 속성정보의 갱신을 추진하고 있다. 또한, 갱신 정보의 효율성과 정확성 제고를 위해 딥러닝 기반 갱신체계 고도화를 고려하고 있다.

팜맵의 속성정보는 우리나라 농경지 활용에 주로 사용되고 있는 논, 밭, 과수, 시설, 인삼의 총 5개로 구성되어 있으며, 농경지 속성 중에 일부 철탑이나 무덤 등을 제외할 필요성이 있어 2019년 비경지 부분이 추가되어 있다 (Fig. 1). 팜맵 활용의 수요조사 결과 농경지에서 재배하는 작물에 대한 정보 29%, 경영주나 경영체 등 경영 관련 정보 21%, 경사도를 포함한 지형정보 17%, 농업 용수정보 15%, 토지 현황정보 17%, 기능추가가 2%로 조사되었다 (Wee et al., 2022).

팜맵의 활용 가능한 영역에 대한 주관식 응답을 정리하면, 지적도 등 행정자료와 융합되어 재배작목 추천, 농지 구매 등 귀농⋅귀촌임을 위한 상담, 실 식재 면적 추정을 통한 수급 안정 정책 수립, 재배작물 조정과 푸드플랜 입지분석에 활용 가능한 것으로 조사 되었다 (Wee et al., 2022).

NGHHCI_2023_v65n6_15_f0001.png 이미지

Fig. 1 Six different classes of land use in Farmmap (Wee et al., 2023)

팜맵 시스템을 통해 실경작 여부, 식물 면적 및 생산량 추정, 각종 투입자료의 평가 등 농업경영과 농촌정책에 혁신적인 변화가 예상된다 (Wee et al., 2022). 이를 위해서는 기관별로 분산된 공간정보 유통 창구를 팜맵 시스템으로 일원화하여 공간정보 플랫폼 기반으로 자료의 공유⋅갱신 등 원스톱(One-stop) 서비스 체계를 구축할 필요가 있으며, 이는 농업농촌 통합 공간정보 인프라 구축으로 사용자들의 눈높이에서 다양한 데이터에 대한 접근성 향상이 필요하다 (Son et al., 2021). 이처럼 팜맵의 활용 수요가 증가하고 있고 농경지 속성 정보의 정확성이 중요해지면서 딥러닝을 활용한 농경지 속성 정보 구축 자동화 및 정확성 향상 연구가 진행되고 있다. 딥러닝을 활용한 농경지 속성 정보의 구축 및 정확도를 예측하기 위해서는 기초자료로 사용되는 영상정보의 특성을 파악해야 한다.

Wee et al. (2023)는 영상정보를 통한 딥러닝을 이용하여 팜맵의 속성정보 구축 연구를 수행하였다. 딥러닝에 사용된 모델은 ResNet-50으로 3개 시군을 대상으로 모의실험을 수행하였다. 그 결과 과수, 시설, 인삼에 대한 항목의 예측 정확도가 낮은 것으로 분석되었다. 지역별 과수의 예측 정확도는 당진시 61.22%, 고창군 17.7%, 의성군 69.81%로 나타났다. 시설의 경우에는 정확도가 58.3%로 나타났으며, 인삼은 31.34%로 나타났다. 정확도를 높이기 위해서는 학습데이터의 양적 확대와 질적 수준을 높이기 위한 영상의 재정제가 필요하다고 하였다.

Chung and Jung (2019)는 딥러닝 기반 영상 다운샘플링 기술 분석을 통해 동영상 실시간 스트리밍 서비스는 영상의 화질이 네트워크 속도의 영향을 많이 받으며 이를 위해 영상의 해상도를 줄이고, 압축 코덱을 사용하여 데이터의 양을 줄일 수 있다고 하였다. 하지만 이러한 과정으로 전송된 영상은 화질이 매우 낮으며 딥러닝을 이용하여 화질을 복원하기 위한 초해상도, 압축 열화 제거 등의 연구가 진행되고 있다고 하였다.

Kim et al. (2021)은 이미지 감성 분류를 위한 CNN (Convolutional Neural Network, CNN)과 K-means RGB Cluster 이-단계 학습방안에서 색감을 이용하여 이미지 감성 분류 정확도를 향상하는 방안을 제시하였다.

Lee (2019)는 항공 정사 영상을 이용하여 SegNet 기반에서 4가지 (시가화 건조지역, 농지, 산림, 수역) 이미지를 분할하고, 성능을 평가하였으며, Chung et al. (2022)는 산림 수종 학습데이터를 이용하여 소나무, 낙엽송, 기타 침엽수, 활엽수 4개의 수종에 ‘판독불가’와 ‘비산림’을 추가하여 인공지능을 이용하여 산림훼손 등 변화탐지를 연구하였다.

Yang (2018)은 팜맵을 활용하여 머신러닝 기법을 이용하여 논벼 재배지역 분류를 연구하였으며, RapidEye 영상을 사용하여 SVM (Support Vector Machine), RF (Random Forest), 딥러닝의 U-net 알고리즘을 적용하여 판독의 정확성을 보였다.

이처럼 딥러닝을 이용한 영상판독의 연구가 수행되고 있다. 그러나 대부분이 영상정보의 초기 특성에 관한 연구는 진행되지 않고 있다. 따라서 본 연구에서 팜맵 시스템의 운영 및 유지관리 관점에서의 저용량 고품질 영상정보의 특성에 따른 딥러닝 적용 가능성을 검토하고자 하였다.

팜맵에서 사용되는 영상 이미지는 2가지 이미지 형태로 구분된다. 첫 번째는 TIF (Tagged Image File) 이미지며 두 번째는 ECW (Enhanced Compression Wavelet) 이미지다. TIF 이미지는 국토지리정보원에서 농림축산식품부로 제공하는 영상 이미지이며, ECW 이미지는 항공영상을 활용하여 농경지 속성정보와 경계 구획을 논, 밭, 과수, 시설, 인삼으로 분류하기 위해 변환되는 이미지로 시군구 단위로 압축 결합한 이미지이다. 두 이미지는 용량과 질감에서 차이를 보인다. TIF 이미지는 무손실 압축 파일 포맷으로 원본 이미지의 섬세함과 색상 심도가 그대로 유지되므로 고품질 전문 사진에 적합하지만 높은 섬세함과 해상도 때문에 파일의 용량이 크며, 파일 공유와 로딩을 위한 고사양의 하드웨어가 필요한 단점이 있다. 반면, ECW 이미지는 이미지 크기에 제한이 없으며 높은 압축률로 최대 1:100의 비율로 압축할 수 있어 공간정보 구축 작업효율이 뛰어나 영상정보를 이용한 팜맵 갱신에 적합하다.

본 연구는 1) TIF 이미지와 ECW 이미지의 차이를 비교하였다. 먼저, 두 이미지의 용량과 색상을 비교하였으며, 다음으로, 색상을 추출하여 평균값과 표준편차를 비교하였다. 2) 두 이미지를 통해 딥러닝 기반 농경지 속성분류의 정확도를 제시하고 차이점을 비교하였다.

Ⅱ. TIF 이미지와 ECW 이미지 비교

1. 두 이미지 용량과 질감 비교

TIF 이미지가 ECW 이미지로 전환하면서 이미지의 질감과 색상 값이 달라진다.

Fig. 2는 두 이미지를 축척 1:250으로 확대한 이미지이다. 사람이 눈에는 직접적으로 차이를 구별할 수가 없지만, 수치상으로 계산되는 딥러닝을 활용할 경우는 두 이미지 간의 속성분류 값에 따라 결과물에 영향을 미칠 수가 있다.

NGHHCI_2023_v65n6_15_f0002.png 이미지

Fig. 2 TIF image and ECW image quality comparison (1: 250)

Fig. 3과 같이 두 이미지의 크기를 비교하면 TIF 이미지는 26 KB, ECW 이미지는 6 KB로 약 1/4수준으로 용량이 감소하는 것으로 나타났다. 또한 Fig. 4와 같이 1:25 축적으로 확대를 한 경우 두 이미지 간 질감과 색감에서 일부 차이가 발생하는 것으로 확인할 수 있다. 즉, 전체적인 축척에서는 육안으로 볼 때 큰 차이가 없는 것처럼 보이지만, 이를 확대하여 보면, 육안에 의한 차이가 발생하는 것으로 볼 수 있다.

NGHHCI_2023_v65n6_15_f0003.png 이미지

Fig. 3 TIF image and ECW image size comparison

NGHHCI_2023_v65n6_15_f0004.png 이미지

Fig. 4 TIF image and ECW image quality comparison (1 : 25)

2. 두 이미지 색상 값 비교

두 이미지 간의 정량적인 차이를 알아보기 위해서 농경지 속성별 이미지의 RGB 수치값을 추출하여 평균값과 표준편차의 값을 비교해 보았다.

평균값은 이미지의 평균 색상을 의미하며, 표준편찻값은 색상의 편차로 이미지 질감의 특징을 의미한다.

농경지 속성별 두 이미지 간의 평균값과 표준편찻값을 Table 1로 제시하였고, 차이값은 TIF 이미지에서 ECW 이미지의 평균값과 표준편차를 제외하였다.

Table 1 Comparison of TIF image and ECW image color extraction by farmland attributes

NGHHCI_2023_v65n6_15_t0001.png 이미지

* Difference = TIF Image - ECW Image

** Where, P: Paddy field, F: Field, O: Orchard, A: Agricultural facility, G: Ginseng

RGB는 레이어 별로 256개의 수치로 분류되며, 3개의 레이어를 가산 혼합하여 색감을 표출한다.

이미지 색상별 차이 값을 보면, Red 색상의 평균은 밭과 시설에서 2.0이 넘는 차이가 났으며 인삼에서는 차이가 나지 않았다. 표준편차는 밭과 시설, 과수 논에서 2.0이 넘는 색상의 차이를 보였다. Green 색상의 평균은 시설에 2.0 이상 차이가 나타났으며, 표준편차는 밭과 시설에서 2.0이 넘는 차이를 보였으며, Blue 색상의 평균은 시설에서 3.0이 넘는 차이가 났으며, 표준편차는 밭, 인삼, 시설, 과수, 논 순으로 2.0이 넘는 차이를 보였다.

RGB의 색상을 육안으로 살펴보면, 다음의 Fig. 5과 같이 볼 수 있다. 각 색상별 수치값이 좌측의 그림과 같이 5의 범위로 변경되는 경우에는 육안으로 파악하기엔 거의 어렵다고 볼 수 있다. 반면, 오른쪽 그림과 같이 수치값이 50의 변화가 있는 경우 색상의 밝기를 육안으로 파악할 수 있다. 따라서 본 연구에서 이미지별 수치값이 2.0∼3.0의 차이는 색상을 표시하는데 육안으로 판단하기 어려울 정도로 미세한 변화로 볼 수 있다. 따라서 무거운 용량의 TIF 이미지를 대신해서 가벼운 용량의 ECW 이미지를 사용하더라도 색상에 따른 차이는 크지 않을 것으로 볼 수 있다.

NGHHCI_2023_v65n6_15_f0005.png 이미지

Fig. 5 Color of RGB

또한, 여러 농경지 속성별 중에서 시설은 TIF 이미지가 ECW 이미지에 비교해 차이가 크게 있었으며, 인삼은 상대적으로 작은 차이 값을 보였다. 시설의 경우에는 플라스틱 하우스 또는 유리온실 등 태양광의 반사를 유발하는 피복재로 외관이 형성되어 있다. 이는 어느 시점에 영상을 촬영했는지에 따라 시설물에서 반사되는 파장의 영역이 달라질 수 있다. 또한 시설물은 내부의 태양광을 최대한 많이 흡수해야 해서 일부 작물의 영역이 투영되어 반영되기도 한다. 이로 인하여 전체 시설 면적이 일괄적으로 색상을 표현하지 않기 때문에 타작물보다 영상의 편차가 클 것으로 보여진다. 반면 인삼의 경우에는 대부분의 검은색 가림막으로 표면을 덮고 있다. 검은색은 광원을 흡수하는 대표적인 색상이다. 이로 인하여 검은색을 촬영하는 경우 명확한 색감으로 표시가 되게 된다. 따라서 인삼의 경우에는 전체면적이 같은 색감으로 표현되기 때문에 타 작물보다는 편차가 적은 것으로 볼 수 있다.

Ⅲ. 딥러닝 모델 적용

1. 딥러닝 모델 선정 기준

팜맵은 5가지 농경지 속성의 영상 이미지에 해당 객체의 위치정보 (Polygon)와 클래스 정보를 가지고 있어서 이에 적합한 AI의 기법은 인스턴스 분할 모델이다 (Wee et al., 2023). 팜맵의 클리핑한 이미지를 인스턴스 분할모델로 선정해야 하므로 유의미한 성능이 검증된 모델이어야 하고, 팜맵 데이터의 특징에 맞게 CNN 구조를 개량할 수 있어야 하며, 많은 종류의 클래스가 존재하는 학습데이터를 학습하는 경우 그에 충분한 컨볼루션 레이어 (Convolution layer)가 필요하다 (Wee et al., 2023).

기존의 연구에서는 인스턴스 분할모델을 이용하여 다양한 작물에 AI를 적용하였다.

Lee and Seok (2018)은 ResNet 딥러닝 모델을 이용하여 감귤 농업에서 주요 해충을 91%의 높은 정확도로 탐지하였으며, Oh (2022)는 딥러닝 기반 영상 조작 및 검출 기술 동향 연구에서 ResNet, InceptionNet 모델을 활용하여 충분한 양의원 영상 및 조작 영상 DB을 통해 높은 분류 기술을 사용하여 조작 영상을 검출하는 방식에서 우수성이 입증되었다고 하였다.

Yu et al. (2019)는 잡초를 효과적으로 제거하기 위하여 기존 인력에 의존하던 잡초의 분류를 계층적 구조 기반의 딥러닝 모델로 ResNet과 MobileNetV2을 제안하였다. 또한 Wee et al. (2023)은 RetinaNet과 PointNet, ResNet, HQ-ISNet은 인스턴스 분할에 자주 활용되는 모델이라 하였으며, ResNet은 위 조건에 부합하여 본 알고리즘을 이용하여 모의실험을 진행하였고 본 연구의 딥러닝 모델도 같은 모델인 ResNet-50을 사용하였다. 이처럼 인스턴스 분할모델은 다양한 작물을 분류하기에 적합한 분석기법이며, 정확도도 검증이 되는 상황이다. 따라서 본 연구에서도 범용적으로 사용되고 있는 ResNet-50 모델을 이용하였다.

2. ResNet-50 모델

ResNet-50 모델은 Fig. 6과 같이 CNN 기반의 인공신경망 모형이며, Residual Block을 기반인 네트워크 구조이다. CNN 신경망은 영상의 특징을 추출하기 위해서 컨볼루션 레이어와 풀링 (Pooling) 레이어를 여러 겹으로 구성하여 연산을 수행하며, 이후 완전히 연결된 레이어 (Fully Connected Layer)를 구성하여 추출한 특징에 대해 분류를 수행하는 방식이다 (He and Zhang, 2015).

NGHHCI_2023_v65n6_15_f0006.png 이미지

Fig. 6 Conceptual image of ResNet model (He, 2015)

ResNet은 F(x)+x을 최소화하는 것을 목적으로 하며 x는 현시점에서 변할 수 없는 값이므로 F(x)를 0에 가깝게 만드는 것이 목적이다 (He, 2015).

즉, ResNet의 핵심인 Residual Block은 기존의 망과 차이점으로 입력값을 출력값에 더해 줄 수 있도록 지름길을 만들어 잔차를 최소화하여 네트워크가 깊어질수록 발생하는 가중치 감소의 영향을 최소화한다.

Fig. 7의 그림을 보면, x는 입력값인데 모델인 F(x)라는 일련의 과정을 거치면서 자신 (identity)인 x가 더해서 출력값으로 F(x)+x 가 나오는 구조이다. 여기서 F(x)는 학습될 Residual Mapping 모델이며, relu는 함수가 된다.

NGHHCI_2023_v65n6_15_f0007.png 이미지

Fig. 7 Residual learning : a building block (He, 2015)

Ⅳ. 모의실험

1. 실험 설계

팜맵을 구축하기 위한 영상 이미지 처리는 농경지 속성 정보의 작업수행을 위해 하드웨어 성능을 고려하여 가장 효율적인 영상 크기를 결정하여 이미지를 처리하고 있다. 절취되는 영상의 포맷 즉 자료형식은 팜맵의 구축 및 갱신 시 이용하는 소프트웨어가 지원하는 영상형식을 따르며, 일반적으로 GIS를 목적으로 하는 소프트웨어가 공통으로 지원하는 ECW 또는 GeoTIFF 포맷을 사용하지만, 팜맵은 용량의 최소화를 위해 ECW 포맷으로 사용하고 있다.

또한 분석을 위한 일관성을 유지하기 위하여 이미지 포맷 변환 시 포맷과 좌표계를 동시에 변환하며 좌표계는 GRS80에서 UTM-K로 변환하였으며 사용한 소프트웨어는 Global Mapper를 사용하였다.

본 실험은 ResNet-50 모델을 이용하였으며, 입력 데이터는 128×128 크기의 컬러이미지, 출력데이터는 15 클래스의 확률값이며 손실함수는 Categorical Cross Entropy, 최적화 기법은 Adam (Adaptive Moment Estimation), 신경망 활성화할 수는 ReLu (Rectified Linear Unit), Classification 활성화 함수는 softmax 이다.

본 연구에서 수행된 결과물의 정확도를 기존의 선행연구와 비교를 수행하였다. 기존 Wee et al. (2023)의 연구에서는 ECW 이미지를 사용하여 학습데이터 수를 321,834개 구축하고 분석을 수행하였으며, 본 연구에서는 ECW 이미지를 활용하여 21년 항공영상을 사용하여 4.25배의 학습데이터를 증가시켜 이미지 약 137만 개를 활용하였다.

Table 2와 같이 농경지 속성별 학습데이터 수는 논은 2천개, 밭은 600천 개, 과수는 160천 개, 시설은 240천 개, 인삼은 약 77천 개, 비경지는 52천 개를 구축하여 학습데이터로 사용되었다. 두 이미지 간의 농경지 속성분류의 정확도를 검증하기 위해서는 검증을 위한 데이터는 15,118개를 구축하였고 15,118개의 검증 이미지 데이터는 사람이 눈으로 직접 확인하여 농경지 속성정보의 오류가 없는 이미지로 검증데이터를 이용하여 두 이미지 간의 정확도를 측정하였다.

Table 2 Number of train set and test set

NGHHCI_2023_v65n6_15_t0002.png 이미지

2. 실험 결과

가. 정확도 검증 결과

정확도 측정 방법은 학습모델이 True를 True라고 예측한 결과 (TP; True Positive)와 False를 False라고 예측한 결과 (TN; True Negative)의 비율을 의미하며, 전체 데이터 중에서 모형으로 판단하는 값이 실제 값과 부합하는지 보여 주는 지표이며 다음의 식 (1)과 같다. 일반적인 분류모형에서는 정확도 지표를 많이 사용하고 있다.

\(\begin{aligned}Accuracy=\frac{\text { 옳게 분류된 데이터 수 }}{\text { 전체 데이타수 }}=\frac{T P+T N}{T P+F N+F P+T N}\end{aligned}\)      (1)

* 여기서, T : True, P : Positive, F : False, N : Negative임

그 결과, TIF 이미지의 정확도는 90.44%, ECW 이미지의 정확도는 91.72%로 ECW 이미지에서 약 1.28% 높은 정확도를 보였다 (Table 3).

Table 3 The result of an experiment

NGHHCI_2023_v65n6_15_t0003.png 이미지

농경지 속성별로 보면 TIF 이미지의 결과는 논 92.85%, 밭 92.76%, 과수 79.49%, 시설 95.79%, 인삼 95.47%, 비경지 76.40%의 정확도를 보였다. 특히 시설과 인삼에서 95% 넘은 정확도를 보였지만, 과수와 비경지는 80% 미만의 정확도를 보였다.

ECW 이미지의 결과는 논 97.08%, 밭 92.27%, 과수 88.51%, 시설 96.00%, 인삼 94.11%, 비경지 76.47%의 정확도를 보였다. 특히 논과 시설에서 95% 넘은 정확도를 보였지만, 비경지는 80% 미만의 정확도를 보였다.

Table 4와 같이 기존의 연구 결과와 비교를 하였다. 기존의 연구와 같이 같은 실험환경으로 실험하였으며, 학습데이터의 양을 약 4.25배 증가시켰다.

Table 4 Comparison of accuracy between TIF image and ECW image and ECW image and Wee et al. (2023)

NGHHCI_2023_v65n6_15_t0004.png 이미지

전체 농경지로 보면 과거 정확도에 비해 본 연구의 정확도는 6.36% 상승하였다. 정확도가 많이 높아진 농경지 속성은 과수와 논이다. 과수는 기존 연구에 비교해 26.32% 상승하였고 논은 11.14% 상승하여 학습데이터의 수량에 따라 정확도가 높아졌다고 확인하였다.

다음으로, TIF 이미지와 ECW 이미지의 정확도 비교를 검증하였다. 두 이미지의 전체 정확도는 ECW 이미지가 TIF 이미지 보다 약 1.28% 높은 정확도를 보였다.

농경지 속성별로 보면 논은 TIF 이미지보다 ECW 이미지의 정확도가 4.23% 높았으며, 밭은 TIF 이미지가 ECW 이미지보다 0.49% 높았다. 과수는 TIF 이미지보다 ECW 이미지의 정확도가 9.02%로 다른 농경지 속성과 비교해 제일 높았으며, 시설은 TIF 이미지보다 ECW 이미지가 0.21% 높았다. 인삼은 TIF 이미지가 ECW 이미지보다 1.36% 높았다. 비경지는 TIF와 ECW 이미지 간 정확도 차이가 거의 없었다.

나. 통계적 검증 결과

두 이미지 간 정확도를 보면 ECW 이미지가 TIF 이미지보다 전체와 논, 과수, 시설, 비경지 부분에서 더 높은 정확도를 나타내었으며, 이는 단순히 정확도를 비교한 결과이며 통계적으로 두 이미지 간 정확도에 유의미한 차이가 있는지 통계 검증하였다. 농경지 속성이 6개로 통계 검증을 위해 비모수 통계인 웰콕슨 부호 순위 검정을 이용하였으며 유의수준은 0.05에서 통계 검증을 시행하였다.

여기서 귀무가설과 대립가설은 아래와 같다.

H0 : 두 이미지 간 정확도는 유의미한 차이가 없다.

H1 : 두 이미지 간 정확도는 유의미한 차이가 있다.

Table 5와 같이 월콕슨 부호 순위 검정에서는 유의확률 0.463으로 유의수준 0.05보다 크므로 두 이미지 간 정확도는 유의미한 차이가 있다고 볼 수 없었다.

Table 5 Wilcoxon signed rank test results

NGHHCI_2023_v65n6_15_t0005.png 이미지

Ⅴ. 결론 및 고찰

본 연구는 농경지의 논, 밭, 시설, 인삼, 과수, 비경지의 속성을 딥러닝 기반으로 분류하는 데 있어 사용되는 두 이미지간 농경지 속성분류의 정확도 비교 연구를 하였고 유의성 검증을 하였다.

실험 결과, 전체적인 정확도는 TIF 이미지보다 ECW 이미지의 정확도가 다소 높았으나 모든 농경지 속성에서 높은 것은 아니며, 논, 과수, 시설에서 ECW 이미지가 TIF 이미지보다 농경지 속성분류의 정확도가 높음을 알 수 있었다. 반면에 밭과 인삼에서는 TIF 이미지가 ECW 이미지보다 정확도가 높음을 알 수 있었다. 또한, 과수는 ECW 이미지가 TIF 이미지보다 정확도가 9% 높았다. 과수 속성에서 많이 차이 나는 이유는 다른 농경지의 혼합된 이미지 색상과 비교해 과수의 형태는 줄지어진 형태이거나 나무와 나무 간격이 1.8∼2 m 정도로 듬성듬성 떨어져 있어 있는 특징이 있어 이미지 질감과 색상에 영향을 많이 받을 수 있다고 판단되었다. 그렇지만 두 이미지 간의 차이에 대한 유의성을 검증을 위해 웰콕슨 순위 검정의 통계 검정에서는 두 이미지 간의 정확도에 대한 유의미한 차이를 발견할 수 없었다.

AI 분석은 하드웨의 성능에 따라 효율성이 달라지게 된다. 이로 인하여 영상의 용량에 따라 사용성에서 차이가 발생하게 된다. 본 연구에서의 저용량의 이미지를 활용하더라도 정확도에는 큰 차이가 없었으며, 학습데이터의 증가로 정확도가 증가하는 것으로 볼 수 있다. 이를 사용성의 측면에서 분석 시간에 대하여 검토를 하였다. 기존 고용량의 영상을 이용하여 분석을 수행한 결과 일정 면적을 분석을 수행하는 데 걸리는 시간은 저용량을 이용하는 경우 약 5배 정도 판독하는 시간이 감소하는 것으로 나타났다. 따라서 ECW 이미지를 이용하더라도 정확도가 유지되면서 시간이 감소하기 때문에 관리적 측면에서 효율성이 높다고 볼 수 있다.

본 연구는 농경지 전자지도 팜맵의 두 이미지에서 딥러닝 기반의 활용에 앞서 선행 연구의 개념으로 실험을 진행하였으며, 일부 농경지 속성에서 상반된 농경지 분류를 보여 주고 있으나, 두 이미지 간의 큰 차이가 있다고 보기 어려웠다. 또한, 통계 검증을 통해 ECW 이미지를 사용해도 이미지 간의 유의미한 차이가 없다고 판단된다.

따라서 팜맵의 효율적인 관리를 위해서 저용량의 ECW의 사용이 가능하다고 볼 수있다. 그러나 1년 단위로 갱신되는 영상으로 인하여 농경지 용도 파악에 한계점을 가지고 있다. 이를 해결하기 위해서는 시계열적인 영상의 구축이 필요하며, 비경지와 같은 용도는 세부적인 구분이 필요할 것으로 보인다. 또한 2025년도에는 우리나라 최초로 농업용 위성이 발사될 예정이다. 위성영상은 항공영상보다 많은 분광의 특성을 제공하지만, 넓은 영역을 촬영하기 때문에 해상도가 떨어지는 단점이 있다. 그러나 주기적으로 촬영이 가능하므로 시계열 정보의 취득이 가능하다는 장점도 가지고 있다. 따라서 향후 팜맵에 농업용 위성영상을 도입하기 위한 영상적용 방안이 검토되어야 할 것으로 보인다.

References

  1. Wee, S. S., N. S. Jung, W. S. Lee, and Y. T. Shin, 2023. The application methods of FarmMap reading in agricultural land using deep learning. KIPS Transactions on Software and Data Engineering, 12(2): 77-82 (in Korean). https://doi.org/10.3745/KTSDE.2023.12.2.77
  2. Wee, S. S., W. S. Lee, and N. S. Jung, 2022. Farm-map application strategy for Agri-Environmental resources management. Journal of the Korean Society of Agricultural Engineers, 64(3): 1-8 (in Korean). https://doi.org/10.5389/KSAE.2022.64.3.001
  3. Son, K. J., W. S. Lee, W. W. Park, S. J. Lee, S. K. Park and K. S. Han, 2021. Study on applying spatial information to agriculture based on the farm map. Journal of the Korea Society of Information Technology Policy & Management, 13(1): 2229-2235 (in Korean).
  4. Kim, J. T., E. B. Park, K. W. Han, J. Y. Lee, and H. J. Lee. 2021. A two-stage learning method of CNN and K-means RGB cluster for sentiment classification of images. Journal of Intelligence and Information Systems, 27(3): 139-156 (in Korean). https://doi.org/10.13088/JIIS.2021.27.3.139
  5. Lee, S. H., 2019. Land cover classification using sematic image segmentation with deep learning. Korean Journal of Remote Sensing, 35(2): 279-288 (in Korean). https://doi.org/10.7780/KJRS.2019.35.2.7
  6. Oh, B. T., 2022. Deep learning-based image manipulation and detection technology trends. Broadcasting and Media Magazine, 27(2): 62-69(in Korean).
  7. Chung, H. K., J. I. Kim, S. Y. Ko, S. K. Chai, and Y. T. Shin. 2022. Forest change detection service based on artificial intelligence learning data. Journal of Information Processing Society, 11(8): 347-354 (in Korean).
  8. Yang, Y. K., 2018. Classification of paddy rice cultivation area using satellite imagery and machine learning techniques. Master's thesis, Kongju National University.
  9. He, K., and X. Zhang, 2015. Deep residual learning for image recognition. arXiv:1512.03385v1.
  10. Yu, G. H., J. W. Lee, V. H. Trong, H. T. Nguyen, J. H. Lee, D. S. Shin, and J. Y. Kim. 2019. Exotic weeds classification: Hierarchical approach with convolutional neural network. Journal of Korean Institute of Information Technology, 17(12): 81-92 (in Korean). https://doi.org/10.14801/jkiit.2019.17.12.81
  11. Lee, D. H., and K. H. Seok. 2018. Detection of Scirtothrips with deep neural networks. Journal of Korean Data & Information Science Society, 29(5): 1287-1297 (in Korean). https://doi.org/10.7465/jkdi.2018.29.5.1287
  12. Chung, J. R., and S. W. Jung, 2019. A survey on deep learning-based image downsampling. The Korean Institute of Broadcast and Media Engineers Autumn Conference.