DOI QR코드

DOI QR Code

Detection and Grading of Compost Heap Using UAV and Deep Learning

UAV와 딥러닝을 활용한 야적퇴비 탐지 및 관리등급 산정

  • 박미소 ((주)아이렘기술개발 기업부설연구소) ;
  • 김흥민 ((주)아이렘기술개발 기업부설연구소) ;
  • 김영민 ((주)아이렘기술개발 기업부설연구소) ;
  • 박수호 ((주)아이렘기술개발 기업부설연구소) ;
  • 김탁영 ((주)아이렘기술개발 원격탐사팀) ;
  • 장선웅 ((주)아이렘기술개발)
  • Received : 2024.02.13
  • Accepted : 2024.02.22
  • Published : 2024.02.28

Abstract

This research assessed the applicability of the You Only Look Once (YOLO)v8 and DeepLabv3+ models for the effective detection of compost heaps, identified as a significant source of non-point source pollution. Utilizing high-resolution imagery acquired through Unmanned Aerial Vehicles(UAVs), the study conducted a comprehensive comparison and analysis of the quantitative and qualitative performances. In the quantitative evaluation, the YOLOv8 model demonstrated superior performance across various metrics, particularly in its ability to accurately distinguish the presence or absence of covers on compost heaps. These outcomes imply that the YOLOv8 model is highly effective in the precise detection and classification of compost heaps, thereby providing a novel approach for assessing the management grades of compost heaps and contributing to non-point source pollution management. This study suggests that utilizing UAVs and deep learning technologies for detecting and managing compost heaps can address the constraints linked to traditional field survey methods, thereby facilitating the establishment of accurate and effective non-point source pollution management strategies, and contributing to the safeguarding of aquatic environments.

본 연구는 비점오염원 중 하나인 야적퇴비의 효율적인 탐지를 위해 You Only Look Once (YOLO)v8 모델과 DeepLabv3+ 모델의 적용 가능성을 평가하였다. 무인항공기(Unmanned Aerial Vehicle, UAV)를 이용하여 수집된 고해상도 영상을 바탕으로, 두 모델의 정량적 및 정성적 성능을 비교 분석하였다. 정량적 평가에서 YOLOv8 모델은 다양한 지표에서 우수한 성능을 나타내며, 특히 야적퇴비의 덮개 유무를 정확하게 식별할 수 있는 능력을 보였다. 이러한 결과는 YOLOv8 모델이 야적퇴비의 정밀한 탐지 및 분류에 효과적임을 시사하며, 이를 바탕으로 야적퇴비의 관리 등급을 산정하고 비점오염원 관리에 기여할 수 있는 새로운 접근 방법을 제공한다. 본 연구는 UAV와 딥러닝 기술을 활용한 야적퇴비 탐지 및 관리가 기존 현장 조사 방식의 한계를 극복하며 정확하고 효율적인 비점오염원 관리 전략 수립 및 수계환경 보호에 기여할 것으로 기대된다.

Keywords

1. 서론

비점오염원은 농지에 살포된 비료 및 농약, 지표상의 퇴적 오염물질, 월류수 내 오염물질 등 특정한 파이프라인을 통하지 않고 광범위한 지역에서 발생하여 수계로 유입되는 오염원을 말한다(Shin et al., 2011; Jeon et al., 2013; Lee et al., 2015; Choe et al., 2016). 비점오염원은 명확한 오염의 원인지를 특정하기가 어려우며 오염물질의 종류와 양 또한 다양해 관리가 어렵다. 또한 점오염원과 달리 강우 유출수에 의한 영향이 지배적이며, 특히 축산·농업 활동으로 발생하는 비점 오염물질은 각종 유기물질과 질산성질소, 인의 함유 농도가 매우 높아 수계 유출 시 부영양화와 같은 문제를 일으킨다(Lee et al., 2008; Ahn et al., 2015; Kwon et al., 2018). 부영양화는 물의 산소 함량 감소, 조류의 과도한 성장, 수질 저하 등을 초래하여 수중 생물의 서식지와 생존에 심각한 영향을 미친다.

야적퇴비는 축산 및 농업 활동에서 발생하는 유기성 폐기물로, 주로 축산 분뇨를 야외에 적재하여 퇴비화한 것을 말한다. 이는 비점오염원의 한 형태로, 적절한 관리 없이 방치될 경우, 심각한 환경 문제를 야기할 수 있다. 야적퇴비의 관리 문제는 특히 농경지나 축사에 인접한 지역에서 두드러진다. 이러한 지역은 하천과 농배수로 등의 수계와 가까이 위치해 있어 강우에 매우 취약하다. 강우로 인해 야적퇴비에 포함된 고농도의 인과 질소, 암모니아, 박테리아 등이 수계로 직접 유입될 경우 악취, 해충, 수질 오염 등 다양한 환경문제를 유발하는 원인이 된다(Kim et al., 2005; Kim et al., 2014; Park et al., 2016).

현재 야적퇴비의 관리는 『가축분뇨의 관리 및 이용에 관한 법률』에 근거하여 환경지킴이 등을 통한 현장 조사와 수거 조치 명령 및 계도 등으로 이루어지고 있다. 그러나 관리 대상에 대하여 시각적 확인에 크게 의존하고 있어 검사자의 주관성이 개입되기 쉽다는 한계가 있다. 또한 광범위하고 불특정한 공간에 산발적으로 분포하는 야적 퇴비 특성으로 인해 시간과 비용적인 면에서 많은 제약을 받으며, 현장 정보의 부족으로 모든 객체에 대한 관리 상태 확인은 실질적으로 매우 어렵다.

현장조사의 한계를 극복하고자, 최근 무인항공기(Unmanned Aerial Vehicle, UAV)를 이용한 원격탐사 기술이 주목받고 있다. UAV는 광범위한 지역을 신속하게 관측 할 수 있으며 카메라 및 센서를 통한 데이터 획득으로 객관적이고 정량적인 정보 생산이 가능하다. Park et al. (2019)은 UAV를 활용하여 농촌지역 야적퇴비의 관리 상태 및 적재량 변화를 모니터링하였다. 그 결과, UAV를 이용한 정기적인 모니터링은 육상 조사에 비해 시간과 비용을 절감할 수 있고, 보다 정확한 야적퇴비 관리가 가능함을 확인하였다.

Kim et al. (2021)은 UAV를 이용하여 야적퇴비의 야적퇴비의 관리 상태 및 적재량 변화를 분석하였다. UAV를 이용한 야적퇴비의 측정은 육상 현장조사와 비교하여 93.24%의 높은 정확도를 나타냈다. UAV 영상에 인공지능 기술을 접목하여 야적퇴비를 자동으로 탐지하고 분석하고자 하는 연구도 수행되었다. Song and Park (2021)은 UAV 영상과 다양한 머신러닝 모델의 비교를 통해 야적퇴비 탐지를 위한 최적의 모델을 파악하고자 하였다. Kim et al. (2021)은 UAV 영상과 딥러닝 기반 의미론적 세그멘테이션 기법을 활용하여 신속하고 정확한 야적퇴비 탐지 방안을 제안하였다.

UAV와 인공지능 기술을 활용한 야적퇴비 탐지 및 모니터링은 기존의 현장조사 방식의 한계점을 보완하고 탐지의 정확성과 효율성을 향상시켰다. 그러나 야적퇴비 존재에 대한 단순 탐지 시도에 그쳐 관리에 필요한 정보 제공에는 한계가 있다. 강우 시, 관리가 미흡한 야적퇴비에서 유출되는 침출수로 인해 야적퇴비에 포함된 인, 질소, 박테리아 등이 수계로 유입될 수 있으며 이러한 야적퇴비는 비점오염원으로 작용하여 수질 오염을 초래할 수 있다. 따라서, 야적퇴비의 분포와 상태 파악은 강우 전 사전 예방을 통한 피해 최소화를 위해 필수적이다. 따라서 본 연구에서는 UAV와 딥러닝을 활용하여 야적퇴비를 탐지하고, You Only Look Once (YOLO)v8 모델과 DeepLabv3+ 모델의 탐지 성능을 비교하였다. 최적의 모델을 선정하여 비점오염원으로 작용할 가능성이 높은 야적퇴비 객체를 신속하게 탐색하고 야적퇴비 관리의 우선순위를 설정하기 위한 관리 전략을 제공하고자 한다.

2. 연구자료 및 방법

2.1. 연구 자료

야적퇴비 탐지를 위한 데이터셋 구축 모식도를 Fig. 1에 제시하였다. 연구에 활용하기 위한 UAV 영상은 총 1,612장으로, 2023년 5월부터 2023년 12월까지 영남과 호남 일대에서 수집하였다. 해당 지역은 강을 기준으로 축사가 밀집되어 있어 야적퇴비로 인한 수계 오염의 위험이 높은 지역이다. 촬영 장비로는 DJI 사의 회전익 UAV인 Phantom 4 Pro V2.0과 Mavic 2 Pro를 사용하였다. 두 기종 모두 2,000만 화소 이상의 고해상도 카메라를 탑재하고 있어 정밀한 이미지 데이터 수집에 적합하다. 촬영은 프로그래밍된 경로에 따른 자동 비행을 통해 일관된 조건 하에서 수행되었다. UAV를 이용한 야적퇴비 영상 수집시 에는 촬영 고도가 중요한 요소이다. 촬영 고도가 높을수록 넓은 지역을 커버할 수 있지만, 야적퇴비의 세부 정보를 식별하기 위해서는 일정 수준 이상의 해상도가 필요하다. 본 연구에서는 야적퇴비의 상세한 특징을 포착할 수 있는 동시에, 넓은 지역을 효과적으로 커버할 수 있도록 지상 표본 거리(Ground Sample Distance, GSD)를 약 3.2 cm로 설정하고 이에 대해 적절한 촬영고도를 계산하였다. 취득한 UAV 영상은 왜곡이나 변형 없이 일관된 형태를 사용해 정확하고 통일된 패턴을 학습하기 위해 모델 영상처리 소프트웨어 Pix4D를 사용하여 정사영상으로 제작하였다. 정사영상은 UAV 촬영 시 각도, 지형의 높이, 카메라 렌즈 등으로 발생할 수 있는 왜곡을 제거하고 영상 내 픽셀이 실제 지리적 위치를 반영하도록 한다.

OGCSBN_2024_v40n1_33_f0001.png 이미지

Fig. 1. Flowchart for data collection for detection of compost heap.

UAV 영상 처리 후, 모델 학습을 위한 라벨링(Labelling) 작업을 수행하였다. 야적퇴비 객체에 대한 라벨링은 오픈 소스 도구인 Labelme를 사용하여 폴리곤(Polygon) 방식으로 수행하였다. 폴리곤 라벨링은 각 객체의 경계를 다각형으로 정의하여, 야적퇴비와 같이 비정형적이거나 불규칙한 형태의 객체를 보다 정확하게 표현할 수 있게 한다. 본 연구에서는 야적퇴비의 덮개의 유무에 따라 덮개가 있는 야적퇴비를 ‘Compost_C’로, 덮개가 없는 야적퇴비는 ‘Compost’로 구분하여 라벨링을 수행하였다. 덮개가 있는 야적퇴비는 오염물질의 유출 가능성이 상대적으로 낮아 환경에 미치는 부정적 영향이 비교적 적으나, 덮개가 없는 야적퇴비는 강우 시 토양과 수계로 쉽게 유출되어 환경적 문제를 야기할 가능성이 높다.

2.2. 야적퇴비 탐지를 위한 딥러닝 모델

본 연구에서는 UAV 영상 및 딥러닝 기반의 세그멘테이션(Segmentation) 모델을 활용하여 야적퇴비를 탐지하고자 하였다. 세그멘테이션은 픽셀 단위로 각 이미지에 대한 레이블을 예측하는 방식으로 야적퇴비의 경계, 윤곽을 정확하고 세밀하게 탐지할 수 있다. 최근 딥러닝 기반의 객체 탐지 및 세그멘테이션 모델 중 많이 활용되고 있는 YOLOv8과 DeepLabv3+를 활용하여 두 모델 간의 성능을 비교하고자 하였다. YOLOv8은 넓은 지역을 대상으로 신속하고 정확한 탐지가 요구되는 UAV 영상 처리에 매우 적합하며 DeepLabv3+는 형태가 불규칙하고 배경이 복잡한 객체의 정밀한 식별에 유리하다. 두 모델을 비교함으로써 야적퇴비 탐지와 관리등급 산정에 최적화된 모델을 선정하고자 하였다.

2.1.1. YOLOv8

YOLO는 실시간 객체 탐지를 위해 설계된 딥러닝 모델이다(Redmon et al., 2016). YOLO는 이미지 내의 객체를 한 번의 탐색으로 위치와 클래스를 동시에 예측하는 특징을 가지고 있어, 특히 실시간 처리에 뛰어난 성능을 보인다. YOLOv8 모델은 Ultralytics 사에서 2023년에 공개한 실시간 객체 탐지 모델(Real Time Object Detection Model)이다. YOLOv8은 Ultralytics사에서 앞서 공개한 YOLOv5의 Backbone Network보다 효율적인 구조를 채택하여 추론 정확도와 속도를 개선하였으며, Acnchor Free Detection 기술을 채용하여 연산 과정을 단순화 시켰다. YOLOv8은 본래 초당 30장 이상의 이미지를 탐지할 수 있는 실시간 객체 탐지를 위해 개발되었으나 최근에는 Head Network의 일부 레이어를 수정하여 인스턴스 세그멘테이션(Instance Segmentation),이미지 분류(Image Classification), 포즈 추정(Pose Estimation)에도 활용할 수 있도록 개선되었다.

본 연구에서는 YOLOv8의 Head Network를 교체하여 인스턴스 세그멘테이션 모델로 활용하였으며, 이를 통해 이미지 내에서 야적퇴비 영역을 탐지하였다. 이때, 인스턴스 세그멘테이션은 이미지 내에서 대상물을 픽셀단위로 분류하는 이미지 분할 작업의 일종이다. 이미지 분할 작업에서 많이 응용되는 의미론적 세그멘테이션(Semantic Segmentation)은 대상물 픽셀과 배경 픽셀을 단순히 분류하는데 초점을 두는데 반해 인스턴스 세그멘테이션은 동일 클래스 내의 개별 인스턴스를 독립적으로 구분할 수 있다.

또한, 의미론적 세그멘테이션 모델이 대상물 영역을 폴리곤으로 탐지하는 것과 달리 YOLOv8는 대상물의 영역을 폴리곤 및 바운딩 박스(Bounding Box)로 동시에 탐지하는 멀티태스킹이 가능하다. 이러한 멀티태스킹 방식은 바운딩 박스 탐지에서 얻은 위치 정보와 폴리곤 탐지로 얻은 픽셀 단위의 클래스 정보를 상호 활용함으로써 정보의 다양성을 확장시키고 각 접근 방식의 성능을 향상시킬 수 있다는 장점이 있다(He et al., 2017).

OGCSBN_2024_v40n1_33_f0002.png 이미지

Fig. 2. Architecture of YOLOv8.

2.1.2. DeepLabv3+

DeepLab은 의미론적 세그멘테이션을 위한 딥러닝 모델로, 이미지의 각 픽셀에 레이블을 할당함으로써 각 객체의 정확한 형태와 경계를 파악하는 데 사용된다. DeepLabv3+는 2018년에 공개된 의미론적 세그멘테이션 모델로, 향상된 Atrous Spatial Pyramid Pooling (ASPP)과 함께 Encoder-Decoder 구조를 도입하여 기존 DeepLab 시리즈의 탐지 능력을 개선하였다. Encoder 부분에서는 ASPP를 활용하여 이미지의 광범위한 컨텍스트를 이해하는 데 필수적인 다양한 크기의 컨볼루션 필터를 사용하며, Decoder 부분에서는 이 고수준 정보를 저수준의 특징과 결합하여 최종적인 탐지 결과의 정밀도를 향상시킨다(Chen et al., 2018).

본 연구에서는 DeepLabv3+ 모델에 ResNet을 Backbone Network로 활용하였다. ResNet은 깊은 합성곱 신경망(Deep Convolutional Neural Network, DCNN)의 한 형태로 이미지에서 고수준의 특징을 추출할 수 있다. 또한 잔차학습(Residual Learning)을 통해 깊은 Network에서도 정보의 손실 없이 학습이 가능하다. 이를 통해 모델은 이미지의 세부적인 정보를 손실 없이 유지하면서 더 깊은 Network를 통해 더욱 복잡하고 추상적인 특징을 학습할 수 있다. DeepLabv3+는 이미지의 각 픽셀이 속한 클래스를 나타내는 마스크 형식의 데이터를 입력 데이터로 사용한다. 마스크는 일반적으로 각 객체의 경계를 정확하게 따라 그려진 이진 이미지(Binary Image) 또는 픽셀별 라벨 정보를 포함한 이미지로 구성된다.

YOLOv8과 DeepLabv3+ 모델의 성능 비교를 위하여 다음과 같은 하이퍼파라미터(Hyperparameter)를 설정하고 실험을 진행하였다. 학습과정에서 모델들은 동일한 Epoch 수인 200으로 설정되어 충분한 학습이 가능하도록 하였으며, 배치 크기는 GPU 메모리 사용량과 학습 속도 사이의 균형을 고려하여 8로 설정하였다. 과적합을 방지하고 모델의 일반화 능력을 향상시키기 위해 조기 종료(Early Stopping) 기법의 Patience 매개변수를 30으로 설정하였다. 이를 통해 불필요한 학습 시간을 줄이고 최적화 과정에서의 시간 효율성을 높일 수 있다.

OGCSBN_2024_v40n1_33_f0003.png 이미지

Fig. 3. Architecture of DeepLabv3+.

2.1.3. 모델 적합성 평가 방법

야적퇴비 탐지에 적합한 모델을 선정하기 위하여, 본 연구는 여러 성능 지표들을 기반으로 한 정량적 비교 분석을 실시하였다. 모델의 성능 평가는 혼동 행렬(Confusion Matrix)을 기반으로 수행되었다. 혼돈 행렬은 모델의 예측값과 실제값의 비교를 통해 True Positive (TP), False Positive (FP), True Negative (TN) 그리고 False Negative (FN)의 값을 계산한다. 이를 통해 모델이 실제 야적퇴비를 얼마나 정확하게 탐지하는지, 그리고 잘못된 탐지는 얼마나 발생하는지를 정량적으로 평가할 수 있다.

정확도(Accuracy)는 모델이 예측한 결과가 실제와 얼마나 일치하는지를 나타낸다. 정확도는 예측 결과를 종합하여 모델이 얼마나 정확한 예측을 하는지를 직관적으로 판단할 수 있는 지표이다. 정확도의 식(1)은 다음과 같이 나타낼 수 있다.

Table 1. Confusion matrix

OGCSBN_2024_v40n1_33_t0001.png 이미지

\(\begin{align}\text {Accuracy}=\frac{T P+T N}{T P + T N + F P + F N}\end{align}\)       (1)

정밀도(Precision)는 모델이 야적퇴비로 예측한 결과 중 실제로 야적퇴비인 것을 나타낸다. 야적퇴비 탐지에서 높은 정밀도는 실제 야적퇴비인 객체를 정확히 식별하고 오류를 최소화하는 데 중요한 지표이다. 정밀도의 식(2)는 다음과 같이 나타낼 수 있다.

\(\begin{align}\text {Precision}=\frac{T P}{T P + F P}\end{align}\)       (2)

재현율(Recall)은 실제 야적퇴비 중 모델이 얼마나 많은 비율을 정확하게 탐지하는 지를 나타낸다. 야적퇴비 탐지에서 높은 재현율은 탐지 시 누락 되는 야적퇴비 객체가 적다는 것을 의미하며 관리가 필요한 모든 야적퇴비 객체를 포착하는 데 중요하다. 재현율의 식(3)은 다음과 같이 나타낼 수 있다.

\(\begin{align}\text {Recall}=\frac{T P}{T P + F N}\end{align}\)       (3)

야적퇴비 탐지에서 높은 재현율은 실제 야적퇴비에 해당하는 비율이 높은 것을 의미하나, 동시에 낮은 재현율로 실제 탐지해야할 객체의 일부만 탐지하는 경우가 발생할 수있다. 따라서 정밀도와 재현율 사이의 균형을 고려해야한다. F1-Score는 정밀도와 재현율의 조화 평균으로 두 지표가 균형을 이룰 때 최대 값을 나타낸다. 따라서 높은 F1-Score는 모델이 균형잡힌 성능을 보임을 나타낸다. F1-Score의 식(4)는 다음과 같이 나타낼 수 있다.

\(\begin{align}\text {F1 Score}= 2{\times}\frac{Precision {\times}Recall}{Precision + Recall}\end{align}\)       (4)

세그멘테이션 모델의 정확성을 평가하는 데 중요한 지표인 mean Intersection over Union (mIoU)도 산출하였다. mIoU는 모델이 예측한 객체의 영역과 실제 객체의 영역이 얼마나 겹치는지를 나타내는 지표로 높은 mIoU 값은 모델이 객체의 위치와 형태를 정확하게 인식하고 있음을 의미하며, 여러 클래스에 대한 평균 값을 사용하여 모델의 전반적인 세그멘테이션 성능을 평가한다. mIoU의 식(5)는 다음과 같이 나타낼 수 있다. 여기서 N은 클래스의 수를 의미한다.

\(\begin{align}m I o U=\frac{1}{N} \sum_{i=1}^{N} \frac{\text { Intersection }}{\text { Union }}\end{align}\)       (5)

정량적 평가 방법에 이어 모델의 정성적 성능 비교를 수행하고 야적퇴비 탐지의 적합성을 평가하였다. 정성적 비교는 모델이 야적퇴비의 경계를 얼마나 세밀하게 파악하고 실제로 야적퇴비를 탐지할 수 있는지에 중점을 두었다. 이 과정에서 모델이 생성한 추론 이미지를 통해 실제 야적퇴비의 위치와 형태를 정확하게 반영하는지를 시각적으로 검토한다. 또한 각 모델이 야적퇴비의 덮개 유무, 주변 환경과의 구분 등 세부적인 특성을 어떻게 인식하는지를 분석한다.

본 연구에서는 야적퇴비의 탐지뿐만 아니라 관리 등급의 분류를 통해 각 야적퇴비에 대한 관리 우선순위를 파악할 수 있는 정보를 제공하고자 하였다. 이를 위해 정량적 및 정성적 평가로 선정된 최적의 딥러닝 모델을 활용하여 야적퇴비의 관리등급을 자동으로 산출하였다. 탐지된 야적퇴비 객체들은 바운딩 박스를 기준으로 그룹화되며, 이후 관리 기준과 내부 클래스의 구성 및 비율을 분석하여 ‘양호(Good)’, ‘미흡(Poor)’, ‘부적절(Bad)’의 세 가지 등급으로 분류된다(Table 2).

Table 2. Comprehensive management criteria for composted manure

OGCSBN_2024_v40n1_33_t0002.png 이미지

3. 연구결과 및 토의

야적퇴비 탐지 모델의 적합성을 평가하기 위하여 YOLOv8 모델과 DeepLabv3+ 모델을 사용하여 학습을 진행하고 정량적인 성능을 비교하였으며, 성능 지표로 Accuracy, Precision, Recall, F1-Score 그리고 mIoU를 활용하였다(Table 3).

Table 3. Quantitative performance comparison between YOLOv8 and DeepLabv3+

OGCSBN_2024_v40n1_33_t0003.png 이미지

정량적 평가 결과, YOLOv8 모델은 Accuracy가 0.931, Precision은 0.912, Recall은 0.746, F1-Score는 0.875 그리고 mIoU는 0.808로 나타났다. 반면, DeepLabv3+ 모델은 Accuracy가 0.947로 YOLOv8보다 높으나 Precision은 0.699, Recall은 0.723, F1-Score는 0.712 그리고 mIoU는 0.551로 상대적으로 낮은 성능을 보였다. YOLOv8 모델은 DeepLabv3+ 모델에 비해 높은 Precision을 보여 야적퇴비의 세밀한 특징과 복잡한 배경에서도 야적퇴비를 정확하게 식별하고 분류할 수 있는 능력을 가지고 있음을 의미한다.

일반적으로 높은 Precision은 모델이 야적퇴비로 예측한 결과 중 실제로 야적퇴비인 경우의 비율이 매우 높음을 의미하며, 이는 잘못된 예측의 수를 최소화하고 있음을 나타낸다. 클래스별 IoU에 대하여 YOLOv8 모델은 덮개가 없는 야적퇴비에서 0.761, 덮개가 있는 야적퇴비에서 0.838로 나타났다. DeepLabv3+ 모델은 덮개가 없는 야적 퇴비에서 0.468, 덮개가 있는 야적퇴비에서 0.633으로 나타났다. 두 모델 모두 덮개가 있는 야적퇴비에서 높은 값을 보인 것은 덮개가 있는 야적퇴비가 더 명확한 특징을 제공하며, 이러한 특징이 모델에 의해 더 쉽게 학습되고 인식될 수 있을 것으로 판단된다. 덮개가 있는 야적퇴비는 덮개의 존재로 인해 더 뚜렷한 형태와 색상 대비를 제공하며, 모델이 배경과의 구분을 더 명확하게 수행할 수 있을 것으로 보인다. 덮개가 없는 야적퇴비의 경우 상대적으로 낮은 IoU 값을 나타냈으며, 이는 덮개가 없는 야적퇴비가 흙과 같은 배경과 유사한 특성을 가져 모델이 객체를 구분하는데 어려움이 있었을 것으로 보인다. 이에 따라 YOLOv8 모델에서의 낮은 Recall 값이 관측된 것으로 판단된다. F1-Score는 Precision과 Recall 사이의 균형을 의미하며, YOLOv8은 낮은 Recall에도 불구하고 상당히 높은 F1-Score를 보였다. 이는 모델이 야적퇴비에 대한 미탐지와 오탐지를 비교적 효과적으로 관리하고 있음을 시사한다.

YOLOv8-seg 모델과 DeepLabv3+ 모델을 활용하여 추론한 결과를 비교하기 위해 세 가지 유형의 테스트 데이터를 구성하였다. 각 유형은 야적퇴비의 환경적 영향 및 관리 기준에 따라 덮개가 있는 야적퇴비(Compost_C) 이미지셋, 덮개가 없는 야적퇴비(Compost) 이미지 셋 그리고 두 클래스가 함께 나타나는 혼합 이미지셋으로 나누었다. 이를 바탕으로 YOLOv8-seg 모델과 DeepLabv3+ 모델의 탐지 및 분류 능력을 시각적으로 비교하였다(Figs. 4–6).

OGCSBN_2024_v40n1_33_f0004.png 이미지

Fig. 4. Qualitative comparison of detected results for covered compost heap class. The top row shows the YOLOv8 detected compost heaps, while the bottom row displays the DeepLabv3+ detection results. (a) shows a compost heap identified within the ‘Compost_C’ class, marked in pink by both models. (b) similarly depicts a compost heap classified under the ‘Compost_C’category, with the detection area marked in pink by both models. (c) continues with the detection of another compost heap as part of the ‘Compost_C’ class, with the area of interest marked in pink by both models. (d) contrasts with YOLOv8’s detection of the compost heap strictly as the ‘Compost_C’ class, marked in pink, as DeepLabv3+ detects certain areas not as‘Compost_C’ but as‘Compost’, marked in red.

OGCSBN_2024_v40n1_33_f0005.png 이미지

Fig. 5. Qualitative comparison of detected results for uncovered compost heap class. The top row shows the YOLOv8 detected compost heaps, while the bottom row displays the DeepLabv3+ detection results. (a)shows a compost heap classified as the ‘Compost’ class, marked in red by both models. (b) similarly depicts a compost heap identified under the ‘Compost’ category, with the detection area marked in red by both models. (c) continues with the detection of another compost heap as part of the ‘Compost’ class, with the area of interest marked in red by both models. (d) follows the same pattern, with the compost heap being detected as a ‘Compost’ class and marked in red by both models.

OGCSBN_2024_v40n1_33_f0006.png 이미지

Fig. 6. Qualitative comparison of detected results for mixed compost heap class. The top row shows the YOLOv8 detected compost heaps, while the bottom row displays the DeepLabv3+ detection results. (a) displays a mixed compost heap where YOLOv8 and DeepLabv3+ both identify areas classified as ‘Compost’ in red, and areas classified as ‘Compost_C’ in pink. (b) similarly depicts a mixed compost heap, with both models marking ‘Compost’ class areas in red and ‘Compost_C’ class areas in pink. (c) continues with another mixed compost heap, where both YOLOv8 and DeepLabv3+ mark the ‘Compost’ class detections in red and the ‘Compost_C’ class detections in pink. (d) concludes with a mixed compost heap, showcasing both models’ ability to detect and distinguish between ‘Compost’ class areas, marked in red, and ‘Compost_C’ class areas, marked in pink.

Fig. 4는 덮개가 있는 야적퇴비(Compost_C) 이미지셋을 추론한 결과의 일부로, 두 모델 모두 배경과 야적퇴비 덮개의 경계를 구분하고 있으며 야적퇴비 객체를 올바른 클래스로 탐지하고 있음을 보였다. 그러나 Fig. 4(d)의 경우, DeepLabv3+ 모델에서 야적퇴비와 배경 사이의 경계가 모호한 영역에서의 픽셀 분류 오류가 발생하였다. 이는 모델이 경계에서의 색상 변화나 텍스처 차이를 구분하는 데에 어려움이 있음을 알 수 있다. 덮개의 주변은 덮개가 날아가지 않도록 하기 위하여 흙, 돌, 벽돌 등으로 마감을 하는 경우가 많다. 야적퇴비의 색상과 유사한 객체로 인해 야적퇴비 경계의 모호함이 증가하여 모델이 해당 영역을 Compost 클래스로 분류한 것으로 판단된다.

Fig. 5는 덮개가 없는 야적퇴비(Compost) 이미지셋을 추론한 결과의 일부이다. Compost 클래스는 독특한 색상과 텍스처 정보가 있는 Compost_C 클래스와는 달리 주변 환경과 유사한 정보를 가져 육안으로도 뚜렷한 구분이 어렵다. 특히 식생이나 도로 등의 환경이 아닌 흙 모래와 같은 환경에 야적퇴비 객체가 존재할 경우 배경과 객체의 유사함이 증대되어 상대적으로 탐지 성능이 떨어질 수 있다. Figs. 5(c, d)에서 나타난 바와 같이 DeepLabv3+에서 이러한 한계가 관찰되었다.

Fig. 6은 두 개의 클래스가 혼재되어있는 이미지셋을 추론한 결과의 일부이다. YOLOv8의 경우 배경과 객체에 대한 구분을 명확하게 수행하였다. 또한, 클래스 분류를 통해 덮개의 유무 구분에 있어 높은 정확성을 보여주었다. DeepLabv3+ 모델은 YOLOv8 모델과 유사한 성능을 보였으나 Fig. 6(b)에서 나타난 바와 같이, Compost 클래스 영역에서 다수의 픽셀이 탐지되지 않아 상대적으로 정확도가 떨어지는 것을 확인할 수 있다.

본 연구에서는 정량적 및 정성적 평가 결과를 바탕으로 YOLOv8 모델을 활용하여 야적퇴비의 관리등급을 자동으로 산출하고 이에 대한 적용 가능성을 평가하고자 하였다. 등급 산정에 활용된 테스트 데이터셋은 다양한 환경 조건에서 수집된 야적퇴비 사례를 포함하며, 모델의 범용성과 정밀도를 평가하기 위한 목적으로 구성하였다. 모델에 의해 산출된 등급을 검증하기 위해 테스트 데이터셋에 대해 사전에 분류한 등급 사이의 일치도를 분석하였다. 모델의 야적퇴비 등급 산정은 Fig. 7에 나타난 바와 같이, 세 가지 등급에 따라 지정된 색상으로 구분된다.

OGCSBN_2024_v40n1_33_f0007.png 이미지

Fig. 7. Example classification results of compost heaps by human and YOLOv8 model. Top row - Example compost heaps classified by a human expert. Bottom row - Example detection and grading results by the YOLOv8 model. (a) Example of a ‘Good’compost heap marked in blue. (b) Example of an ‘Bad’ compost heap marked in red. (c) Example of an ‘Poor’ compost heap marked in green.

Table 4는 사전에 분류한 야적퇴비의 객체의 등급과 모델이 산출한 야적퇴비 객체의 등급에 대한 성능을 요약한 것이다. Actual Count는 사람이 관리 기준에 따라 분류한 개수를, Model-Assigned Count는 모델에 의해 자동 산출된 등급 분류 개수를 나타낸다. 이를 통해 산출된 Accuracy는 모델이 야적퇴비 객체에 대하여 산출한 등급이 실제 등급과 얼마나 일치하는지를 나타낸다. 모델은 테스트 데이터 셋 내 야적퇴비 중 49개에 대하여 양호 등급을 부여하였다. 사전에 양호 등급으로 분류한 야적퇴비는 44개로, 모델이 일정 개수를 과대추정하고 있음을 알 수 있다. 그러나 Accuracy가 91.2%로 양호한 상태의 야적퇴비를 높은 정확도로 식별할 수 있음으로 판단된다. 반면, 미흡 등급은 사전에 분류한 56개에 비해 모델이 31개의 객체만을 미흡으로 등급을 부여하였다. 또한 해당 객체 중 77.6%의 정확도를 보이며 모델이 미흡 상태의 야적퇴비를 과소추정하고 있음을 의미한다.

Table 4. Summary of management grades assigned by the model versus actual compost heap counts and accuracy by grade

OGCSBN_2024_v40n1_33_t0004.png 이미지

모델에 의해 ‘미흡’으로 분류된 야적퇴비의 평가는 특히 중요한 고려 사항이다. ‘미흡’ 등급은 야적퇴비가 일부 노출되어 있거나 덮개의 상태가 완전하지 않아 강우 및 침출수로 인한 수질오염 발생 위험이 있는 상태를 의미한다. 미흡 등급의 야적퇴비는 부분적으로 노출된 야적퇴비와 덮개가 불완전한 상태의 복잡한 시각적 특성을 포함한다. 복잡성이 증가할수록 모델이 배경과 야적퇴비를 명확하게 구분하고 여러 클래스의 특성이 혼합된 상태를 정확히 분류하는 것에 어려움이 발생한다. 또한 미흡 등급에 해당하는 복합적인 야적퇴비 객체가 모델 학습에 있어 충분히 다양하지 않아 이러한 특성을 일반화하는데 필요한 정보를 반영하지 못한 것으로 판단된다. 따라서 모델이 다양한 미흡 상태의 야적퇴비의 특성을 반영할 수 있도록 학습 데이터의 추가적인 구축이 필요할 것으로 보인다.

4. 결론

본 연구에서는 야적퇴비 탐지를 위한 YOLOv8과 DeepLabv3+ 모델의 성능을 비교 분석하여, 현장 적용 가능성과 관리 기준 설정에 대한 이들 모델의 기여도를 평가하였다. UAV를 통해 수집된 고해상도 이미지 데이터를 활용한 실험 결과, YOLOv8 모델이 정량적 및 정성적 분석 모두에서 상대적으로 우수한 성능을 보임을 확인하였다. 이는 YOLOv8이 야적퇴비의 탐지와 분류, 특히 덮개의 유무와 같은 세밀한 특징을 정확하게 식별하는 데 더 효과적임을 시사한다.

또한, 본 연구는 YOLOv8 모델을 이용한 야적퇴비의 관리 등급 산정의 타당성을 평가하였으며, 배경의 복잡성과 다양성을 고려한 추가 학습 데이터 구축을 통해 모델의 일반화 능력과 성능을 개선할 필요가 있음을 확인하였다. 이와 같이 덮개의 유무를 포함한 다양한 요소를 분석하여 관리등급을 산출함으로써, 신속하고 효율적인 의사 결정 지원이 가능할 것으로 여겨진다. 뿐만 아니라 UAV 기반 이미지 분석을 통한 야적퇴비 관리 시스템의 현장 적용 가능성을 크게 강조한다. 이러한 시스템은 특히 비점오염원 관리와 같은 환경 보호 분야에서 중요한 역할을 할 수 있으며, 효율적인 자원 관리와 환경 오염 방지를 위한 체계적인 접근 방식을 제공한다. 또한, YOLOv8 모델의 멀티 태스크 접근 방식은 복잡한 환경 조건에서도 높은 정확도로 야적퇴비를 탐지하고 분류할 수 있는 능력을 시사하며, 이는 환경 모니터링 및 관리에 기여할 수 있을 것으로 기대된다.

향후 연구에서는 배경의 복잡성 및 다양성, 배경과 객체의 유사성을 고려한 추가 학습 데이터 구축을 통해 모델의 성능을 개선하고, ‘미흡’ 등급 야적퇴비의 정확한 탐지 및 분류 능력 향상에 초점을 맞추어 다양한 환경에서의 탐지 안정성을 확보할 필요가 있다.

사사

이 논문은 과학기술정보통신부의 재원으로 ‘2023년도 연구산업육성사업’의 지원을 받아 수행된 연구 결과입니다(하천 비점오염원 관리용 GeoAI기반 지능형 영상 자동 분석 시스템 개발/RS-2023-00243061).

Conflict of Interest

No potential conflict of interest relevant to this article was reported.

References

  1. Ahn, K. H., Ryu, H. D., and Kim, Y., 2015. Systematic review on management of livestock wastes for improving water quality. Journal of Korean Society on Water Environment, 31(5), 576-582. https://doi.org/10.15681/KSWE.2015.31.5.576
  2. Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H., 2018. Encoder-decoder with atrous separable convolution for semantic image segmentation. arXiv preprint arXiv:1802.02611. https://doi.org/10.48550/arXiv.1802.02611
  3. Choe, J. S., and Lee, J. M., 2016. Standards and technological trends in nonpoint pollution reduction facilities. Korea Water Resources Association, 49(6), 83-88. https://doi.org/10.3741/JKWRA.2016.49.2.83
  4. He, K., Gkioxari, G., Dollar, P., and Girshick, R., 2017. Mask R-CNN. arXiv preprint arXiv:1703.06870. https://doi.org/10.48550/arXiv.1703.06870
  5. Im, J. Y., Kang, C. W., and Gil, K. I., 2021. Applicability on wetland for management of NPS in organic matter and nutrients from agriculture and livestock farm area.Journal of Wetlands Research, 23(4), 372-380. https://doi.org/10.17663/JWR.2021.23.4.372
  6. Jeon, J. H., Cha, D. K., Choi, D., and Kim, T. D., 2013. Spatial analysis of nonpoint source pollutant loading from the Imha Dam watershed using L-THIA. Journal of the Korean Society of Agricultural Engineers, 55(1), 17-29. https://doi.org/10.5389/KSAE.2013.55.1.017
  7. Jung, K. W., Jang, J. H., Kim, H. C., and Yoon, C. G., 2006. Analysis of land use and pollutant source effect on water quality characteristics of the watershed. Korean Journal of Ecology and Environment, 39(1), 41-51.
  8. Kim, D. W., Jang, M. J., and Han, I. S., 2014. Determination of focused control pollutant source by analysis of pollutant delivery characteristics in unit watershed upper Paldang Lake. Korean Society of Environmental Engineering, 36(5), 367-377. https://doi.org/10.4491/KSEE.2014.36.5.367
  9. Kim, H. M., Bak, S. H., Yoon, H. J., and Jang, S. W., 2021. Accuracy evaluation of open-air compost volume calculation using unmanned aerial vehicle. The Journal of the Korean Institute of Electronic Communication Sciences, 16(3), 541-550. https://doi.org/10.13067/jkiecs.2021.16.3.541
  10. Kim, N.K., Park, M. S.,Jeong, M.J., Hwang, D. H., andYoon, H.J., 2021. A study on field compost detection by using unmanned aerial vehicle image and semantic segmentation technique based deep learning. Korean Journal of Remote Sensing, 37(3), 367-378. https://doi.org/10.7780/kjrs.2021.37.3.1
  11. Kim, Y. T., Woo, N. C., Lee, K. S., and Song, Y. G., 2005. Seasonal variation of surface water quality in a catchment contaminated by NO3-N. Journal of Soil and Groundwater Environment, 10(2), 20-27.
  12. Kwon, H. G., Kim, G. H., Kim, S. H., Shin, S. M., Shin, D. S., and Im, T. H., 2018. A study on the management of nonpoint pollution source by precipitation monitoring by tributary in Gumho River. Journal of the Korean Society for Hazard Mitigation, 18(3), 331-341. https://doi.org/10.9798/KOSHAM.2018.18.3.331
  13. Lee, S. I., Shin, M. H., Jeon, J. H., Park, B. K., Lee, J. M., Won, C. H., and Choi, J. D., 2015. Effect of NPS loadings from livestock on small watersheds.Journal of the Korean Society of Agricultural Engineers, 57(2), 27-36. https://doi.org/10.5389/KSAE.2015.57.2.027
  14. Lee, S. Y., Lee, E. J., and Son, H. K., 2008. Determination of nonpoint pollutant unit loads in toll-gate of highway. Journal of Wetlands Research, 10(1), 69-75.
  15. Park, G. U., Park,K. H., Moon, B. H., and Song, B. G., 2019. Monitoring of non-point pollutant sources: Management status and load change of composting in a rural area based on UAV. Journal of the Korean Association of Geographic Information Studies, 22(2), 1-14. https://doi.org/10.11108/kagis.2019.22.2.001
  16. Park, G. U., Park, K. H., and Song, B. G., 2021. Spatio-temporal change monitoring of outside manure piles using unmanned aerial vehicle images. Drones, 5(1), 1. https://doi.org/10.3390/drones5010001
  17. Park, H. S., Yoon, S. W., Chung, S. W., and Hwang, H. S., 2016. Effect of pollutants control measures in So-oak watershed on the control of algae growth in Daecheong reservoir.Journal of Environmental Impact Assessment, 25(4), 248-260. https://doi.org/10.14249/EIA.2016.25.4.248
  18. Redmon, J., Divvala, S., Girshick, R., and Farhadi, A., 2016. You Only Look Once: Unified, real-time object detection. In Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, June 27-30, pp. 1-9. https://doi.org/10.1109/CVPR.2016.91
  19. Shin, M. H., Won, C. H., Park, W. J., Choi, Y. H., Jang, J. R., Lim, K. J., and Choi, J. D., 2011. Analysis of the reduction effect on NPS pollution loads by surface cover application. Journal of the Korean Society of Agricultural Engineers, 53(4), 29-37. https://doi.org/10.5389/KSAE.2011.53.4.029
  20. Song, B. G., and Park,K. H., 2021.Comparison of outdoor compost pile detection using unmanned aerial vehicle images and various machine learning techniques. Drones, 5(2), 31. https://doi.org/10.3390/drones5020031