• 제목/요약/키워드: Crop Image Information

검색결과 77건 처리시간 0.027초

통제되지 않는 농작물 조건에서 쌀 잡초의 실시간 검출에 관한 연구 (Towards Real Time Detection of Rice Weed in Uncontrolled Crop Conditions)

  • 무하마드 움라이즈;김상철
    • 사물인터넷융복합논문지
    • /
    • 제6권1호
    • /
    • pp.83-95
    • /
    • 2020
  • 실제 복잡다난한 농작물 밭 환경에서 잡초를 정밀하게 검출하는 것은 이전의 접근방법들로는 이미지 프레임을 정확하게 처리하는 속도 면에서 부족했다. 식물의 질병 분류 문제가 중요시 되는 상황에서 특히 작물의 잡초 문제는 큰 화제가 되고 있다. 이전의 접근방식들은 빠른 알고리즘을 사용하지만 추론 시간이 실시간에 가깝지 않아 통제되지 않은 조건에서 비현실적인 해결책이 된다. 따라서, 복잡한 벼 잡초 검출 과제에 대한 탐지 모델을 제안한다. 실험 결과에 따르면, 우리의 접근 방식의 추론 시간은 잡초 검출 과제에서 상당한 시간절약을 보여준다. 실제 조건에서 실제로 적용할 수 있는 것으로 나타난다. 주어진 예시들은 쌀의 두 가지 성장 단계에서 수집되었고 직접 주석을 달았다.

드론 열화상 및 초분광 센서를 이용한 농업가뭄 모니터링 적용 연구 (A Study on Agricultural Drought Monitoring using Drone Thermal and Hyperspectral Sensor)

  • 함건우;이정민;배경호;박홍기
    • 한국지리정보학회지
    • /
    • 제22권3호
    • /
    • pp.107-119
    • /
    • 2019
  • 최근 ICT 기술과 융합 기술의 발달에 힘입어 농업 분야에서도 많은 변화와 혁신이 추구되고 있다. 과거 전통적인 농작물 생산 중심의 농업 분야에서 다양하고 첨단의 기술과 접목되어 6차 산업이라는 새로운 산업 형태를 만들고 있으며 이러한 변화의 핵심은 농업 분야에서도 ICT 기술과 공간정보의 융합이 있기에 가능하다. 센서를 이용한 농작물 작황 분석과 이를 공간정보 기반에서 분석 및 예측하기 위한 다양한 접근이 시도되고 있다. 특히 최근에는 드론을 이용한 농작물 재배 및 스마트 팜을 위한 다양한 연구가 추진되고 있다. 하지만, 이러한 연구는 드론을 이용한 직접적인 농작물 재배 등의 물리적 활용과 공간정보 구축에 국한되는 문제가 있다. 이에 본 연구에서는 농작물 재배에 가장 영향을 미치는 가뭄에 대한 과학적이고 객관적인 지표를 산출하기 위한 드론을 활용한 농업 가뭄 모니터링 체계 구축을 목표로 하였다. 이를 위해 가뭄 우심지역에 대하여 토양수분 센서를 설치하여 실제 토양의 수분을 확인하고 기준값으로 설정하여 드론에서 구축한 온도 및 정규식생지수를 비교분석하였다. 드론 열화상 센서에서는 대상 지역의 토양 온도를 산출하였으며, 드론 초분광센서를 이용하여 대상 농작물의 정규식생지수를 산출하여 실제 대상 지역의 농작물의 작황상태 및 토양온도와의 상관관계를 분석하였으며, 이를 검증하기 위해 대상지역에 설치된 토양수분측정 센서를 이용하여 실제 토양수분을 산출하여 드론 성과와 비교 분석하였다. 이와 같은 접근은 비접촉 방식으로 작물의 종류, 작물의 생육정도, 단위면적 당 작황상태에 관한 데이터를 생산하여 효율적인 가뭄피해 분석에 활용될 것으로 기대된다.

Use of Unmanned Aerial Vehicle for Multi-temporal Monitoring of Soybean Vegetation Fraction

  • Yun, Hee Sup;Park, Soo Hyun;Kim, Hak-Jin;Lee, Wonsuk Daniel;Lee, Kyung Do;Hong, Suk Young;Jung, Gun Ho
    • Journal of Biosystems Engineering
    • /
    • 제41권2호
    • /
    • pp.126-137
    • /
    • 2016
  • Purpose: The overall objective of this study was to evaluate the vegetation fraction of soybeans, grown under different cropping conditions using an unmanned aerial vehicle (UAV) equipped with a red, green, and blue (RGB) camera. Methods: Test plots were prepared based on different cropping treatments, i.e., soybean single-cropping, with and without herbicide application and soybean and barley-cover cropping, with and without herbicide application. The UAV flights were manually controlled using a remote flight controller on the ground, with 2.4 GHz radio frequency communication. For image pre-processing, the acquired images were pre-treated and georeferenced using a fisheye distortion removal function, and ground control points were collected using Google Maps. Tarpaulin panels of different colors were used to calibrate the multi-temporal images by converting the RGB digital number values into the RGB reflectance spectrum, utilizing a linear regression method. Excess Green (ExG) vegetation indices for each of the test plots were compared with the M-statistic method in order to quantitatively evaluate the greenness of soybean fields under different cropping systems. Results: The reflectance calibration methods used in the study showed high coefficients of determination, ranging from 0.8 to 0.9, indicating the feasibility of a linear regression fitting method for monitoring multi-temporal RGB images of soybean fields. As expected, the ExG vegetation indices changed according to different soybean growth stages, showing clear differences among the test plots with different cropping treatments in the early season of < 60 days after sowing (DAS). With the M-statistic method, the test plots under different treatments could be discriminated in the early seasons of <41 DAS, showing a value of M > 1. Conclusion: Therefore, multi-temporal images obtained with an UAV and a RGB camera could be applied for quantifying overall vegetation fractions and crop growth status, and this information could contribute to determine proper treatments for the vegetation fraction.

무인항공기와 딥러닝(UNet)을 이용한 소규모 농지의 밭작물 분류 (Use of Unmanned Aerial Vehicle Imagery and Deep Learning UNet to Classification Upland Crop in Small Scale Agricultural Land)

  • 최석근;이승기;강연빈;최도연;최주원
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.671-679
    • /
    • 2020
  • 경지면적의 작물 상황에 대한 모니터링 및 분석은 식량자급율을 높이기 위한 가장 중요한 요소이지만, 기존의 모니터링 방법은 노동 집약적이며 시간이 많이 들어 식량자급율을 높이기 위한 방안으로 그 활용성이 떨어진다. 이와같은 단점을 극복하기 위하여 국내에 다수 존재하고 있는 소규모 농지에서의 복합 작물 정보를 모니터링 하기위한 효율적인 방법을 개발할 필요가 있다. 본 연구에서는 복합작물의 분류 정확도를 높이기 위하여 무인항공기에서 취득된 RGB영상과 이를 이용한 식생지수를 딥러닝 입력데이터로 적용하고 복합 밭작물을 분류하였다. 각각의 입력데이터 분류 결과 RGB 영상을 이용한 분류는 전체정확도 80.23%, Kappa 계수 0.65가 나타났고, RGB영상과 식생지수를 이용한 방법의 경우 식생지수 3개(ExG,ExR,VDVI) 추가 데이터는 전체정확도 89.51%, Kappa 계수 0.80이며, 식생지수 6개(ExG,ExR,VDVI,RGRI,NGRDI,ExGR)는 90.35%, Kappa 계수 0.82로 분석되었다. 분류결과 RGB영상만을 이용한 방법에 비하여 식생지수를 추가한 결과 값이 비교적 높게 분석되었으며, 복합작물을 분류하는데 있어 식생지수를 추가한 데이터가 더 좋은 결과를 나타내었다.

변화지역 탐지를 위한 시계열 KOMPSAT-2 다중분광 영상의 MAD 기반 상대복사 보정에 관한 연구 (A Study on Object Based Image Analysis Methods for Land Use and Land Cover Classification in Agricultural Areas)

  • 염종민;김현옥;윤보열
    • 한국지리정보학회지
    • /
    • 제15권3호
    • /
    • pp.66-80
    • /
    • 2012
  • 원격탐사 방법을 활용한 변화지역 탐지, 재난재해 지도 작성, 작황 모니터링 등 다중시기의 위성영상을 활용한 결과를 도출하기 위해서는 시계열 영상 정보를 서로 비교할 수 있는 공통의 스케일로 정규화 하는 것이 필요하다. 다중시기 영상에 대한 정규화 방법은 절대복사보정과 상대복사 보정으로 나눌 수 있으며, 본 연구에서는 상대복사 보정을 통한 시계열 위성영상처리 기법을 다루고자 한다. 2011년 3월 해일 피해가 발생했던 일본 센다이 지역을 연구대상지로 선정하였고, KOMPSAT-2 다중분광영상을 이용한 사고 전, 후의 피해지역 탐지에 있어 상대복사 보정의 실효성을 분석하였다. 다양한 상대복사 보정 기법 중에서 정준상관분석을 통해 PIFs(Pseudo Invariant Features) 지역을 자동으로 추출하는 MAD(Multivariate Alteration Detection) 기법을 적용하였다. 본 사례연구 분석결과 MAD 방식에 의한 자동 PIFs 지역의 추출은 비교적 높은 정확도 수준에서 이루어짐을 확인할 수 있었으며, 상대복사 보정된 시계열 위성영상을 사용함으로써 변화지역 자동탐지의 신뢰수준을 높일 수 있는 것으로 나타났다.

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성 (Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection)

  • 남윤지;정성우;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1085-1095
    • /
    • 2023
  • 위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

번호판 인식을 통한 자동 주차관리 시스템의 개선된 UI 설계 (Design of Improved UI of Automatic Parking Management System using License Plate Recognition)

  • 김봉기
    • 한국산학기술학회논문지
    • /
    • 제15권2호
    • /
    • pp.1083-1088
    • /
    • 2014
  • 최근 영상 기술과 ICT 기술의 발전으로 인해 다양한 형태의 영상처리 서비스가 가능하게 되고, 이러한 기술을 활용하는 응용 서비스가 다양화 되고 있다. 자동차 번호판 인식은 주차관리 등 차량의 정보를 인지하는 곳에 사용되는데 기존의 시스템들은 주차권 발급이나 불필요한 장비 부착 등 경제적인 단점을 갖고 있다. 이러한 문제점을 개선하기 위하여 본 논문에서는 OpenCV를 근간으로 한 emguCV를 이용하여 차량의 고유번호인 자동차 번호판 인식을 통한 자동 주차관리 시스템을 설계 및 구현하였다. 그리고 사용자 프로그램 개발에 가장 최신 기술인 WPF를 이용하여 각 주차 차량의 상세정보와 주차 시간 및 남은 주차 공간 정보 등 전체 주차관리 사항을 화면이동 없이 관리할 수 있도록 개선된 UI를 설계하였다. 본 논문에서 사용된 emguCV는 Intel 기반의 환경에서 최적화된 성능을 나타내었다. 따라서 본 논문에서는 0.5초 이내의 번호판 인식 처리 시간과 90% 이상의 인식률이라는 결과를 얻었다. 또한 관리자가 전체 시스템을 간편하고 직관적으로 관리할 수 있게 UI가 개선되었음을 보였다.

NOAA AVHRR 자료를 이용한 한반도 토지피복 변화 연구 (Land-cover Change detection on Korean Peninsula using NOAA AVHRR data)

  • 김의홍;이석민
    • Spatial Information Research
    • /
    • 제4권1호
    • /
    • pp.13-20
    • /
    • 1996
  • 1990년도와 1995년도 5월달의 NOAA AVHRR자료를 이용하여 한반도의 토지 토지 피복변화 양상을 구하였다. 토지 피복 변화를 알기위해서는 영상들이 서로 정합(registration)이 되어야 하며 계절적으로 변화가 일어나지 않은 영상이 필요하다. 영상들을 비교하기 위해서 사용된 모든 자료들은 지도 좌표 체계로 공간적으로 정합이 되었으며, resampling 과정은 nearest-neighbor방법을 사용하였다. 구름, 먼저 등과 같은 대기의 영향은 maximum NDVI 방법은 각 영상의 NDVI(Normalized Difference Vegetation Index)는 다음과 같은 식을 이용하여 구한다.

  • PDF

IKONOS 영상자료를 이용한 농업지역 토지피복 분류기준 설정 (Standardizing Agriculture-related Land Cover Classification Scheme using IKONOS Satellite Imagery)

  • 홍성민;정인균;김성준
    • 대한원격탐사학회지
    • /
    • 제20권4호
    • /
    • pp.253-259
    • /
    • 2004
  • 본 연구의 목적은 다양한 공간해상도의 위성영상(Landsat + ETM, KOMPSAT-1 EOC, ASTER VNIR, IKONOS 전정색 및 다중분광)을 비교하여 각 영상에서의 농업관련 정보의 분류기준을 파악하고자 하였다 여기서 농업관련 정보는 식별이 가능한 농업지역, 작물형태, 농업시설과 구조물을 대상으로 하였다. 그 결과는 국토지리정보원과 환경부의 분류기준과 비교하였으며, 본 연구에서 설정한 농업관련정보의 기준을 IKONOS 영상에 적용하여 농업관련 토지피복도를 작성하였다. IKONOS 영상에 대하여 분석된 결과는 KOMPSAT-2의 농업분야 활용에 적용될 것이다.

Leveraging Deep Learning and Farmland Fertility Algorithm for Automated Rice Pest Detection and Classification Model

  • Hussain. A;Balaji Srikaanth. P
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.959-979
    • /
    • 2024
  • Rice pest identification is essential in modern agriculture for the health of rice crops. As global rice consumption rises, yields and quality must be maintained. Various methodologies were employed to identify pests, encompassing sensor-based technologies, deep learning, and remote sensing models. Visual inspection by professionals and farmers remains essential, but integrating technology such as satellites, IoT-based sensors, and drones enhances efficiency and accuracy. A computer vision system processes images to detect pests automatically. It gives real-time data for proactive and targeted pest management. With this motive in mind, this research provides a novel farmland fertility algorithm with a deep learning-based automated rice pest detection and classification (FFADL-ARPDC) technique. The FFADL-ARPDC approach classifies rice pests from rice plant images. Before processing, FFADL-ARPDC removes noise and enhances contrast using bilateral filtering (BF). Additionally, rice crop images are processed using the NASNetLarge deep learning architecture to extract image features. The FFA is used for hyperparameter tweaking to optimise the model performance of the NASNetLarge, which aids in enhancing classification performance. Using an Elman recurrent neural network (ERNN), the model accurately categorises 14 types of pests. The FFADL-ARPDC approach is thoroughly evaluated using a benchmark dataset available in the public repository. With an accuracy of 97.58, the FFADL-ARPDC model exceeds existing pest detection methods.