• 제목/요약/키워드: YOLOv5 model

검색결과 98건 처리시간 0.02초

YOLO를 이용한 SAR 영상의 선박 객체 탐지: 편파별 모델 구성과 정확도 특성 분석 (Ship Detection from SAR Images Using YOLO: Model Constructions and Accuracy Characteristics According to Polarization)

  • 임윤교;윤유정;강종구;김서연;정예민;최소연;서영민;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.997-1008
    • /
    • 2023
  • 해상의 선박탐지는 다양한 방법으로 수행될 수 있는데, 위성은 광역적인 감시가 가능하고, 특히 합성개구레이더(Synthetic Aperture Radar, SAR) 영상은 주야간 및 전천후로 활용될 수 있다. 본 연구에서는 SAR 영상으로부터 효율적인 선박 탐지 방법을 제시하기 위하여, Sentinel-1 영상에 You Only Look Once Version 5 (YOLOv5) 모델을 적용하여 선박 탐지를 수행하고, 편파별 개별 모델과 통합 모델의 차이 및 편파별 정확도 특성을 분석하였다. 파라미터가 작고 가벼운 YOLOv5s와 파라미터가 많지만 정확도가 높은 YOLOv5x 두가지 모델에 대하여 각각 (1) HH, HV, VH, VV 각 편파별로 나누어 학습/검증 및 평가 그리고 (2) 모든 편파의 영상을 사용하여 학습/검증 및 평가를 실시한 결과, 네 가지 실험에서 모두 0.977 ≤ AP@0.5 ≤ 0.998의 비슷하면서 매우 높은 정확도를 나타냈다. 이러한 결과를 현업시스템의 관점에서 보면, 가벼운 YOLO 모델(YOLOv5s, YOLOv8s 등)로 4개 편파 통합 모델을 구축하는 것이 실시간 선박탐지에 효과적임을 시사하는 것이다. 이 실험에서 사용한 영상은 19,582장이었지만, Sentinel-1 이외에도 Capella, ICEYE 등 다른 SAR 영상을 추가적으로 활용한다면, 보다 더 유연하고 정확한 선박 탐지 모델이 구축될 수 있을 것이다.

수중영상을 이용한 저서성 해양무척추동물의 실시간 객체 탐지: YOLO 모델과 Transformer 모델의 비교평가 (Realtime Detection of Benthic Marine Invertebrates from Underwater Images: A Comparison betweenYOLO and Transformer Models)

  • 박강현;박수호;장선웅;공신우;곽지우;이양원
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.909-919
    • /
    • 2023
  • Benthic marine invertebrates, the invertebrates living on the bottom of the ocean, are an essential component of the marine ecosystem, but excessive reproduction of invertebrate grazers or pirate creatures can cause damage to the coastal fishery ecosystem. In this study, we compared and evaluated You Only Look Once Version 7 (YOLOv7), the most widely used deep learning model for real-time object detection, and detection tansformer (DETR), a transformer-based model, using underwater images for benthic marine invertebratesin the coasts of South Korea. YOLOv7 showed a mean average precision at 0.5 (mAP@0.5) of 0.899, and DETR showed an mAP@0.5 of 0.862, which implies that YOLOv7 is more appropriate for object detection of various sizes. This is because YOLOv7 generates the bounding boxes at multiple scales that can help detect small objects. Both models had a processing speed of more than 30 frames persecond (FPS),so it is expected that real-time object detection from the images provided by divers and underwater drones will be possible. The proposed method can be used to prevent and restore damage to coastal fisheries ecosystems, such as rescuing invertebrate grazers and creating sea forests to prevent ocean desertification.

Real-Time Comprehensive Assistance for Visually Impaired Navigation

  • Amal Al-Shahrani;Amjad Alghamdi;Areej Alqurashi;Raghad Alzahrani;Nuha imam
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.1-10
    • /
    • 2024
  • Individuals with visual impairments face numerous challenges in their daily lives, with navigating streets and public spaces being particularly daunting. The inability to identify safe crossing locations and assess the feasibility of crossing significantly restricts their mobility and independence. Globally, an estimated 285 million people suffer from visual impairment, with 39 million categorized as blind and 246 million as visually impaired, according to the World Health Organization. In Saudi Arabia alone, there are approximately 159 thousand blind individuals, as per unofficial statistics. The profound impact of visual impairments on daily activities underscores the urgent need for solutions to improve mobility and enhance safety. This study aims to address this pressing issue by leveraging computer vision and deep learning techniques to enhance object detection capabilities. Two models were trained to detect objects: one focused on street crossing obstacles, and the other aimed to search for objects. The first model was trained on a dataset comprising 5283 images of road obstacles and traffic signals, annotated to create a labeled dataset. Subsequently, it was trained using the YOLOv8 and YOLOv5 models, with YOLOv5 achieving a satisfactory accuracy of 84%. The second model was trained on the COCO dataset using YOLOv5, yielding an impressive accuracy of 94%. By improving object detection capabilities through advanced technology, this research seeks to empower individuals with visual impairments, enhancing their mobility, independence, and overall quality of life.

A Scene-Specific Object Detection System Utilizing the Advantages of Fixed-Location Cameras

  • Jin Ho Lee;In Su Kim;Hector Acosta;Hyeong Bok Kim;Seung Won Lee;Soon Ki Jung
    • Journal of information and communication convergence engineering
    • /
    • 제21권4호
    • /
    • pp.329-336
    • /
    • 2023
  • This paper introduces an edge AI-based scene-specific object detection system for long-term traffic management, focusing on analyzing congestion and movement via cameras. It aims to balance fast processing and accuracy in traffic flow data analysis using edge computing. We adapt the YOLOv5 model, with four heads, to a scene-specific model that utilizes the fixed camera's scene-specific properties. This model selectively detects objects based on scale by blocking nodes, ensuring only objects of certain sizes are identified. A decision module then selects the most suitable object detector for each scene, enhancing inference speed without significant accuracy loss, as demonstrated in our experiments.

항공영상으로부터 YOLOv5를 이용한 도심수목 탐지 (Detection of Urban Trees Using YOLOv5 from Aerial Images)

  • 박채원;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1633-1641
    • /
    • 2022
  • 도시의 인구 집중과 무분별한 개발은 대기오염, 열섬현상과 같은 다양한 환경 문제들을 유발하며, 자연재해로 인한 피해 상황을 악화시키는 등 인재의 원인이 되고 있다. 도심 수목은 이러한 도시 문제들의 해결방안으로 제시되어왔으며, 실제로 환경 개선 기능을 제공하는 등 중요한 역할들을 수행한다. 이에 따라 수목이 도시 환경에 미치는 영향을 파악하기 위해 도심 수목에서 개별목에 대한 정량적인 측정 및 분석이 요구된다. 그러나 도심 수목의 복잡성 및 다양성은 단일 수목 탐지 정확도를 낮추는 문제점이 존재한다. 따라서 본 연구는 수목 개체에 대해 효과적인 탐지가 가능한 고해상도 항공영상 및 object detection에서 뛰어난 성능을 발휘한 You Only Look Once Version 5 (YOLOv5) 모델을 사용하여 도심 수목을 효과적으로 탐지하는 연구를 진행하였다. 수목 AI 학습 데이터셋의 구축을 위한 라벨링 가이드라인을 생성하고 이를 기준으로 동작구 수목에 대해 box annotation을 수행하였다. 구축된 데이터셋으로부터 다양한 scale의 YOLOv5 모델들을 테스트하고 최적의 모델을 채택하여 효율적인 도심 수목 탐지를 수행한 결과, mean Average Precision (mAP) 0.663의 유의미한 결과를 도출하였다.

Designing a smart safe transportation system within a university using object detection algorithm

  • Na Young Lee;Geon Lee;Min Seop Lee;Yun Jung Hong;In-Beom Yang;Jiyoung Woo
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.51-59
    • /
    • 2024
  • 교내 보행자 교통사고를 예방하고 안전한 환경을 조성하기 위해 교내 위험 구간을 설정하고, 해당 구역에서 차량 속도 측정 및 교차로 횡단보도에서의 차량과 보행자 상호작용을 실시간으로 감지하는 시스템을 설계하였다. YOLOv5s 모델과 Deep SORT 방법을 이용하여 구간 속도 측정 및 객체 추적을 수행하고, 횡단보도 구역에서는 YOLOv5s 객체 탐지 모델을 활용하여 보행자와 차량을 구분하는 조건별 출력 시스템을 개발하여 실시간으로 구동이 됨을 검증하였다. 이 시스템은 저렴한 비용으로 일반 스마트폰 카메라나 화상용 카메라를 활용하여 설치할 수 있으며, 대학 캠퍼스뿐만 아니라 비슷한 문제 지역에 도입하여 차량과 보행자의 안전을 위한 해결 방안으로 기대된다.

Vehicle Detection at Night Based on Style Transfer Image Enhancement

  • Jianing Shen;Rong Li
    • Journal of Information Processing Systems
    • /
    • 제19권5호
    • /
    • pp.663-672
    • /
    • 2023
  • Most vehicle detection methods have poor vehicle feature extraction performance at night, and their robustness is reduced; hence, this study proposes a night vehicle detection method based on style transfer image enhancement. First, a style transfer model is constructed using cycle generative adversarial networks (cycleGANs). The daytime data in the BDD100K dataset were converted into nighttime data to form a style dataset. The dataset was then divided using its labels. Finally, based on a YOLOv5s network, a nighttime vehicle image is detected for the reliable recognition of vehicle information in a complex environment. The experimental results of the proposed method based on the BDD100K dataset show that the transferred night vehicle images are clear and meet the requirements. The precision, recall, mAP@.5, and mAP@.5:.95 reached 0.696, 0.292, 0.761, and 0.454, respectively.

재난지역에서의 신속한 건물 피해 정도 감지를 위한 딥러닝 모델의 정량 평가 (Quantitative Evaluations of Deep Learning Models for Rapid Building Damage Detection in Disaster Areas)

  • 서준호;양병윤
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.381-391
    • /
    • 2022
  • 본 연구는 AI 기법 중에 최근 널리 사용되고 있는 딥러닝 모델들을 비교하여 재난으로 인해 손상된 건물의 신속한 감지에 가장 적합한 모델을 선정하는 데 목적이 있다. 먼저, 신속한 객체감지에 적합한 1단계 기반 검출기 중 주요 딥러닝 모델인 SSD-512, RetinaNet, YOLOv3를 후보 모델로 선정하였다. 이 방법들은 1단계 기반 검출기 방식을 적용한 모델로서 객체 인식 분야에 널리 이용되고 있다. 이 모델들은 객체 인식 처리방식의 구조와 빠른 연산의 장점으로 인해 객체 인식 분야에 널리 사용되고 있으나 재난관리에서의 적용은 초기 단계에 머물러 있다. 본 연구에서는 피해감지에 가장 적합한 모델을 찾기 위해 다음과 같은 과정을 거쳤다. 먼저, 재난에 의한 건물의 피해 정도 감지를 위해 재난에 의해 손상된 건물로 구성된 xBD 데이터셋을 활용하여 초고해상도 위성영상을 훈련시켰다. 다음으로 모델 간의 성능을 비교·평가하기 위하여 모델의 감지 정확도와 이미지 처리속도를 정량적으로 분석하였다. 학습 결과, YOLOv3는 34.39%의 감지 정확도와 초당 46개의 이미지 처리속도를 기록하였다. RetinaNet은 YOLOv3보다 1.67% 높은 36.06%의 감지 정확도를 기록하였으나, 이미지 처리속도는 YOLOv3의 3분의 1에 그쳤다. SSD-512는 두 지표에서 모두 YOLOv3보다 낮은 수치를 보였다. 대규모 재난에 의해 발생한 피해 정보에 대한 신속하고 정밀한 수집은 재난 대응에 필수적이다. 따라서 본 연구를 통해 얻은 결과는 신속한 지리정보 취득이 요구되는 재난관리에 효과적으로 활용될 수 있을 것이라 기대한다.

A deep learning-based approach for feeding behavior recognition of weanling pigs

  • Kim, MinJu;Choi, YoHan;Lee, Jeong-nam;Sa, SooJin;Cho, Hyun-chong
    • Journal of Animal Science and Technology
    • /
    • 제63권6호
    • /
    • pp.1453-1463
    • /
    • 2021
  • Feeding is the most important behavior that represents the health and welfare of weanling pigs. The early detection of feed refusal is crucial for the control of disease in the initial stages and the detection of empty feeders for adding feed in a timely manner. This paper proposes a real-time technique for the detection and recognition of small pigs using a deep-leaning-based method. The proposed model focuses on detecting pigs on a feeder in a feeding position. Conventional methods detect pigs and then classify them into different behavior gestures. In contrast, in the proposed method, these two tasks are combined into a single process to detect only feeding behavior to increase the speed of detection. Considering the significant differences between pig behaviors at different sizes, adaptive adjustments are introduced into a you-only-look-once (YOLO) model, including an angle optimization strategy between the head and body for detecting a head in a feeder. According to experimental results, this method can detect the feeding behavior of pigs and screen non-feeding positions with 95.66%, 94.22%, and 96.56% average precision (AP) at an intersection over union (IoU) threshold of 0.5 for YOLOv3, YOLOv4, and an additional layer and with the proposed activation function, respectively. Drinking behavior was detected with 86.86%, 89.16%, and 86.41% AP at a 0.5 IoU threshold for YOLOv3, YOLOv4, and the proposed activation function, respectively. In terms of detection and classification, the results of our study demonstrate that the proposed method yields higher precision and recall compared to conventional methods.

Automatic Detection of Dead Trees Based on Lightweight YOLOv4 and UAV Imagery

  • Yuanhang Jin;Maolin Xu;Jiayuan Zheng
    • Journal of Information Processing Systems
    • /
    • 제19권5호
    • /
    • pp.614-630
    • /
    • 2023
  • Dead trees significantly impact forest production and the ecological environment and pose constraints to the sustainable development of forests. A lightweight YOLOv4 dead tree detection algorithm based on unmanned aerial vehicle images is proposed to address current limitations in dead tree detection that rely mainly on inefficient, unsafe and easy-to-miss manual inspections. An improved logarithmic transformation method was developed in data pre-processing to display tree features in the shadows. For the model structure, the original CSPDarkNet-53 backbone feature extraction network was replaced by MobileNetV3. Some of the standard convolutional blocks in the original extraction network were replaced by depthwise separable convolution blocks. The new ReLU6 activation function replaced the original LeakyReLU activation function to make the network more robust for low-precision computations. The K-means++ clustering method was also integrated to generate anchor boxes that are more suitable for the dataset. The experimental results show that the improved algorithm achieved an accuracy of 97.33%, higher than other methods. The detection speed of the proposed approach is higher than that of YOLOv4, improving the efficiency and accuracy of the detection process.