• 제목/요약/키워드: YOLOv5 Model

검색결과 98건 처리시간 0.027초

딥러닝 기반 민화 장르 분류 모델 연구 (A Study on the Classification Model of Minhwa Genre Based on Deep Learning)

  • 윤수림;이영숙
    • 한국멀티미디어학회논문지
    • /
    • 제25권10호
    • /
    • pp.1524-1534
    • /
    • 2022
  • This study proposes the classification model of Minhwa genre based on object detection of deep learning. To detect unique Korean traditional objects in Minhwa, we construct custom datasets by labeling images using object keywords in Minhwa DB. We train YOLOv5 models with custom datasets, and classify images using predicted object labels result, the output of model training. The algorithm consists of two classification steps: 1) according to the painting technique and 2) genre of Minhwa. Through classifying paintings using this algorithm on the Internet, it is expected that the correct information of Minhwa can be built and provided to users forward.

Anomaly Sewing Pattern Detection for AIoT System using Deep Learning and Decision Tree

  • Nguyen Quoc Toan;Seongwon Cho
    • 스마트미디어저널
    • /
    • 제13권2호
    • /
    • pp.85-94
    • /
    • 2024
  • Artificial Intelligence of Things (AIoT), which combines AI and the Internet of Things (IoT), has recently gained popularity. Deep neural networks (DNNs) have achieved great success in many applications. Deploying complex AI models on embedded boards, nevertheless, may be challenging due to computational limitations or intelligent model complexity. This paper focuses on an AIoT-based system for smart sewing automation using edge devices. Our technique included developing a detection model and a decision tree for a sufficient testing scenario. YOLOv5 set the stage for our defective sewing stitches detection model, to detect anomalies and classify the sewing patterns. According to the experimental testing, the proposed approach achieved a perfect score with accuracy and F1score of 1.0, False Positive Rate (FPR), False Negative Rate (FNR) of 0, and a speed of 0.07 seconds with file size 2.43MB.

Yolov5를 적용한 교통단속 통합 시스템 설계 (Development of Integrated Traffic Control System)

  • 양영준;장성진;장종욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.239-241
    • /
    • 2022
  • 현재 대한민국에서는 교통 혼잡을 해결하기 위해 다인승 전용차로 (HOV, High Occupancy Vehicle Lanes)와 지정차로제를 시행하고 있다. 현행의 교통단속 시스템은 단속 지역 구역에 인원이 필수로 배정되며 무인 단속에 어려움이 있다. 또한, 고정식 교통단속시스템은 속도 위반 단속은 가능하나 운전자가 네이게이션을 통해 단속을 회피할 수 있다. 이러한 문제점을 해결하기 위해 딥러닝 객체 인식 모델인 YOLO를 통한 교통 통합 단속 시스템이 필요하다. 본 연구에서는 멀티스레딩 기술 기반의 병렬처리 차량번호 인식 기술을 적용하여 불시 단속이 가능한 이동식 교통 통합 관리시스템을 제안한다. Yolo5를 이용한 차선 인식, 차량탑승인원 판별, 차량 번호 인식 등의 알고리즘을 통합 모델을 설계하고 이를 적용한 통합시스템을 제시하였다.

  • PDF

딥러닝 기반 불량노면 객체 인식 모델 개발 (Development of an abnormal road object recognition model based on deep learning)

  • 최미형;우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제22권4호
    • /
    • pp.149-155
    • /
    • 2021
  • 본 연구에서는 전동 이동기기를 이용하는 교통약자의 이동을 제한하는 노면 불량 요소를 딥러닝을 이용해 자동 검출하는 불량 노면객체 인식모델을 개발하고자 한다. 이를 위하여 부산시 관내 5개 지역에서 실제 전동 이동 보조 장치가 이동할 것으로 예상되는 보행로, 주행로를 대상으로 하여 노면 정보를 수집하였으며 이때 도로 정보 수집은 데이터 수집을 보다 용이하게 하기 위하여 소형 차량을 이용하였다. 데이터는 노면과 주변을 그 주변을 구성하는 객체로 구분하여 영상을 수집하였다. 수집된 데이터로부터 교통약자의 이동을 저해하는 정도에 따라 분류하여 보도블록의 파손등급 검출과 같은 일련의 인식 항목을 정의하였고, YOLOv5 딥러닝 알고리즘을 해당 데이터에 적용하여 실시간으로 객체를 인식하는 불량노면 객체 인식 딥러닝 모델을 구현하였다. 연구의 최종단계에서 실제 주행을 통해 객체 단위로 분리 수집된 영상 데이터의 가공, 정제 및 어노테이션 과정을 수행한 후 모델 학습과 검증을 거쳐 불량노면객체를 자동으로 검출하는 딥러닝 모델의 성능 검증 과정을 진행하였다.

YOLOv5 및 다항 회귀 모델을 활용한 사과나무의 착과량 예측 방법 (Estimation of fruit number of apple tree based on YOLOv5 and regression model)

  • 곽희진;정윤주;전익조;이철희
    • 전기전자학회논문지
    • /
    • 제28권2호
    • /
    • pp.150-157
    • /
    • 2024
  • 본 논문은 딥러닝 기반 객체 탐지 모델과 다항 회귀모델을 이용하여 사과나무에 열린 사과의 개수를 예측할 수 있는 새로운 알고리즘을 제안한다. 사과나무에 열린 사과의 개수를 측정하면 사과 생산량을 예측할 수 있고, 농산물 재해 보험금 산정을 위한 손실을 평가하는 데에도 활용할 수 있다. 사과 착과량 측정을 위해 사과나무의 앞면과 뒷면을 촬영하였다. 촬영된 사진에서 사과를 식별하여 라벨링한 데이터 세트를 구축하였고, 이 데이터 세트를 활용하여 1단계 객체 탐지 방식의 CNN 모델을 학습시켰다. 그런데 사과나무에서 사과가 나뭇잎, 가지 등으로 가려진 경우 영상에 포착되지 않아 영상 인식 기반의 딥러닝 모델이 해당 사과를 인식하거나 추론하는 것이 어렵다. 이 문제를 해결하기 위해, 우리는 두 단계로 이루어진 추론 과정을 제안한다. 첫 번째 단계에서는 영상 기반 딥러닝 모델을 사용하여 사과나무의 양쪽에서 촬영한 사진에서 각각의 사과 개수를 측정한다. 두 번째 단계에서는 딥러닝 모델로 측정한 사과 개수의 합을 독립변수로, 사람이 실제로 과수원을 방문하여 카운트한 사과 개수를 종속변수로 설정하여 다항 회귀 분석을 수행한다. 본 논문에서 제안하는 2단계 추론 시스템의 성능 평가 결과, 각 사과나무에서 사과 개수를 측정하는 평균 정확도가 90.98%로 나타났다. 따라서 제안된 방법은 수작업으로 사과의 개수를 측정하는 데 드는 시간과 비용을 크게 절감할 수 있다. 또한, 이 방법은 딥러닝 기반 착과량 예측의 새로운 기반 기술로 관련 분야에서 널리 활용될 수 있을 것이다.

Deep Learning based violent protest detection system

  • Lee, Yeon-su;Kim, Hyun-chul
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권3호
    • /
    • pp.87-93
    • /
    • 2019
  • In this paper, we propose a real-time drone-based violent protest detection system. Our proposed system uses drones to detect scenes of violent protest in real-time. The important problem is that the victims and violent actions have to be manually searched in videos when the evidence has been collected. Firstly, we focused to solve the limitations of existing collecting evidence devices by using drone to collect evidence live and upload in AWS(Amazon Web Service)[1]. Secondly, we built a Deep Learning based violence detection model from the videos using Yolov3 Feature Pyramid Network for human activity recognition, in order to detect three types of violent action. The built model classifies people with possession of gun, swinging pipe, and violent activity with the accuracy of 92, 91 and 80.5% respectively. This system is expected to significantly save time and human resource of the existing collecting evidence.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.

A Study on Image Labeling Technique for Deep-Learning-Based Multinational Tanks Detection Model

  • Kim, Taehoon;Lim, Dongkyun
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권4호
    • /
    • pp.58-63
    • /
    • 2022
  • Recently, the improvement of computational processing ability due to the rapid development of computing technology has greatly advanced the field of artificial intelligence, and research to apply it in various domains is active. In particular, in the national defense field, attention is paid to intelligent recognition among machine learning techniques, and efforts are being made to develop object identification and monitoring systems using artificial intelligence. To this end, various image processing technologies and object identification algorithms are applied to create a model that can identify friendly and enemy weapon systems and personnel in real-time. In this paper, we conducted image processing and object identification focused on tanks among various weapon systems. We initially conducted processing the tanks' image using a convolutional neural network, a deep learning technique. The feature map was examined and the important characteristics of the tanks crucial for learning were derived. Then, using YOLOv5 Network, a CNN-based object detection network, a model trained by labeling the entire tank and a model trained by labeling only the turret of the tank were created and the results were compared. The model and labeling technique we proposed in this paper can more accurately identify the type of tank and contribute to the intelligent recognition system to be developed in the future.

후두내시경 영상에서의 라디오믹스에 의한 병변 분류 연구 (Research on the Lesion Classification by Radiomics in Laryngoscopy Image)

  • 박준하;김영재;우주현;김광기
    • 대한의용생체공학회:의공학회지
    • /
    • 제43권5호
    • /
    • pp.353-360
    • /
    • 2022
  • Laryngeal disease harms quality of life, and laryngoscopy is critical in identifying causative lesions. This study extracts and analyzes using radiomics quantitative features from the lesion in laryngoscopy images and will fit and validate a classifier for finding meaningful features. Searching the region of interest for lesions not classified by the YOLOv5 model, features are extracted with radionics. Selected the extracted features are through a combination of three feature selectors, and three estimator models. Through the selected features, trained and verified two classification models, Random Forest and Gradient Boosting, and found meaningful features. The combination of SFS, LASSO, and RF shows the highest performance with an accuracy of 0.90 and AUROC 0.96. Model using features to select by SFM, or RIDGE was low lower performance than other things. Classification of larynx lesions through radiomics looks effective. But it should use various feature selection methods and minimize data loss as losing color data.

Sidewalk Gaseous Pollutants Estimation Through UAV Video-based Model

  • Omar, Wael;Lee, Impyeong
    • 대한원격탐사학회지
    • /
    • 제38권1호
    • /
    • pp.1-20
    • /
    • 2022
  • As unmanned aerial vehicle (UAV) technology grew in popularity over the years, it was introduced for air quality monitoring. This can easily be used to estimate the sidewalk emission concentration by calculating road traffic emission factors of different vehicle types. These calculations require a simulation of the spread of pollutants from one or more sources given for estimation. For this purpose, a Gaussian plume dispersion model was developed based on the US EPA Motor Vehicle Emissions Simulator (MOVES), which provides an accurate estimate of fuel consumption and pollutant emissions from vehicles under a wide range of user-defined conditions. This paper describes a methodology for estimating emission concentration on the sidewalk emitted by different types of vehicles. This line source considers vehicle parameters, wind speed and direction, and pollutant concentration using a UAV equipped with a monocular camera. All were sampled over an hourly interval. In this article, the YOLOv5 deep learning model is developed, vehicle tracking is used through Deep SORT (Simple Online and Realtime Tracking), vehicle localization using a homography transformation matrix to locate each vehicle and calculate the parameters of speed and acceleration, and ultimately a Gaussian plume dispersion model was developed to estimate the CO, NOx concentrations at a sidewalk point. The results demonstrate that these estimated pollutants values are good to give a fast and reasonable indication for any near road receptor point using a cheap UAV without installing air monitoring stations along the road.