• 제목/요약/키워드: YOLO v3

검색결과 49건 처리시간 0.028초

Lightweight high-precision pedestrian tracking algorithm in complex occlusion scenarios

  • Qiang Gao;Zhicheng He;Xu Jia;Yinghong Xie;Xiaowei Han
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.840-860
    • /
    • 2023
  • Aiming at the serious occlusion and slow tracking speed in pedestrian target tracking and recognition in complex scenes, a target tracking method based on improved YOLO v5 combined with Deep SORT is proposed. By merging the attention mechanism ECA-Net with the Neck part of the YOLO v5 network, using the CIoU loss function and the method of CIoU non-maximum value suppression, connecting the Deep SORT model using Shuffle Net V2 as the appearance feature extraction network to achieve lightweight and fast speed tracking and the purpose of improving tracking under occlusion. A large number of experiments show that the improved YOLO v5 increases the average precision by 1.3% compared with other algorithms. The improved tracking model, MOTA reaches 54.3% on the MOT17 pedestrian tracking data, and the tracking accuracy is 3.7% higher than the related algorithms and The model presented in this paper improves the FPS by nearly 5 on the fps indicator.

객체 검출을 위한 CNN과 YOLO 성능 비교 실험 (Comparison of CNN and YOLO for Object Detection)

  • 이용환;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제19권1호
    • /
    • pp.85-92
    • /
    • 2020
  • Object detection plays a critical role in the field of computer vision, and various researches have rapidly increased along with applying convolutional neural network and its modified structures since 2012. There are representative object detection algorithms, which are convolutional neural networks and YOLO. This paper presents two representative algorithm series, based on CNN and YOLO which solves the problem of CNN bounding box. We compare the performance of algorithm series in terms of accuracy, speed and cost. Compared with the latest advanced solution, YOLO v3 achieves a good trade-off between speed and accuracy.

YOLOv4를 이용한 CCTV 영상 내 군중 밀집도 분석 서비스 개발 (Development for Analysis Service of Crowd Density in CCTV Video using YOLOv4)

  • 황승연;김정준
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권3호
    • /
    • pp.177-182
    • /
    • 2024
  • 본 논문에서는 2022년 10월 29일 한국에서 발생한 이태원 압사 사고를 기반으로 미래에 발생할 수 있는 인파 사고에 대하여 군중 밀집으로 인한 위험을 미리 예측하고, 예방하기 위한 목적으로 작성되었다. 단일 CCTV 같은 경우 관리자가 실시간으로 현재 상황을 판별할 수 있지만, 하루 종일 해당 화면만 들여다볼 수 없기 때문에 CCTV 화각으로 촬영된 영상들을 학습한 YOLO v4를 이용하여 객체를 탐지하고, 정해진 군집의 수가 초과하는 순간에 알림을 통해 군중 밀집으로 인한 안전사고를 예방하게 된다. YOLO v4 모델을 사용하게 된 이유는 이전 YOLO 모델보다 더욱 높은 정확성과 빠른 속도로 개선되어, 객체 탐지 기법이 더 용이해졌기 때문이다. 본 서비스를 AI-Hub 사이트에 등재된 CCTV 영상 데이터로 테스트하는 과정을 거치게 된다. 현재 한국에 CCTV는 기하급수적으로 증가하였고, 이를 실제 CCTV에 적용한다면 앞으로 일어나게 될 군중 밀집으로 인한 사고를 비롯한 다양한 사고를 예방할 수 있을 것으로 기대한다.

딥 러닝 및 칼만 필터를 이용한 객체 추적 방법 (Object Tracking Method using Deep Learning and Kalman Filter)

  • 김기철;손소희;김민섭;전진우;이인재;차지훈;최해철
    • 방송공학회논문지
    • /
    • 제24권3호
    • /
    • pp.495-505
    • /
    • 2019
  • 딥 러닝의 대표 알고리즘에는 영상 인식에 주로 사용되는 CNN(Convolutional Neural Networks), 음성인식 및 자연어 처리에 주로 사용되는 RNN(Recurrent Neural Networks) 등이 있다. 이 중 CNN은 데이터로부터 자동으로 특징을 학습하는 알고리즘으로 특징 맵을 생성하는 필터까지 학습할 수 있어 영상 인식 분야에서 우수한 성능을 보이면서 주류를 이루게 되었다. 이후, 객체 탐지 분야에서는 CNN의 성능을 향상하고자 R-CNN 등 다양한 알고리즘이 등장하였으며, 최근에는 검출 속도 향상을 위해 YOLO(You Only Look Once), SSD(Single Shot Multi-box Detector) 등의 알고리즘이 제안되고 있다. 하지만 이러한 딥러닝 기반 탐지 네트워크는 정지 영상에서 탐지의 성공 여부를 결정하기 때문에 동영상에서의 안정적인 객체 추적 및 탐지를 위해서는 별도의 추적 기능이 필요하다. 따라서 본 논문에서는 동영상에서의 객체 추적 및 탐지 성능 향상을 위해 딥 러닝 기반 탐지 네트워크에 칼만 필터를 결합한 방법을 제안한다. 탐지 네트워크는 실시간 처리가 가능한 YOLO v2를 이용하였으며, 실험 결과 제안한 방법은 기존 YOLO v2 네트워크에 비교하여 7.7%의 IoU 성능 향상 결과를 보였고 FHD 영상에서 20 fps의 처리 속도를 보였다.

이미지 속 문자열 탐지에 대한 YOLO와 EAST 신경망의 성능 비교 (A Comparison of Deep Neural Network based Scene Text Detection with YOLO and EAST)

  • 박찬용;이규현;임영민;정승대;조영혁;김진욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.422-425
    • /
    • 2021
  • 본 논문에서는 최근 다양한 분야에서 많이 활용되고 있는 YOLO와 EAST 신경망을 이미지 속 문자열 탐지문제에 적용해보고 이들의 성능을 비교분석 해 보았다. YOLO 신경망은 v3 이전 모델까지는 이미지 속 문자영역 탐지에 낮은 성능을 보인다고 알려졌으나, 최근 출시된 YOLOv4와 YOLOv5의 경우 다양한 형태의 이미지 속에 있는 한글과 영문 문자열 탐지에 뛰어난 성능을 보여줌을 확인하고 향후 문자 인식 분야에서 많이 활용될 것으로 기대된다.

머신러닝 기반의 물체 인식을 이용한 실시간 주차장 정보 제공 서비스 (Real-time Parking Lot Information Service Using Machine Learning-Based Object Detection)

  • 서규승;서영탁;백천기;문일영
    • 실천공학교육논문지
    • /
    • 제13권3호
    • /
    • pp.491-496
    • /
    • 2021
  • 본 논문에서 기존 주차장들에 설치되어 있는 CCTV를 활용하여 주차장의 현황을 파악하고 안드로이드 애플리케이션을 통해 사용자에게 실시간 정보를 제공하고자 한다. YOLO V3를 활용하여 주차구역에 관심 영역을 설정하는 방법과 설정된 관심 영역을 통해 실시간으로 변경되는 빈자리 수를 제공하는 방법에 대해 서술하고, ImageZMQ와 파이어베이스를 이용하여 CCTV-서버-사용자 간에 연동하는 방법에 대해 서술한다. 사용자는 애플리케이션을 통해 목적지에 도착하기 전 목적지 근처 주차장 실시간 상황을 파악할 수 있으며 그에 따른 다양한 방안을 마련할 수 있다.

Municipal waste classification system design based on Faster-RCNN and YoloV4 mixed model

  • Liu, Gan;Lee, Sang-Hyun
    • International Journal of Advanced Culture Technology
    • /
    • 제9권3호
    • /
    • pp.305-314
    • /
    • 2021
  • Currently, due to COVID-19, household waste has a lot of impact on the environment due to packaging of food delivery. In this paper, we design and implement Faster-RCNN, SSD, and YOLOv4 models for municipal waste detection and classification. The data set explores two types of plastics, which account for a large proportion of household waste, and the types of aluminum cans. To classify the plastic type and the aluminum can type, 1,083 aluminum can types and 1,003 plastic types were studied. In addition, in order to increase the accuracy, we compare and evaluate the loss value and the accuracy value for the detection of municipal waste classification using Faster-RCNN, SDD, and YoloV4 three models. As a final result of this paper, the average precision value of the SSD model is 99.99%, the average precision value of plastics is 97.65%, and the mAP value is 99.78%, which is the best result.

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

A method based on Multi-Convolution layers Joint and Generative Adversarial Networks for Vehicle Detection

  • Han, Guang;Su, Jinpeng;Zhang, Chengwei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.1795-1811
    • /
    • 2019
  • In order to achieve rapid and accurate detection of vehicle objects in complex traffic conditions, we propose a novel vehicle detection method. Firstly, more contextual and small-object vehicle information can be obtained by our Joint Feature Network (JFN). Secondly, our Evolved Region Proposal Network (EPRN) generates initial anchor boxes by adding an improved version of the region proposal network in this network, and at the same time filters out a large number of false vehicle boxes by soft-Non Maximum Suppression (NMS). Then, our Mask Network (MaskN) generates an example that includes the vehicle occlusion, the generator and discriminator can learn from each other in order to further improve the vehicle object detection capability. Finally, these candidate vehicle detection boxes are optimized to obtain the final vehicle detection boxes by the Fine-Tuning Network(FTN). Through the evaluation experiment on the DETRAC benchmark dataset, we find that in terms of mAP, our method exceeds Faster-RCNN by 11.15%, YOLO by 11.88%, and EB by 1.64%. Besides, our algorithm also has achieved top2 comaring with MS-CNN, YOLO-v3, RefineNet, RetinaNet, Faster-rcnn, DSSD and YOLO-v2 of vehicle category in KITTI dataset.

YOLO-v3을 활용한 건설 장비 주변 위험 상황 인지 알고리즘 개발 (Development on Identification Algorithm of Risk Situation around Construction Vehicle using YOLO-v3)

  • 심승보;최상일
    • 한국산학기술학회논문지
    • /
    • 제20권7호
    • /
    • pp.622-629
    • /
    • 2019
  • 최근 정부는 건설 산업의 재해율과 사고 사망률이 전체 산업 중 높은 비율을 차지한다는 점을 개선하기 위하여 새로운 대책을 강구하고 있다. 특히 4차 산업혁명의 시대적 흐름에 맞춰 ICT 기술과 융합된 건설 기술 개발에 집중적으로 투자하고 있다. 이런 상황에 대응하고자 본 논문에서는 건설 기계를 사용하는 작업에서 작업자의 안전성 향상을 위한 방법으로, 건설 기계 운전자와 주변 작업자 간의 작업 상황 정보를 공유하고 인지할 수 있는 개념을 제시하였다. 그리고 해당 개념의 일부를 실현하고자 카메라를 이용한 인공 지능 기반 영상처리 기술을 활용하여 토공 작업에 접목시켰다. 그 중에서도 다짐 장비를 이용한 실험을 통해 YOLO-v3 기반의 영상 처리 알고리즘으로 토공 작업 중에 주변 작업자 상황을 인지하고 위험 상황 여부를 판단할 수 있는 알고리즘을 구현하였다. 그 결과 본 알고리즘은 동영상에서 초당 15.06프레임을 처리하며 90.48%의 정확도로 건설 기계 주변 위험 상황을 인지할 수 있다. 향후 이 같은 기술을 활용하여 건설 현장의 안전사고 예방에 기여하고자 한다.