• 제목/요약/키워드: YOLO algorithm

검색결과 101건 처리시간 0.029초

Improving Performance of YOLO Network Using Multi-layer Overlapped Windows for Detecting Correct Position of Small Dense Objects

  • Yu, Jae-Hyoung;Han, Youngjoon;Hahn, Hernsoo
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권3호
    • /
    • pp.19-27
    • /
    • 2019
  • This paper proposes a new method using multi-layer overlapped windows to improve the performance of YOLO network which is vulnerable to detect small dense objects. In particular, the proposed method uses the YOLO Network based on the multi-layer overlapped windows to track small dense vehicles that approach from long distances. The method improves the detection performance for location and size of small vehicles. It allows crossing area of two multi-layer overlapped windows to track moving vehicles from a long distance to a short distance. And the YOLO network is optimized so that GPU computation time due to multi-layer overlapped windows should be reduced. The superiority of the proposed algorithm has been proved through various experiments using captured images from road surveillance cameras.

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

딥러닝 기반의 객체 검출을 이용한 상대적 거리 예측 및 접촉 감지 (Contact Detection based on Relative Distance Prediction using Deep Learning-based Object Detection)

  • 홍석미;선경희;유현
    • 융합정보논문지
    • /
    • 제12권1호
    • /
    • pp.39-44
    • /
    • 2022
  • 본 연구의 목적은 딥러닝 알고리즘을 이용하여 영상 내 객체의 종류, 위치, 절대 크기를 추출하고, 객체간 상대적 거리를 예측하며, 이를 이용하여 객체 간의 접촉을 감지하기 위한 내용이다. 객체의 크기 비율을 분석하기 위하여, CNN 기반의 Object Detection 알고리즘인 YOLO를 이용한다. YOLO 알고리즘을 통하여 2D 형태의 이미지에서 각 개체의 절대적인 크기와 위치를 좌표의 형태로 추출한다. 추출 결과는 사전에 저장된 동일한 객체의 명칭과 크기를 가지는 표준 객체-크기 리스트로부터 영상 내 크기와 실제 크기 간의 비례를 추출하며, 영상 내 카메라-객체 간의 상대적인 거리를 예측한다. 예측된 값을 바탕으로 영상에서 객체 간 접촉 여부를 감지한다.

보행자검출을 통한 상권 분석 알고리즘 (Algorithm for the Analysis of business district using Pedestrian-Detection)

  • 이승익
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제17권2호
    • /
    • pp.83-89
    • /
    • 2021
  • 본 논문에서는 특정지역의 보행자들의 검출을 통한 분석으로, 특정시간 동안의 보행자 수를 분석해 원하는 지역의 상권을 과학적이고 체계적으로 분석하여 사업을 하고자 하는 수요자에 대한 서비스 제공을 목적으로 하는 알고리즘을 제안한다. 본 논문을 통해 특정지역에 분포해 있는 다양한 영상획득 장치를 통해 우선 영상에서의 보행자 수를 딥러닝 기법중 하나인 YOLO를 통해 검출하여 알고리즘을 이용하여 분석하고, 관심지역에서 획득된 영상을 활용하여, 분당 한 장의 영상정보를 활용하여 딥러닝 네트워크를 활용하여 보행자수를 파악한 후 특정지역 및 시간대별로 보행자수를 분석하여 상권분석을 체계적이고 객관적으로 수행하는 알고리즘을 제안하였다. 제안한 방법을 통해 보다 객관적인 상권을 분석하여 다양한 방법을 통해 사용자가 원하는 지역의 상권 분석을 위한 모델을 제안하였다.

Vehicle Manufacturer Recognition using Deep Learning and Perspective Transformation

  • Ansari, Israfil;Shim, Jaechang
    • Journal of Multimedia Information System
    • /
    • 제6권4호
    • /
    • pp.235-238
    • /
    • 2019
  • In real world object detection is an active research topic for understanding different objects from images. There are different models presented in past and had significant results. In this paper we are presenting vehicle logo detection using previous object detection models such as You only look once (YOLO) and Faster Region-based CNN (F-RCNN). Both the front and rear view of the vehicles were used for training and testing the proposed method. Along with deep learning an image pre-processing algorithm called perspective transformation is proposed for all the test images. Using perspective transformation, the top view images were transformed into front view images. This algorithm has higher detection rate as compared to raw images. Furthermore, YOLO model has better result as compare to F-RCNN model.

플라스틱 재활용을 위한 YOLO기반의 자동 분류시스템 (YOLO Based Automatic Sorting System for Plastic Recycling)

  • 김용준;조태욱;박형근
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.382-384
    • /
    • 2021
  • 본 연구에서는 실시간 물체 인식 알고리즘인 YOLO (You Only Look Once)를 이용하여 플라스틱의 종류를 자동으로 분류하는 시스템을 구현하였다. 시스템은 Nvidia 사에서 만든 딥러닝, 컴퓨터비전용 소형 컴퓨터인 Jetson Nano에 YOLO를 이용하여 플라스틱 분리배출 마크를 인식할 수 있도록 훈련시킨 모델을 탑재하여 구성하였다. 웹캠을 이용해서 플라스틱 쓰레기의 분리배출 마크를 PET, HDPE, PP 세 종류로 인식하고 모터를 조절하여 종류에 따라 분류될 수 있도록 하였다. 이 자동 분류기를 구현함으로 써 사람이 직접 플라스틱 분리배출 마크를 확인하여 분리배출하는 수고를 덜어줄 수 있다는 점에서 편의성을 가지며 정확한 분리수거를 통해 재활용의 효율성을 높일 수 있다.

  • PDF

PCB 검사를 위한 YOLO 네트워크 기반의 PCB 부품 분류 알고리즘 (PCB Component Classification Algorithm Based on YOLO Network for PCB Inspection)

  • 윤형조;이준재
    • 한국멀티미디어학회논문지
    • /
    • 제24권8호
    • /
    • pp.988-999
    • /
    • 2021
  • AOI (Automatic Optical Inspection) of PCB (Printed Circuit Board) is a very important step to guarantee the product performance. The process of registering components called teaching mode is first perform, and AOI is then carried out in a testing mode that checks defects, such as recognizing and comparing the component mounted on the PCB to the stored components. Since most of registration of the components on the PCB is done manually, it takes a lot of time and there are many problems caused by mistakes or misjudgement. In this paper, A components classifier is proposed using YOLO (You Only Look Once) v2's object detection model that can automatically register components in teaching modes to reduce dramatically time and mistakes. The network of YOLO is modified to classify small objects, and the number of anchor boxes was increased from 9 to 15 to classify various types and sizes. Experimental results show that the proposed method has a good performance with 99.86% accuracy.

딥러닝 알고리즘을 활용한 출입자 통계와 마스크 착용 판별 인공지능 시스템 (Development of AI Systems for Counting Visitors and Check of Wearing Masks Using Deep Learning Algorithms)

  • 조원영;박승렬;김현수;윤태진
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제62차 하계학술대회논문집 28권2호
    • /
    • pp.285-286
    • /
    • 2020
  • 전 세계적으로 유행하는 COVID-19(코로나19)로 인해 사람들은 대면 접촉을 피하게 되었고, 전염성이 높은 이유로 마스크의 착용이 의무화되고 있고, 이를 검사하는 업무가 증가하고 있다. 그래서, 인공지능 기술을 통해 업무를 도와줄 수 있는 출입자 통계와 출입자 마스크 착용 검사를 할 수 있는 시스템이 필요하다. 이를 위해 본 논문에서는 딥러닝 알고리즘을 활용한 출입자 통계와 마스크 착용 판별 시스템을 제시한다. 또한, 실시간 영상인식에 많이 활용되고 있는 YOLO-v3와 YOLO-v4, YOLO-Tiny 알고리즘을 데스크탑 PC와 Nvidia사의 Jetson Nano에 적용하여 알고리즘별 성능 비교를 통해 적합한 방법을 찾고 적용하였다.

  • PDF

카메라 트래핑 기법과 YOLO-X 알고리즘 기반의 도시 야생동물 탐지 및 분석방법론 개발 (Development of Urban Wildlife Detection and Analysis Methodology Based on Camera Trapping Technique and YOLO-X Algorithm)

  • 김경태;이현정;전승욱;송원경;김휘문
    • 한국환경복원기술학회지
    • /
    • 제26권4호
    • /
    • pp.17-34
    • /
    • 2023
  • Camera trapping has been used as a non-invasive survey method that minimizes anthropogenic disturbance to ecosystems. Nevertheless, it is labor-intensive and time-consuming, requiring researchers to quantify species and populations. In this study, we aimed to improve the preprocessing of camera trapping data by utilizing an object detection algorithm. Wildlife monitoring using unmanned sensor cameras was conducted in a forested urban forest and a green space on a university campus in Cheonan City, Chungcheongnam-do, Korea. The collected camera trapping data were classified by a researcher to identify the occurrence of species. The data was then used to test the performance of the YOLO-X object detection algorithm for wildlife detection. The camera trapping resulted in 10,500 images of the urban forest and 51,974 images of green spaces on campus. Out of the total 62,474 images, 52,993 images (84.82%) were found to be false positives, while 9,481 images (15.18%) were found to contain wildlife. As a result of wildlife monitoring, 19 species of birds, 5 species of mammals, and 1 species of reptile were observed within the study area. In addition, there were statistically significant differences in the frequency of occurrence of the following species according to the type of urban greenery: Parus varius(t = -3.035, p < 0.01), Parus major(t = 2.112, p < 0.05), Passer montanus(t = 2.112, p < 0.05), Paradoxornis webbianus(t = 2.112, p < 0.05), Turdus hortulorum(t = -4.026, p < 0.001), and Sitta europaea(t = -2.189, p < 0.05). The detection performance of the YOLO-X model for wildlife occurrence was analyzed, and it successfully classified 94.2% of the camera trapping data. In particular, the number of true positive predictions was 7,809 images and the number of false negative predictions was 51,044 images. In this study, the object detection algorithm YOLO-X model was used to detect the presence of wildlife in the camera trapping data. In this study, the YOLO-X model was used with a filter activated to detect 10 specific animal taxa out of the 80 classes trained on the COCO dataset, without any additional training. In future studies, it is necessary to create and apply training data for key occurrence species to make the model suitable for wildlife monitoring.

YOLO 알고리즘을 활용한 Planetscope 위성영상 기반 비닐하우스 탐지 (Detecting Greenhouses from the Planetscope Satellite Imagery Using the YOLO Algorithm)

  • 김성수;정연인;정윤재
    • 한국지리정보학회지
    • /
    • 제26권4호
    • /
    • pp.27-39
    • /
    • 2023
  • 원격탐사 자료 기반 비닐하우스 탐지 기술 개발은 불법 농경 시설물의 현황 파악과 비닐하우스에서 재배되는 농작물 수량 예측을 위해 중요하다. 본 연구에서는 딥러닝 알고리즘을 활용하여 김제시 지역을 촬영한 Planetscope 위성영상들로부터 비닐하우스를 탐지하기 위한 방법을 제안하였다. 우선, 5장의 Planetscope 위성영상을 기반으로 비닐하우스 객체를 포함한 훈련 영상들을 제작하였다. 그리고, 훈련 영상들을 이용하여 YOLO(You Only Look Once) 모델을 학습시킨다. 학습시킨 YOLO 모델을 테스트 Planetscope 위성영상에 적용하여 비닐하우스 객체들을 탐지한다. 본 연구에서 제안한 방법을 적용한 결과, 주어진 Planetscope 위성영상으로부터 총 76.4%의 비닐하우스가 탐지되었다. 추후 연구에서는 공간해상도 1m 이하의 고해상도 위성영상에서 더 많은 비닐하우스 객체를 탐지하기 위한 기술을 개발할 계획이다.