• 제목/요약/키워드: yolo

검색결과 387건 처리시간 0.023초

딥러닝 및 기계학습 활용 반려견 얼굴 정면판별 방법 (Recognition of dog's front face using deep learning and machine learning)

  • 김종복;장동화;양가영;권경석;김중곤;이준환
    • 한국산학기술학회논문지
    • /
    • 제21권12호
    • /
    • pp.1-9
    • /
    • 2020
  • 반려견을 키우는 가구 수가 급격하게 증가함에 따라 유기, 유실견도 많이 증가하고 있다. 국내에서는 2014년부터 반려동물 등록제를 시행하고 있지만, 안전성과 실효성 문제로 등록률이 높지 않은 실정이다. 이러한 문제를 해결할 방법으로 반려견 생체인식 기술이 주목을 받고 있다. 생체인식률을 높이기 위해서는 최대한 정면에서 같은 형태로 생체정보 이미지를 수집해야 한다. 하지만 반려견은 사람과 달리 비협조적이기 때문에 생체정보 이미지 수집이 어렵다. 본 논문에서는 반려견 생체인식에 적합한 생체정보 이미지 수집을 위해 실시간 영상에서 반려견 얼굴 방향이 정면인지를 판별하는 방법을 제안한다. 제안 방법은 딥러닝을 활용하여 반려견 눈과 코를 검출하고, 검출된 눈과 코의 상대적 크기와 위치를 통해 5가지의 얼굴 방향 정보를 추출하여 기계학습 분류기로 정면 여부를 판별한다. 2,000개의 반려견 이미지를 분류하여 학습, 검증 및 테스트에 사용하였다. 눈과 코 검출에는 YOLOv3와 YOLOv4를 사용하였고, 분류기는 MLP(Multi-layer Perceptron), RF(Random Forest), SVM(Support Vector Machine)을 사용하였다. YOLOv4와 RF 분류기를 사용하고 제안하는 5가지 얼굴 방향 정보 모두를 적용하였을 때 얼굴 정면 판별 성능이 95.25%로 가장 좋았으며, 실시간 처리도 가능한 것으로 나타났다.

YOLOv4 기반의 소형 물체탐지기법을 이용한 건설도면 내 철강 자재 문자 검출 및 인식기법 (Character Detection and Recognition of Steel Materials in Construction Drawings using YOLOv4-based Small Object Detection Techniques)

  • 심지우;우희조;김윤환;김응태
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.391-401
    • /
    • 2022
  • 최근 딥러닝 기반의 객체 검출 및 인식 연구가 발전해가면서 산업 및 실생활에 적용되는 범위가 넓어지고 있다. 건설 분야에도 딥러닝 기반의 시스템이 도입되고 있지만 아직은 미온적이다. 건설 도면에서 자재 산출이 수작업으로 이뤄지고 있어 많은 소요시간과 부정확한 적산 결과로 잘못된 물량산출의 거래가 생길 수 있다. 이를 해결하기 위해서 빠르고 정확한 자동 도면 인식시스템이 필요하다. 따라서 본 논문은 건설도면 내 철강 자재를 검출하고 인식하는 인공지능기반 자동 도면 인식 적산 시스템을 제안한다. 빠른 속도의 YOLOv4 기반에 소형 객체 검출성능을 향상하기 위한 복제 방식의 데이터 증강기법과 공간집중 모듈을 적용하였다. 검출한 철강 자재 영역을 문자 인식한 결과를 토대로 철강 자재를 적산한다. 실험 결과 제안한 방식은 기존 YOLOv4 대비 정확도와 정밀도를 각각 1.8%, 16% 증가시켰다. 제안된 방식의 Precision은 0.938, Recall은 1, AP0.5는 99.4%, AP0.5:0.95 68.8%의 향상된 결과를 얻었다. 문자 인식은 기존 데이터를 사용한 인식률 75.6%에 비해 건설도면에 사용되는 폰트에 맞는 데이터 세트를 구성하여 학습한 결과 99.9%의 인식률을 얻었다. 한 이미지 당 평균 소요시간은 검출 단계는 0.013초, 문자 인식은 0.65초, 적산 단계는 0.16초로 총 0.84초의 결과를 얻었다.

YOLOv5와 YOLOv7 모델을 이용한 해양침적쓰레기 객체탐지 비교평가 (A Comparative Study on the Object Detection of Deposited Marine Debris (DMD) Using YOLOv5 and YOLOv7 Models)

  • 박강현;윤유정;강종구;김근아;최소연;장선웅;박수호;공신우;곽지우;이양원
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1643-1652
    • /
    • 2022
  • 해양생태계 및 수산자원, 해상안전에 부정적인 영향을 미치는 해양침적쓰레기는 주로 음파탐지기, 인양틀 및 잠수부를 통해 탐지되고 있다. 시간과 비용을 고려하여 최근에는 수중영상과 인공지능을 결합한 방법이 시도되고 시작했다. 본 연구에서는 효율적이고 정확한 해양침적쓰레기 탐지를 위하여, 수중영상과 딥러닝 객체탐지 모델인 You Only Look Once Version 5 (YOLOv5)와 You Only Look Once Version 7 (YOLOv7)을 학습 및 비교평가를 수행하였다. 유리, 금속, 어망, 타이어, 나무, 플라스틱 등의 객체탐지에 있어, 두 모델 모두 0.85 이상의 Mean Average Precision (mAP@0.5)를 기록하였다. 향후 영상자료 용량이 충분해지면, 보다 객관적인 성능평가 및 모델 개선이 가능할 것으로 사료된다.

Computer Vision-based Continuous Large-scale Site Monitoring System through Edge Computing and Small-Object Detection

  • Kim, Yeonjoo;Kim, Siyeon;Hwang, Sungjoo;Hong, Seok Hwan
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.1243-1244
    • /
    • 2022
  • In recent years, the growing interest in off-site construction has led to factories scaling up their manufacturing and production processes in the construction sector. Consequently, continuous large-scale site monitoring in low-variability environments, such as prefabricated components production plants (precast concrete production), has gained increasing importance. Although many studies on computer vision-based site monitoring have been conducted, challenges for deploying this technology for large-scale field applications still remain. One of the issues is collecting and transmitting vast amounts of video data. Continuous site monitoring systems are based on real-time video data collection and analysis, which requires excessive computational resources and network traffic. In addition, it is difficult to integrate various object information with different sizes and scales into a single scene. Various sizes and types of objects (e.g., workers, heavy equipment, and materials) exist in a plant production environment, and these objects should be detected simultaneously for effective site monitoring. However, with the existing object detection algorithms, it is difficult to simultaneously detect objects with significant differences in size because collecting and training massive amounts of object image data with various scales is necessary. This study thus developed a large-scale site monitoring system using edge computing and a small-object detection system to solve these problems. Edge computing is a distributed information technology architecture wherein the image or video data is processed near the originating source, not on a centralized server or cloud. By inferring information from the AI computing module equipped with CCTVs and communicating only the processed information with the server, it is possible to reduce excessive network traffic. Small-object detection is an innovative method to detect different-sized objects by cropping the raw image and setting the appropriate number of rows and columns for image splitting based on the target object size. This enables the detection of small objects from cropped and magnified images. The detected small objects can then be expressed in the original image. In the inference process, this study used the YOLO-v5 algorithm, known for its fast processing speed and widely used for real-time object detection. This method could effectively detect large and even small objects that were difficult to detect with the existing object detection algorithms. When the large-scale site monitoring system was tested, it performed well in detecting small objects, such as workers in a large-scale view of construction sites, which were inaccurately detected by the existing algorithms. Our next goal is to incorporate various safety monitoring and risk analysis algorithms into this system, such as collision risk estimation, based on the time-to-collision concept, enabling the optimization of safety routes by accumulating workers' paths and inferring the risky areas based on workers' trajectory patterns. Through such developments, this continuous large-scale site monitoring system can guide a construction plant's safety management system more effectively.

  • PDF

해상물체탐지시스템 거리오차 보정에 관한 연구 (A Study on the Distance Error Correction of Maritime Object Detection System)

  • 강병선;정창현
    • 해양환경안전학회지
    • /
    • 제29권2호
    • /
    • pp.139-146
    • /
    • 2023
  • 양식장 부표 등과 같은 해상의 소형 장애물을 탐지하고 거리와 방위를 시각화시켜 주는 해상물체탐지시스템은 선체운동으로 인한 오차를 보정하기 위해 3축 짐벌이 장착되어 있지만, 파도 등에 의한 카메라와 해상물체의 상하운동으로 발생하는 거리오차를 보정하지 못하는 한계가 있다. 이에 본 연구에서는 외부환경에 따른 수면의 움직임으로 발생하는 해상물체탐지시스템의 거리오차를 분석하고, 이를 평균필터와 이동평균필터로 보정하고자 한다. 가우시안 표준정규분포를 따르는 난수를 이미지 좌표에 가감하여 불규칙파에 의한 부표의 상승 또는 하강을 재현하였다. 이미지 좌표의 변화에 따른 계산거리, 평균필터와 이동평균필터를 통한 예측거리 그리고 레이저 거리측정기에 의한 실측거리를 비교하였다. phase 1,2에서 불규칙파에 의한 이미지 좌표의 변화로 오차율이 최대 98.5%로 증가하였지만, 이동평균필터를 사용함으로써 오차율은 16.3%로 감소하였다. 오차보정 능력은 평균필터가 더 좋았지만 거리변화에 반응하지 못하는 한계가 있었다. 따라서 해상물체탐지시스템 거리오차 보정을 위해 이동평균필터를 사용함으로써 실시간 거리변화에 반응하고 오차율을 크게 개선할 수 있을 것으로 판단된다.

YOLOv5 및 다항 회귀 모델을 활용한 사과나무의 착과량 예측 방법 (Estimation of fruit number of apple tree based on YOLOv5 and regression model)

  • 곽희진;정윤주;전익조;이철희
    • 전기전자학회논문지
    • /
    • 제28권2호
    • /
    • pp.150-157
    • /
    • 2024
  • 본 논문은 딥러닝 기반 객체 탐지 모델과 다항 회귀모델을 이용하여 사과나무에 열린 사과의 개수를 예측할 수 있는 새로운 알고리즘을 제안한다. 사과나무에 열린 사과의 개수를 측정하면 사과 생산량을 예측할 수 있고, 농산물 재해 보험금 산정을 위한 손실을 평가하는 데에도 활용할 수 있다. 사과 착과량 측정을 위해 사과나무의 앞면과 뒷면을 촬영하였다. 촬영된 사진에서 사과를 식별하여 라벨링한 데이터 세트를 구축하였고, 이 데이터 세트를 활용하여 1단계 객체 탐지 방식의 CNN 모델을 학습시켰다. 그런데 사과나무에서 사과가 나뭇잎, 가지 등으로 가려진 경우 영상에 포착되지 않아 영상 인식 기반의 딥러닝 모델이 해당 사과를 인식하거나 추론하는 것이 어렵다. 이 문제를 해결하기 위해, 우리는 두 단계로 이루어진 추론 과정을 제안한다. 첫 번째 단계에서는 영상 기반 딥러닝 모델을 사용하여 사과나무의 양쪽에서 촬영한 사진에서 각각의 사과 개수를 측정한다. 두 번째 단계에서는 딥러닝 모델로 측정한 사과 개수의 합을 독립변수로, 사람이 실제로 과수원을 방문하여 카운트한 사과 개수를 종속변수로 설정하여 다항 회귀 분석을 수행한다. 본 논문에서 제안하는 2단계 추론 시스템의 성능 평가 결과, 각 사과나무에서 사과 개수를 측정하는 평균 정확도가 90.98%로 나타났다. 따라서 제안된 방법은 수작업으로 사과의 개수를 측정하는 데 드는 시간과 비용을 크게 절감할 수 있다. 또한, 이 방법은 딥러닝 기반 착과량 예측의 새로운 기반 기술로 관련 분야에서 널리 활용될 수 있을 것이다.

무인기로 취득한 RGB 영상과 YOLOv5를 이용한 수수 이삭 탐지 (Sorghum Panicle Detection using YOLOv5 based on RGB Image Acquired by UAV System)

  • 박민준;유찬석;강예성;송혜영;백현찬;박기수;김은리;박진기;장시형
    • 한국농림기상학회지
    • /
    • 제24권4호
    • /
    • pp.295-304
    • /
    • 2022
  • 본 연구는 수수의 수확량 추정을 위해 무인기로 취득한 RGB 영상과 YOLOv5를 이용하여 수수 이삭 탐지 모델을 개발하였다. 이삭이 가장 잘 식별되는 9월 2일의 영상 중 512×512로 분할된 2000장을 이용하여 모델의 학습, 검증 및 테스트하였다. YOLOv5의 모델 중 가장 파라미터가 적은 YOLOv5s에서 mAP@50=0.845로 수수 이삭을 탐지할 수 있었다. 파라미터가 증가한 YOLOv5m에서는 mAP@50=0.844로 수수 이삭을 탐지할 수 있었다. 두 모델의 성능이 유사하나 YOLOv5s (4시간 35분)가 YOLOv5m (5시간 15분)보다 훈련시간이 더 빨라 YOLOv5s가 수수 이삭 탐지에 효율적이라고 판단된다. 개발된 모델을 이용하여 수수의 수확량 예측을 위한 단위면적당 이삭 수를 추정하는 알고리즘의 기초자료로 유용하게 활용될 것으로 판단된다. 추가적으로 아직 개발의 초기 단계를 감안하면 확보된 데이터를 이용하여 성능 개선 및 다른 CNN 모델과 비교 검토할 필요가 있다고 사료된다.