• 제목/요약/키워드: Deep Learning Dataset

검색결과 764건 처리시간 0.03초

객체 검출을 위한 통계치 적응적인 선형 회귀 기반 객체 크기 예측 (Object Size Prediction based on Statistics Adaptive Linear Regression for Object Detection)

  • 권용혜;이종석;심동규
    • 방송공학회논문지
    • /
    • 제26권2호
    • /
    • pp.184-196
    • /
    • 2021
  • 본 논문은 객체 검출 알고리즘을 위한 통계치 적응적인 선형 회귀 기반 객체 크기 예측 방법을 제안한다. 기존에 제안된 딥 러닝 기반 객체 검출 알고리즘 중 YOLOv2 및 YOLOv3은 객체의 크기를 예측하기 위하여 네트워크의 마지막 계층에 통계치 적응적인 지수 회귀 모델을 사용한다. 하지만, 지수 회귀 모델은 역전파 과정에서 지수 함수의 특성상 매우 큰 미분값을 네트워크의 파라미터로 전파시킬 수 있는 문제점이 있다. 따라서 본 논문에서는 미분 값의 발산 문제를 해결하기 위하여 객체 크기 예측을 위한 통계치 적응적인 선형 회귀 모델을 제안한다. 제안하는 통계치 적응적인 선형 회귀 모델은 딥러닝 네트워크의 마지막 계층에 사용되며, 학습 데이터셋에 존재하는 객체들의 크기에 대한 통계치를 이용하여 객체의 크기를 예측한다. 제안하는 방법의 성능 평가를 위하여 YOLOv3 tiny를 기반으로 제안하는 방법을 적용하여 재설계한 네트워크의 검출 성능과 YOLOv3 tiny의 검출 성능을 비교하였으며, 성능 비교를 위한 데이터셋으로는 UFPR-ALPR 데이터셋을 사용하였다. 실험을 통해 제안하는 방법의 우수성을 검증하였다.

클래스 다이어그램 이미지의 자동 분류에 관한 연구 (A Study on Automatic Classification of Class Diagram Images)

  • 김동관
    • 한국융합학회논문지
    • /
    • 제13권3호
    • /
    • pp.1-9
    • /
    • 2022
  • UML(Unified Modeling Language) 클래스 다이어그램은 시스템의 정적인 측면을 표현하며 분석 및 설계부터 문서화, 테스팅까지 사용된다. 클래스 다이어그램을 이용한 모델링이 소프트웨어 개발에 있어 필수적이지만, 경험이 많지 않은 모델러에게 쉽지 않은 작업이다. 도메인 카테고리별로 분류된 클래스 다이어그램 데이터 세트가 제공된다면, 모델링 작업의 생산성을 높일 수 있을 것이다. 본 논문은 클래스 다이어그램 이미지 데이터를 구축하기 위한 자동 분류 기술을 제공한다. 추가 정보 없이 단지 UML 클래스 다이어그램 이미지를 식별하고 도메인 카테고리에 따라 자동 분류한다. 먼저, 웹상에서 수집된 이미지들이 UML 클래스 다이어그램 이미지인지 여부를 판단한다. 그리고, 식별된 클래스 다이어그램 이미지에서 클래스 이름을 추출하여 도메인 카테고리에 따라 분류한다. 제안된 분류 모델은 정밀도, 재현율, F1점수, 정확도에서 각각 100.00%, 95.59%, 97.74%, 97.77%를 달성했으며, 카테고리별 분류에 대한 정확도는 81.1%와 95.2% 사이에 분포한다. 해당 실험에 사용된 클래스 다이어그램 이미지 개수가 충분히 크지 않지만, 도출된 실험 결과는 제안된 자동 분류 방식이 고려할 만한 가치가 있음을 나타낸다.

Boundary-Aware Dual Attention Guided Liver Segment Segmentation Model

  • Jia, Xibin;Qian, Chen;Yang, Zhenghan;Xu, Hui;Han, Xianjun;Ren, Hao;Wu, Xinru;Ma, Boyang;Yang, Dawei;Min, Hong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.16-37
    • /
    • 2022
  • Accurate liver segment segmentation based on radiological images is indispensable for the preoperative analysis of liver tumor resection surgery. However, most of the existing segmentation methods are not feasible to be used directly for this task due to the challenge of exact edge prediction with some tiny and slender vessels as its clinical segmentation criterion. To address this problem, we propose a novel deep learning based segmentation model, called Boundary-Aware Dual Attention Liver Segment Segmentation Model (BADA). This model can improve the segmentation accuracy of liver segments with enhancing the edges including the vessels serving as segment boundaries. In our model, the dual gated attention is proposed, which composes of a spatial attention module and a semantic attention module. The spatial attention module enhances the weights of key edge regions by concerning about the salient intensity changes, while the semantic attention amplifies the contribution of filters that can extract more discriminative feature information by weighting the significant convolution channels. Simultaneously, we build a dataset of liver segments including 59 clinic cases with dynamically contrast enhanced MRI(Magnetic Resonance Imaging) of portal vein stage, which annotated by several professional radiologists. Comparing with several state-of-the-art methods and baseline segmentation methods, we achieve the best results on this clinic liver segment segmentation dataset, where Mean Dice, Mean Sensitivity and Mean Positive Predicted Value reach 89.01%, 87.71% and 90.67%, respectively.

모바일 디바이스 화면의 클릭 가능한 객체 탐지를 위한 싱글 샷 디텍터 (Single Shot Detector for Detecting Clickable Object in Mobile Device Screen)

  • 조민석;전혜원;한성수;정창성
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권1호
    • /
    • pp.29-34
    • /
    • 2022
  • 모바일 디바이스 화면상의 클릭 가능한 객체를 인지하기 위한 데이터셋을 구축하고 새로운 네트워크 구조를 제안한다. 모바일 디바이스 화면에서 클릭 가능한 객체를 기준으로 다양한 해상도를 가진 디바이스에서 여러 애플리케이션을 대상으로 데이터를 수집하였다. 총 24,937개의 annotation data를 text, edit text, image, button, region, status bar, navigation bar의 7개 카테고리로 세분화하였다. 해당 데이터셋을 학습하기 위한 모델 구조는 Deconvolution Single Shot Detector를 베이스라인으로, backbone network는 기존 ResNet에 Squeeze-and-Excitation block을 추가한 Squeeze-and-Excitation networks를 사용하고, Single shot detector layers와 Deconvolution module을 Feature pyramid networks 형태로 쌓아 올려 header와 연결한다. 또한, 기존 input resolution의 1:1 비율에서 오는 특징의 손실을 최소화하기 위해 모바일 디바이스 화면과 유사한 1:2 비율로 변경하였다. 해당 모델을 구축한 데이터셋에 대하여 실험한 결과 베이스라인에 대비하여 mean average precision이 최대 101% 개선되었다.

미소 픽셀을 갖는 비행 객체 인식을 위한 데이터베이스 구축 및 관리시스템 연구 (Database Generation and Management System for Small-pixelized Airborne Target Recognition)

  • 이호섭;신희민;심현철;조성욱
    • 항공우주시스템공학회지
    • /
    • 제16권5호
    • /
    • pp.70-77
    • /
    • 2022
  • 본 논문에서, 데이터베이스 생성 및 관리 시스템은 미소 픽셀 공중 표적 인식을 위해 제안된다. 제안된 시스템은 1)비행 테스트 비디오 프레임에 의한 직접 이미지 추출, 2) 자동 이미지 보관, 3) 이미지 데이터 레이블링 및 메타 데이터 주석, 4) 컬러 채널 변환, 5) HOG/LBP 기반 소화소 대상 증강 이미지 데이터 생성의 다섯가지 주요 기능으로 구성된다. 제안하는 프로그램은 파이썬 기반의 PyQt5와 OpenCV를 이용하여 구성하였고 공중 표적 인식을 위한 이미지 데이터셋은 제안한 시스템을 이용해 생성했으며 비행 실험으로 부터 수집된 영상을 입력영상으로 사용하였다.

합성곱 신경망과 장단기 메모리를 이용한 사격음 분석 기법 (Shooting sound analysis using convolutional neural networks and long short-term memory)

  • 강세혁;조지웅
    • 한국음향학회지
    • /
    • 제41권3호
    • /
    • pp.312-318
    • /
    • 2022
  • 본 논문은 딥러닝기법 중 하나인 합성곱 신경망과 순환 신경망 중 하나인 장단기 메모리를 이용하여 사격시 발생하는 소음(이하 사격음)만으로 화기의 종류, 사격음 발생지점에 관한 정보(거리와 방향)을 추정하는 모델을 다루었다. 이를 위해 미국 법무부 산하 연구소의 지원하에 생성된 Gunshot Audio Forensic Dataset을 이용하였으며, 음향신호를 멜 스펙트로그램(Mel-Spectrogram)으로 변환한 후, 4종의 합성곱 신경망과 1종의 장단기 메모리 레이어로 구성된 딥러닝 모델에 학습 및 검증 데이터로 제공하였다. 제안 모델의 성능을 확인하기 위해 합성곱 신경망으로만 구성된 대조 모델과 비교·분석하였으며, 제안 모델의 정확도가 90 % 이상으로 대조모델보다 우수한 성능을 보였다.

Turbulent-image Restoration Based on a Compound Multibranch Feature Fusion Network

  • Banglian Xu;Yao Fang;Leihong Zhang;Dawei Zhang;Lulu Zheng
    • Current Optics and Photonics
    • /
    • 제7권3호
    • /
    • pp.237-247
    • /
    • 2023
  • In middle- and long-distance imaging systems, due to the atmospheric turbulence caused by temperature, wind speed, humidity, and so on, light waves propagating in the air are distorted, resulting in image-quality degradation such as geometric deformation and fuzziness. In remote sensing, astronomical observation, and traffic monitoring, image information loss due to degradation causes huge losses, so effective restoration of degraded images is very important. To restore images degraded by atmospheric turbulence, an image-restoration method based on improved compound multibranch feature fusion (CMFNetPro) was proposed. Based on the CMFNet network, an efficient channel-attention mechanism was used to replace the channel-attention mechanism to improve image quality and network efficiency. In the experiment, two-dimensional random distortion vector fields were used to construct two turbulent datasets with different degrees of distortion, based on the Google Landmarks Dataset v2 dataset. The experimental results showed that compared to the CMFNet, DeblurGAN-v2, and MIMO-UNet models, the proposed CMFNetPro network achieves better performance in both quality and training cost of turbulent-image restoration. In the mixed training, CMFNetPro was 1.2391 dB (weak turbulence), 0.8602 dB (strong turbulence) respectively higher in terms of peak signal-to-noise ratio and 0.0015 (weak turbulence), 0.0136 (strong turbulence) respectively higher in terms of structure similarity compared to CMFNet. CMFNetPro was 14.4 hours faster compared to the CMFNet. This provides a feasible scheme for turbulent-image restoration based on deep learning.

보행자 및 차량 검지를 위한 레이더 영상 융복합 시스템 연구 (A Study on Radar Video Fusion Systems for Pedestrian and Vehicle Detection)

  • 조성윤;윤여환
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.197-205
    • /
    • 2024
  • 자율주행 자동차 개발 및 상용화에 있어서 주행안전도 확보가 가장 중요한 시점에서 이를 위해 전방 및 주행차량 주변에 존재하는 다양한 정적/동적 차량의 인식과 검출 성능을 고도화 및 최적화하기 위한 AI, 빅데이터 기반 알고리즘개발 등이 연구되고 있다. 하지만 레이더와 카메라의 고유한 장점을 활용하여 동일한 차량으로 인식하기 위한 연구 사례들이 많이 있지만, 딥러닝 영상 처리 기술을 이용하지 않거나, 레이더의 성능상의 문제로 짧은 거리만 동일한 표적으로 감지하고 있다. 따라서 레이더 장비와 카메라 장비에서 수집할 수 있는 데이터셋을 구성하고, 데이터셋의 오차를 계산하여 동일한 표적으로 인식하는 융합 기반 차량 인식 방법이 필요하다. 본 논문에서는 레이더와 CCTV(영상) 설치 위치에 따라 동일한 객체로 판단하기에 데이터 오차가 발생하기 때문에 설치한 위치에 따라 위치 정보를 연동할 수 있는 기술 개발을 목표로 한다.

핵의학 팬텀 영상에서 초매개변수 변화에 따른 YOLOv5 모델의 성능평가 (Performance Evaluation of YOLOv5 Model according to Various Hyper-parameters in Nuclear Medicine Phantom Images)

  • 이민관;박찬록
    • 한국방사선학회논문지
    • /
    • 제18권1호
    • /
    • pp.21-26
    • /
    • 2024
  • You only look once v5 (YOLOv5)는 객체 검출 과정에 우수한 성능을 보이고 있는 딥러닝 모델 중 하나다. 그러므로 본 연구의 목적은 양전차방출단층촬영 팬텀 영상에서 다양한 하이퍼 파라미터에 따른 YOLOv5 모델의 성능을 평가했다. 데이터 세트는 500장의 QIN PET segmentation challenge로부터 제공되는 오픈 소스를 사용하였으며, LabelImg 소프트웨어를 사용하여 경계박스를 설정했다. 학습의 적용된 하이퍼파라미터는 최적화 함수 SDG, Adam, AdamW, 활성화 함수 SiLu, LeakyRelu, Mish, Hardwish와 YOLOv5 모델 크기에 따라 nano, small, large, xlarge다. 학습성능을 평가하기 위한 정량적 분석방법으로 Intersection of union (IOU)를 사용하였다. 결과적으로, AdmaW의 최적화 함수, Hardwish의 활성화 함수, nano 크기에서 우수한 객체 검출성능을 보였다. 결론적으로 핵의학 영상에서의 객체 검출 성능에 대한 YOLOV5 모델의 유용성을 확인하였다.

Convolutional Neural Network based Audio Event Classification

  • Lim, Minkyu;Lee, Donghyun;Park, Hosung;Kang, Yoseb;Oh, Junseok;Park, Jeong-Sik;Jang, Gil-Jin;Kim, Ji-Hwan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권6호
    • /
    • pp.2748-2760
    • /
    • 2018
  • This paper proposes an audio event classification method based on convolutional neural networks (CNNs). CNN has great advantages of distinguishing complex shapes of image. Proposed system uses the features of audio sound as an input image of CNN. Mel scale filter bank features are extracted from each frame, then the features are concatenated over 40 consecutive frames and as a result, the concatenated frames are regarded as an input image. The output layer of CNN generates probabilities of audio event (e.g. dogs bark, siren, forest). The event probabilities for all images in an audio segment are accumulated, then the audio event having the highest accumulated probability is determined to be the classification result. This proposed method classified thirty audio events with the accuracy of 81.5% for the UrbanSound8K, BBC Sound FX, DCASE2016, and FREESOUND dataset.