• 제목/요약/키워드: Inception ResNet V2

검색결과 22건 처리시간 0.028초

딥러닝 기반 교량 구성요소 자동 분류 (Automatic Classification of Bridge Component based on Deep Learning)

  • 이재혁;박정준;윤형철
    • 대한토목학회논문집
    • /
    • 제40권2호
    • /
    • pp.239-245
    • /
    • 2020
  • 최근 BIM (Building Information Modeling)이 건설 산업계에서 폭넓게 활용되고 있다. 하지만 과거에 시공이 된 구조물에 경우 대부분 BIM이 구축되어 있지 않다. BIM이 구축되지 않은 구조물의 경우, 카메라로부터 얻은 2D 이미지에 SfM (Structure from Motion) 기법을 활용하면 3D 모델의 점군 데이터(Point cloud)를 생성하고 BIM을 구축할 수 있다. 하지만 이렇게 생성된 점군 데이터는 의미론적 정보가 포함되어 있지 않기 때문에, 수작업으로 구조물의 어떤 요소인지 분류해 주어야 한다. 따라서 본 연구에서는 구조물 구성요소를 분류하는 과정을 자동화하기 위하여 딥러닝을 적용하였다. 딥러닝 네트워크 구축에는 CNN (Convolutional Neural Network) 구조의 Inception-ResNet-v2를 사용하였고, 전이학습을 통하여 교량 구조물의 구성요소를 학습하였다. 개발된 시스템을 검증하기 위하여 수집한 데이터를 이용하여 구성요소를 분류한 결과, 교량의 구성요소를 96.13 %의 정확도로 분류할 수 있었다.

Predicting Brain Tumor Using Transfer Learning

  • Mustafa Abdul Salam;Sanaa Taha;Sameh Alahmady;Alwan Mohamed
    • International Journal of Computer Science & Network Security
    • /
    • 제23권5호
    • /
    • pp.73-88
    • /
    • 2023
  • Brain tumors can also be an abnormal collection or accumulation of cells in the brain that can be life-threatening due to their ability to invade and metastasize to nearby tissues. Accurate diagnosis is critical to the success of treatment planning, and resonant imaging is the primary diagnostic imaging method used to diagnose brain tumors and their extent. Deep learning methods for computer vision applications have shown significant improvements in recent years, primarily due to the undeniable fact that there is a large amount of data on the market to teach models. Therefore, improvements within the model architecture perform better approximations in the monitored configuration. Tumor classification using these deep learning techniques has made great strides by providing reliable, annotated open data sets. Reduce computational effort and learn specific spatial and temporal relationships. This white paper describes transfer models such as the MobileNet model, VGG19 model, InceptionResNetV2 model, Inception model, and DenseNet201 model. The model uses three different optimizers, Adam, SGD, and RMSprop. Finally, the pre-trained MobileNet with RMSprop optimizer is the best model in this paper, with 0.995 accuracies, 0.99 sensitivity, and 1.00 specificity, while at the same time having the lowest computational cost.

사과 병해충 분류를 위한 CNN 기반 모델 비교 (Comparison of CNN-based models for apple pest classification)

  • 이수민;이유현;이은솔;한세윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.460-463
    • /
    • 2022
  • 세계에서 가장 중요한 온대 과일 작물 중 하나인 사과의 생산성과 품질은 병해충 여부에 큰 영향을 받는다. 이를 진단하기 위해서는 효율적이고 많은 전문 지식과 상당한 시간이 필요하다. 그러므로 이를 해결하기 위해 효율적이고 정확하게 다양한 병해충을 진단하는 시스템이 필요하다. 본 논문에서는 이미지 분석에 큰 효율을 보인 딥러닝 기반 CNN 들을 비교 분석하여 사과의 병해충 여부를 판별하고 최적의 모델을 제시한다. 딥러닝 기반 CNN 구조를 가진 AlexNet, VGGNet, Inception-ResNet-v2, DenseNet 을 채택해 사과 병해충 분류 성능 평가를 진행했다. 그 결과 DenseNet 이 가장 우수한 성능을 보여주었다.

고성능 CNN 기반 지정맥 인증 시스템 구현 (Implementation of Finger Vein Authentication System based on High-performance CNN)

  • 김경래;최홍락;김경석
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권5호
    • /
    • pp.197-202
    • /
    • 2021
  • 지정맥을 이용한 생체인식기술은 높은 보안성, 편리성과 정확성으로 많은 관심을 받고 있으며 최근 딥러닝 기술의 발달로 인해 더욱 인증에 대한 인식 오류율 및 정확도가 향상되었다. 하지만 학습 데이터는 일정한 순서나 방법이 아닌 실제 데이터의 부분 집합으로, 결과가 일정하지 않아 데이터양과 인공신경망의 복잡도를 고려해야 한다. 본 논문에서는 지정맥 인식기의 높은 정확도와 인증 시스템 성능 향상을 위해 Inception-ResNet-v2의 딥러닝 모델을 활용하였으며 DenseNet-201의 딥러닝 모델과 성능을 비교 분석하였다. 시뮬레이션은 전북대의 MMCBNU_6000과 직접 촬영한 지정맥 영상을 사용하고 지정맥 인증 시스템에 이미지를 가공하는 과정은 없으며 생체인증 척도인 EER을 추출하여 성능 결과를 확인한다.

딥러닝 기반 CT 스캔 재구성을 통한 조영제 사용 및 신체 부위 분류 성능 향상 연구 (A Study on the Use of Contrast Agent and the Improvement of Body Part Classification Performance through Deep Learning-Based CT Scan Reconstruction)

  • 나성원;고유선;김경원
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.293-301
    • /
    • 2023
  • 표준화되지 않은 의료 데이터 수집 및 관리는 여전히 수동으로 진행되고 있어, 이 문제를 해결하기 위해 딥 러닝을 사용해 CT 데이터를 분류하는 연구들이 진행되고 있다. 하지만 대부분 연구에서는 기본적인 CT slice인 axial 평면만을 기반으로 모델을 개발하고 있다. CT 영상은 일반 이미지와 다르게 인체 구조만 묘사하기 때문에 CT scan을 재구성하는 것만으로도 더 풍부한 신체적 특징을 나타낼 수 있다. 이 연구는 axial 평면뿐만 아니라 CT 데이터를 2D로 변환하는 여러가지 방법들을 통해 보다 높은 성능을 달성할 수 있는 방법을 찾고자 한다. 훈련은 5가지 부위의 CT 스캔 1042개를 사용했고, 모델 평가를 위해 테스트셋 179개, 외부 데이터셋으로 448개를 수집했다. 딥러닝 모델 개발을 위해 ImageNet으로 사전 학습된 InceptionResNetV2를 백본으로 사용하였으며, 모델의 전체 레이어를 재 학습했다. 실험결과 신체 부위 분류에서는 재구성 데이터 모델이 99.33%를 달성하며 axial 모델보다 1.12% 더 높았고, 조영제 분류에서는 brain과 neck에서만 axial모델이 높았다. 결론적으로 axial slice로만 훈련했을 때 보다 해부학적 특징이 잘 나타나는 데이터로 학습했을 때 더 정확한 성능 달성이 가능했다.

Transfer Learning for Caladium bicolor Classification: Proof of Concept to Application Development

  • Porawat Visutsak;Xiabi Liu;Keun Ho Ryu;Naphat Bussabong;Nicha Sirikong;Preeyaphorn Intamong;Warakorn Sonnui;Siriwan Boonkerd;Jirawat Thongpiem;Maythar Poonpanit;Akarasate Homwiseswongsa;Kittipot Hirunwannapong;Chaimongkol Suksomsong;Rittikait Budrit
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권1호
    • /
    • pp.126-146
    • /
    • 2024
  • Caladium bicolor is one of the most popular plants in Thailand. The original species of Caladium bicolor was found a hundred years ago. Until now, there are more than 500 species through multiplication. The classification of Caladium bicolor can be done by using its color and shape. This study aims to develop a model to classify Caladium bicolor using a transfer learning technique. This work also presents a proof of concept, GUI design, and web application deployment using the user-design-center method. We also evaluated the performance of the following pre-trained models in this work, and the results are as follow: 87.29% for AlexNet, 90.68% for GoogleNet, 93.59% for XceptionNet, 93.22% for MobileNetV2, 89.83% for RestNet18, 88.98% for RestNet50, 97.46% for RestNet101, and 94.92% for InceptionResNetV2. This work was implemented using MATLAB R2023a.

A computer vision-based approach for behavior recognition of gestating sows fed different fiber levels during high ambient temperature

  • Kasani, Payam Hosseinzadeh;Oh, Seung Min;Choi, Yo Han;Ha, Sang Hun;Jun, Hyungmin;Park, Kyu hyun;Ko, Han Seo;Kim, Jo Eun;Choi, Jung Woo;Cho, Eun Seok;Kim, Jin Soo
    • Journal of Animal Science and Technology
    • /
    • 제63권2호
    • /
    • pp.367-379
    • /
    • 2021
  • The objectives of this study were to evaluate convolutional neural network models and computer vision techniques for the classification of swine posture with high accuracy and to use the derived result in the investigation of the effect of dietary fiber level on the behavioral characteristics of the pregnant sow under low and high ambient temperatures during the last stage of gestation. A total of 27 crossbred sows (Yorkshire × Landrace; average body weight, 192.2 ± 4.8 kg) were assigned to three treatments in a randomized complete block design during the last stage of gestation (days 90 to 114). The sows in group 1 were fed a 3% fiber diet under neutral ambient temperature; the sows in group 2 were fed a diet with 3% fiber under high ambient temperature (HT); the sows in group 3 were fed a 6% fiber diet under HT. Eight popular deep learning-based feature extraction frameworks (DenseNet121, DenseNet201, InceptionResNetV2, InceptionV3, MobileNet, VGG16, VGG19, and Xception) used for automatic swine posture classification were selected and compared using the swine posture image dataset that was constructed under real swine farm conditions. The neural network models showed excellent performance on previously unseen data (ability to generalize). The DenseNet121 feature extractor achieved the best performance with 99.83% accuracy, and both DenseNet201 and MobileNet showed an accuracy of 99.77% for the classification of the image dataset. The behavior of sows classified by the DenseNet121 feature extractor showed that the HT in our study reduced (p < 0.05) the standing behavior of sows and also has a tendency to increase (p = 0.082) lying behavior. High dietary fiber treatment tended to increase (p = 0.064) lying and decrease (p < 0.05) the standing behavior of sows, but there was no change in sitting under HT conditions.

HS 코드 분류를 위한 CNN 기반의 추천 모델 개발 (CNN-based Recommendation Model for Classifying HS Code)

  • 이동주;김건우;최근호
    • 경영과정보연구
    • /
    • 제39권3호
    • /
    • pp.1-16
    • /
    • 2020
  • 현재 운영되고 있는 관세신고납부제도는 납세의무자가 세액 산정을 스스로하고 그 세액을 본인 책임으로 납부하도록 하는 제도이다. 다시 말해, 관세법상 신고 납부제도는 납세액을 정확히 계산해서 납부할 의무와 책임이 온전히 납세의무자에게 무한정으로 부과하는 것을 원칙으로 하고 있다. 따라서, 만일 납세의무자가 그 의무와 책임을 제대로 행하지 못했을 경우에는 부족한 만큼의 세액 추징과 그에 대한 제제로 가산세를 부과하고 있다. 이러한 이유로 세액 산정의 기본이 되는 품목분류는 관세평가와 함께 가장 어려운 부분이며 잘못 분류하게 되면 기업에게도 큰 리스크가 될 수도 있다. 이러한 이유로 관세전문가인 관세사에게 상당한 수수료를 지불하면서 수입신고를 위탁하여 처리하고 있는 실정이다. 이에 본 연구에서는 수입신고 시 신고하려는 품목이 어떤 것인지 HS 코드 분류를 하여 수입신고 시 기재해야 할 HS 코드를 추천해 주는데 목적이 있다. HS 코드 분류를 위해 관세청 품목분류 결정 사례를 바탕으로 사례에 첨부된 이미지를 활용하여 HS 코드 분류를 하였다. 이미지 분류를 위해 이미지 인식에 많이 사용되는 딥러닝 알고리즘인 CNN을 사용하였는데, 세부적으로 CNN 모델 중 VggNet(Vgg16, Vgg19), ResNet50, Inception-V3 모델을 사용하였다. 분류 정확도를 높이기 위해 3개의 dataset을 만들어 실험을 진행하였다. Dataset 1은 HS 코드 이미지가 가장 많은 5종을 선정하였고 Dataset 2와 Dataset 3은 HS 코드 2단위 중 가장 데이터 샘플의 수가 많은 87류를 대상으로 하였으며, 이 중 샘플 수가 많은 5종으로 분류 범위를 좁혀 분석하였다. 이 중 dataset 3로 학습시켜 HS 코드 분류를 수행하였을 때 Vgg16 모델에서 분류 정확도가 73.12%로 가장 높았다. 본 연구는 HS 코드 이미지를 이용해 딥러닝에 기반한 HS 코드 분류를 최초로 시도하였다는 점에서 의의가 있다. 또한, 수출입 업무를 하고 있는 기업이나 개인사업자들이 본 연구에서 제안한 모델을 참조하여 활용할 수 있다면 수출입 신고 시 HS 코드 작성에 도움될 것으로 기대된다.

White Blood Cell Types Classification Using Deep Learning Models

  • Bagido, Rufaidah Ali;Alzahrani, Manar;Arif, Muhammad
    • International Journal of Computer Science & Network Security
    • /
    • 제21권9호
    • /
    • pp.223-229
    • /
    • 2021
  • Classification of different blood cell types is an essential task for human's medical treatment. The white blood cells have different types of cells. Counting total White Blood Cells (WBC) and differential of the WBC types are required by the physicians to diagnose the disease correctly. This paper used transfer learning methods to the pre-trained deep learning models to classify different WBCs. The best pre-trained model was Inception ResNetV2 with Adam optimizer that produced classification accuracy of 98.4% for the dataset comprising four types of WBCs.

CT 정도관리를 위한 인공지능 모델 적용에 관한 연구 (Study on the Application of Artificial Intelligence Model for CT Quality Control)

  • 황호성;김동현;김호철
    • 대한의용생체공학회:의공학회지
    • /
    • 제44권3호
    • /
    • pp.182-189
    • /
    • 2023
  • CT is a medical device that acquires medical images based on Attenuation coefficient of human organs related to X-rays. In addition, using this theory, it can acquire sagittal and coronal planes and 3D images of the human body. Then, CT is essential device for universal diagnostic test. But Exposure of CT scan is so high that it is regulated and managed with special medical equipment. As the special medical equipment, CT must implement quality control. In detail of quality control, Spatial resolution of existing phantom imaging tests, Contrast resolution and clinical image evaluation are qualitative tests. These tests are not objective, so the reliability of the CT undermine trust. Therefore, by applying an artificial intelligence classification model, we wanted to confirm the possibility of quantitative evaluation of the qualitative evaluation part of the phantom test. We used intelligence classification models (VGG19, DenseNet201, EfficientNet B2, inception_resnet_v2, ResNet50V2, and Xception). And the fine-tuning process used for learning was additionally performed. As a result, in all classification models, the accuracy of spatial resolution was 0.9562 or higher, the precision was 0.9535, the recall was 1, the loss value was 0.1774, and the learning time was from a maximum of 14 minutes to a minimum of 8 minutes and 10 seconds. Through the experimental results, it was concluded that the artificial intelligence model can be applied to CT implements quality control in spatial resolution and contrast resolution.