• 제목/요약/키워드: Inception V2

검색결과 60건 처리시간 0.029초

군 폐쇄망 환경에서의 모의 네트워크 데이터 셋 평가 방법 연구 (A study on evaluation method of NIDS datasets in closed military network)

  • 박용빈;신성욱;이인섭
    • 인터넷정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.121-130
    • /
    • 2020
  • 이 논문은 Generative Adversarial Network (GAN) 을 이용하여 증진된 이미지 데이터를 평가방식인 Inception Score (IS) 와 Frechet Inception Distance (FID) 계산시 inceptionV3 모델을 활용 하는 방식을 응용하여, 군 폐쇄망 네트워크 데이터를 이미지 형태로 평가하는 방법을 제안한다. 기존 존재하는 이미지 분류 모델들에 레이어를 추가하여 IncetptionV3 모델을 대체하고, 네트워크 데이터를 이미지로 변환 및 학습 하는 방법에 변화를 주어 다양한 시뮬레이션을 진행하였다. 실험 결과, atan을 이용해 8 * 8 이미지로 변환한 데이터에 대해 1개의 덴스 레이어 (Dense Layer)를 추가한 Densenet121를 학습시킨 모델이 네트워크 데이터셋 평가 모델로서 가장 적합하다는 결과를 도출하였다.

국방 데이터를 활용한 인셉션 네트워크 파생 이미지 분류 AI의 설명 가능성 연구 (A Study on the Explainability of Inception Network-Derived Image Classification AI Using National Defense Data)

  • 조강운
    • 한국군사과학기술학회지
    • /
    • 제27권2호
    • /
    • pp.256-264
    • /
    • 2024
  • In the last 10 years, AI has made rapid progress, and image classification, in particular, are showing excellent performance based on deep learning. Nevertheless, due to the nature of deep learning represented by a black box, it is difficult to actually use it in critical decision-making situations such as national defense, autonomous driving, medical care, and finance due to the lack of explainability of judgement results. In order to overcome these limitations, in this study, a model description algorithm capable of local interpretation was applied to the inception network-derived AI to analyze what grounds they made when classifying national defense data. Specifically, we conduct a comparative analysis of explainability based on confidence values by performing LIME analysis from the Inception v2_resnet model and verify the similarity between human interpretations and LIME explanations. Furthermore, by comparing the LIME explanation results through the Top1 output results for Inception v3, Inception v2_resnet, and Xception models, we confirm the feasibility of comparing the efficiency and availability of deep learning networks using XAI.

Deep Convolutional Neural Network(DCNN)을 이용한 계층적 농작물의 종류와 질병 분류 기법 (A Hierarchical Deep Convolutional Neural Network for Crop Species and Diseases Classification)

  • ;나형철;류관희
    • 한국멀티미디어학회논문지
    • /
    • 제25권11호
    • /
    • pp.1653-1671
    • /
    • 2022
  • Crop diseases affect crop production, more than 30 billion USD globally. We proposed a classification study of crop species and diseases using deep learning algorithms for corn, cucumber, pepper, and strawberry. Our study has three steps of species classification, disease detection, and disease classification, which is noteworthy for using captured images without additional processes. We designed deep learning approach of deep learning convolutional neural networks based on Mask R-CNN model to classify crop species. Inception and Resnet models were presented for disease detection and classification sequentially. For classification, we trained Mask R-CNN network and achieved loss value of 0.72 for crop species classification and segmentation. For disease detection, InceptionV3 and ResNet101-V2 models were trained for nodes of crop species on 1,500 images of normal and diseased labels, resulting in the accuracies of 0.984, 0.969, 0.956, and 0.962 for corn, cucumber, pepper, and strawberry by InceptionV3 model with higher accuracy and AUC. For disease classification, InceptionV3 and ResNet 101-V2 models were trained for nodes of crop species on 1,500 images of diseased label, resulting in the accuracies of 0.995 and 0.992 for corn and cucumber by ResNet101 with higher accuracy and AUC whereas 0.940 and 0.988 for pepper and strawberry by Inception.

사전훈련된 모델구조를 이용한 심층신경망 기반 유방암 조직병리학적 이미지 분류 (Breast Cancer Histopathological Image Classification Based on Deep Neural Network with Pre-Trained Model Architecture)

  • 비키 무뎅;이언진;최세운
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.399-401
    • /
    • 2022
  • 유방 악성 상태를 분류하기 위한 최종 진단은 침습적 생검을 이용한 현미경 분석을 통해 확인이 가능하나, 분석을 위해 일정 시간과 비용이 부과되며, 병리학적 지식을 보유한 전문가가 필요하다. 이러한 문제를 극복하기 위해, 딥 러닝을 활용한 진단 기법은 조직병리학적 이미지에서 유방암을 양성 및 악성으로 분류에 효율적인 방법으로 고려된다. 본 연구는 유방암 조직병리학적 이미지를 40배 확대한 BreaKHIS 데이터 세트를 사용하여 양성 및 악성으로 분류하였으며, 100% 미세 조정 체계와 Adagrad를 이용한 최적화로 사전 훈련된 컨볼루션 신경망 모델 아키텍처를 사용하였다. 사전 훈련된 아키텍처는 InceptionResNetV2 모델을 사용하여 마지막 계층을 고밀도 계층과 드롭아웃 계층으로 대체하여 수정된 InceptionResNetV2를 생성하도록 구성되었다. 훈련 손실 0.25%, 훈련 정확도 99.96%, 검증 손실 3.10%, 검증 정확도 99.41%, 테스트 손실 8.46%와 테스트 정확도 98.75%를 입증한 결과는 수정된 InceptionResNetV2 모델이 조직병리학적 이미지에서 유방 악성 유형을 예측하는 데 신뢰할 수 있음을 보여주었다. 향후 연구는 k-폴드 교차 검증, 최적화, 모델, 초 매개 변수 최적화 및 100×, 200× 및 400× 배율에 대한 분류에 초점을 맞추어 추가실험이 필요하다.

  • PDF

드론 식별 시스템을 위한 합성곱 신경망 기반 이미지 분류 모델 성능 비교 (Performance Comparison of CNN-Based Image Classification Models for Drone Identification System)

  • 김영완;조대균;박건우
    • 문화기술의 융합
    • /
    • 제10권4호
    • /
    • pp.639-644
    • /
    • 2024
  • 최근 전장에서의 드론 활용이 정찰뿐만 아니라 화력 지원까지 확장됨에 따라, 드론을 조기에 자동으로 식별하는 기술의 중요성이 더욱 증가하고 있다. 본 연구에서는 드론과 크기 및 외형이 유사한 다른 공중 표적들인 새와 풍선을 구분할 수 있는 효과적인 이미지 분류 모델을 확인하기 위해, 인터넷에서 수집한 3,600장의 이미지 데이터셋을 사용하고, 세 가지 사전 학습된 합성곱 신경망 모델(VGG16, ResNet50, InceptionV3)의 특징 추출기능과 추가 분류기를 결합한 전이 학습 접근 방식을 채택하였다. 즉, 가장 우수한 모델을 확인하기 위해 세 가지 사전 학습된 모델(VGG16, ResNet50, InceptionV3)의 성능을 비교 분석하였으며, 실험 결과 InceptionV3 모델이 99.66%의 최고 정확도를 나타냄을 확인하였다. 본 연구는 기존의 합성곱 신경망 모델과 전이 학습을 활용하여 드론을 식별하는 새로운 시도로써, 드론 식별 기술의 발전에 크게 기여 할 것으로 기대된다.

Electrical Insulation Characteristics at Cryogenic Temperature for High Temperature Superconducting Cables

  • Okubo, Hitoshi;Hayakawa, Naoki
    • KIEE International Transactions on Electrophysics and Applications
    • /
    • 제4C권1호
    • /
    • pp.15-20
    • /
    • 2004
  • This paper discusses electrical insulation characteristics at cryogenic temperature, especially focusing on partial discharge (PD) inception characteristics, for high temperature superconducting cables. In liquid nitrogen (L$N_2$) / polypropylene (PP) laminated paper composite insulation system, PD inception strength (PDIE) was evaluated in terms of volume effect and V-t characteristics. Different kinds of butt gap condition were applied in the experiments, using parallel plane and coaxial cylindrical cable samples. Experimental results revealed that the volume effect on PDIE could be evaluated by the statistical stressed liquid volume (SSLV) taking account the discharge probability not only in the butt gap but also in the other thin layers between PP laminated papers. Furthermore, the indices n of V-t characteristics at PD inception were estimated to be 80∼110, irrespective of the butt gap condition.

합성곱 신경망을 이용한 '미황' 복숭아 과실의 성숙도 분류 (Grading of Harvested 'Mihwang' Peach Maturity with Convolutional Neural Network)

  • 신미희;장경은;이슬기;조정건;송상준;김진국
    • 생물환경조절학회지
    • /
    • 제31권4호
    • /
    • pp.270-278
    • /
    • 2022
  • 본 연구는 무대재배 복숭아 '미황'을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐색하고자 실시하였다. 취득 영상 730개의 데이터를 training과 validation에 사용하였고, 170개는 최종테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN(Convolutional Neural Networks, 컨볼루션 신경망) 모델 중에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두종류의 모델을 사용하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6%의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.

머신 러닝을 사용한 이미지 클러스터링: K-means 방법을 사용한 InceptionV3 연구 (Image Clustering Using Machine Learning : Study of InceptionV3 with K-means Methods.)

  • 닌담 솜사우트;이효종
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.681-684
    • /
    • 2021
  • In this paper, we study image clustering without labeling using machine learning techniques. We proposed an unsupervised machine learning technique to design an image clustering model that automatically categorizes images into groups. Our experiment focused on inception convolutional neural networks (inception V3) with k-mean methods to cluster images. For this, we collect the public datasets containing Food-K5, Flowers, Handwritten Digit, Cats-dogs, and our dataset Rice Germination, and the owner dataset Palm print. Our experiment can expand into three-part; First, format all the images to un-label and move to whole datasets. Second, load dataset into the inception V3 extraction image features and transferred to the k-mean cluster group hold on six classes. Lastly, evaluate modeling accuracy using the confusion matrix base on precision, recall, F1 to analyze. In this our methods, we can get the results as 1) Handwritten Digit (precision = 1.000, recall = 1.000, F1 = 1.00), 2) Food-K5 (precision = 0.975, recall = 0.945, F1 = 0.96), 3) Palm print (precision = 1.000, recall = 0.999, F1 = 1.00), 4) Cats-dogs (precision = 0.997, recall = 0.475, F1 = 0.64), 5) Flowers (precision = 0.610, recall = 0.982, F1 = 0.75), and our dataset 6) Rice Germination (precision = 0.997, recall = 0.943, F1 = 0.97). Our experiment showed that modeling could get an accuracy rate of 0.8908; the outcomes state that the proposed model is strongest enough to differentiate the different images and classify them into clusters.

전이 학습과 데이터 증강을 이용한 너구리와 라쿤 분류 (Classification of Raccoon dog and Raccoon with Transfer Learning and Data Augmentation)

  • 박동민;조영석;염석원
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.34-41
    • /
    • 2023
  • 최근 인간의 활동 범위가 증가함에 따라 외래종의 유입이 잦아지고 있고 환경에 적응하지 못해 유기된 외래종 중 2020년부터 유해 지정 동물로 지정된 라쿤이 문제가 되고 있다. 라쿤은 국내 토종 너구리와 크기나 생김새가 유사하여 일반적으로 포획하는데 있어서 구분이 필요하다. 이를 해결하기 위해서 이미지 분류에 특화된 CNN 딥러닝 모델인 VGG19, ResNet152V2, InceptionV3, InceptionResNet, NASNet을 사용한다. 학습에 사용할 파라미터는 많은 양의 데이터인 ImageNet으로 미리 학습된 파라미터를 전이 학습하여 이용한다. 너구리와 라쿤 데이터셋에서 동물의 외형적인 특징으로 분류하기 위해서 이미지를 회색조로 변환한 후 밝기를 정규화하였으며, 조정된 데이터셋에 충분한 학습을 위한 데이터를 만들기 위해 좌우 반전, 회전, 확대/축소, 이동을 이용하여 증강 기법을 적용하였다. 증강하지 않은 데이터셋은 FCL을 1층으로, 증강된 데이터셋은 4층으로 구성하여 진행하였다. 여러 가지 증강된 데이터셋의 정확도를 비교한 결과, 증강을 많이 할수록 성능이 증가함을 확인하였다.

Dog-Species Classification through CycleGAN and Standard Data Augmentation

  • Chan, Park;Nammee, Moon
    • Journal of Information Processing Systems
    • /
    • 제19권1호
    • /
    • pp.67-79
    • /
    • 2023
  • In the image field, data augmentation refers to increasing the amount of data through an editing method such as rotating or cropping a photo. In this study, a generative adversarial network (GAN) image was created using CycleGAN, and various colors of dogs were reflected through data augmentation. In particular, dog data from the Stanford Dogs Dataset and Oxford-IIIT Pet Dataset were used, and 10 breeds of dog, corresponding to 300 images each, were selected. Subsequently, a GAN image was generated using CycleGAN, and four learning groups were established: 2,000 original photos (group I); 2,000 original photos + 1,000 GAN images (group II); 3,000 original photos (group III); and 3,000 original photos + 1,000 GAN images (group IV). The amount of data in each learning group was augmented using existing data augmentation methods such as rotating, cropping, erasing, and distorting. The augmented photo data were used to train the MobileNet_v3_Large, ResNet-152, InceptionResNet_v2, and NASNet_Large frameworks to evaluate the classification accuracy and loss. The top-3 accuracy for each deep neural network model was as follows: MobileNet_v3_Large of 86.4% (group I), 85.4% (group II), 90.4% (group III), and 89.2% (group IV); ResNet-152 of 82.4% (group I), 83.7% (group II), 84.7% (group III), and 84.9% (group IV); InceptionResNet_v2 of 90.7% (group I), 88.4% (group II), 93.3% (group III), and 93.1% (group IV); and NASNet_Large of 85% (group I), 88.1% (group II), 91.8% (group III), and 92% (group IV). The InceptionResNet_v2 model exhibited the highest image classification accuracy, and the NASNet_Large model exhibited the highest increase in the accuracy owing to data augmentation.