• 제목/요약/키워드: NASNet

검색결과 9건 처리시간 0.02초

Deep Learning based Scrapbox Accumulated Status Measuring

  • Seo, Ye-In;Jeong, Eui-Han;Kim, Dong-Ju
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.27-32
    • /
    • 2020
  • 본 논문에서는 금속스크랩이 쌓이는 스크랩박스의 적치 상태를 측정하는 알고리즘을 제안한다. 적치 상태 측정 문제를 다중 클래스 분류 문제로 정의하여, 딥러닝 기법을 이용해 스크랩박스 촬영 영상만으로 적치 상태를 구분하도록 하였다. Transfer Learning 방식으로 학습을 진행하였으며, 딥러닝 모델은 NASNet-A를 이용하였다. 더불어 분류 모델의 정확도를 높이기 위해 학습된 NASNet-A에 랜덤포레스트 분류기를 결합하였으며, 후처리를 통해 안전성을 높였다. 현장에서 수집된 4,195개의 데이터로 테스트한 결과 NASNet-A만 적용했을때 정확도 55%를 보였으며, 제안 방식인 Random Forest를 결합한 NASNet은 88%로 향상된 정확도를 달성하였다.

NASNet을 이용한 이미지 시맨틱 분할 성능 개선 (Improved Performance of Image Semantic Segmentation using NASNet)

  • 김형석;류기윤;김래현
    • Korean Chemical Engineering Research
    • /
    • 제57권2호
    • /
    • pp.274-282
    • /
    • 2019
  • 최근 빅데이터 과학은 사회현상 모델링을 통한 예측은 물론 강화학습과 결합하여 산업분야 자동제어까지 응용범위가 확대되고 있다. 이러한 추세 가운데 이미지 영상 데이터 활용연구는 화학, 제조, 농업, 바이오산업 등 다양한 산업분야에서 활발히 진행되고 있다. 본 논문은 신경망 기술을 활용하여 영상 데이터의 시맨틱 분할 성능을 개선하고자, U-Net의 계산효율성을 개선한 DeepU-Net 신경망에 AutoML 강화학습 알고리즘을 구현한 NASNet을 결합하였다. BRATS2015 MRI 데이터을 활용해 성능 검증을 수행하였다. 학습을 수행한 결과 DeepU-Net은 U-Net 신경망 구조보다 계산속도 향상 뿐 아니라 예측 정확도도 동등 이상의 성능이 있음을 확인하였다. 또한 이미지 시맨틱 분할 성능을 개선하기 위해서는 일반적으로 적용하는 드롭아웃 층을 빼고, DeepU-Net에 강화학습을 통해 구한 커널과 필터 수를 신경망의 하이퍼 파라미터로 선정했을 때 DeepU-Net보다 학습정확도는 0.5%, 검증정확도는 0.3% 시맨틱 분할 성능을 개선할 수 있었다. 향후 본 논문에서 시도한 자동화된 신경망을 활용해 MRI 뇌 영상진단은 물론, 열화상 카메라를 통한 이상진단, 비파괴 검사 진단, 화학물질 누출감시, CCTV를 통한 산불감시 등 다양한 분야에 응용될 수 있을 것으로 판단된다.

A Study on the Outlet Blockage Determination Technology of Conveyor System using Deep Learning

  • Jeong, Eui-Han;Suh, Young-Joo;Kim, Dong-Ju
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권5호
    • /
    • pp.11-18
    • /
    • 2020
  • 본 연구는 컨베이어 시스템에서 딥러닝을 이용한 배출구 막힘 판단 기술에 대하여 제안한다. 제안 방법은 산업 현장의 CCTV에서 수집한 영상을 이용하여 배출구 막힘 판단을 위한 다양한 CNN 모델들을 학습시키고, 성능이 가장 좋은 모델을 사용하여 실제 공정에 적용하는 것을 목적으로 한다. CNN 모델로는 잘 알려진 VGGNet, ResNet, DenseNet, 그리고 NASNet을 사용하였으며, 모델 학습과 성능 테스트를 위하여 CCTV에서 수집한 18,000장의 영상을 이용하였다. 다양한 모델에 대한 실험 결과, VGGNet은 99.89%의 정확도와 29.05ms의 처리 시간으로 가장 좋은 성능을 보였으며, 이로부터 배출구 막힘 판단 문제에 VGGNet이 가장 적합함을 확인하였다.

Dog-Species Classification through CycleGAN and Standard Data Augmentation

  • Chan, Park;Nammee, Moon
    • Journal of Information Processing Systems
    • /
    • 제19권1호
    • /
    • pp.67-79
    • /
    • 2023
  • In the image field, data augmentation refers to increasing the amount of data through an editing method such as rotating or cropping a photo. In this study, a generative adversarial network (GAN) image was created using CycleGAN, and various colors of dogs were reflected through data augmentation. In particular, dog data from the Stanford Dogs Dataset and Oxford-IIIT Pet Dataset were used, and 10 breeds of dog, corresponding to 300 images each, were selected. Subsequently, a GAN image was generated using CycleGAN, and four learning groups were established: 2,000 original photos (group I); 2,000 original photos + 1,000 GAN images (group II); 3,000 original photos (group III); and 3,000 original photos + 1,000 GAN images (group IV). The amount of data in each learning group was augmented using existing data augmentation methods such as rotating, cropping, erasing, and distorting. The augmented photo data were used to train the MobileNet_v3_Large, ResNet-152, InceptionResNet_v2, and NASNet_Large frameworks to evaluate the classification accuracy and loss. The top-3 accuracy for each deep neural network model was as follows: MobileNet_v3_Large of 86.4% (group I), 85.4% (group II), 90.4% (group III), and 89.2% (group IV); ResNet-152 of 82.4% (group I), 83.7% (group II), 84.7% (group III), and 84.9% (group IV); InceptionResNet_v2 of 90.7% (group I), 88.4% (group II), 93.3% (group III), and 93.1% (group IV); and NASNet_Large of 85% (group I), 88.1% (group II), 91.8% (group III), and 92% (group IV). The InceptionResNet_v2 model exhibited the highest image classification accuracy, and the NASNet_Large model exhibited the highest increase in the accuracy owing to data augmentation.

상추잎 너비와 길이 예측을 위한 합성곱 신경망 모델 비교 (Comparison of Convolutional Neural Network (CNN) Models for Lettuce Leaf Width and Length Prediction)

  • 송지수;김동석;김효성;정은지;황현정;박재성
    • 생물환경조절학회지
    • /
    • 제32권4호
    • /
    • pp.434-441
    • /
    • 2023
  • 식물의 잎의 크기나 면적을 아는 것은 생장을 예측하고 실내 농장의 생산성의 향상에 중요한 요소이다. 본 연구에서는 상추 잎 사진을 이용해 엽장과 엽폭을 예측할 수 있는 CNN기반 모델을 연구하였다. 데이터의 한계와 과적합 문제를 극복하기 위해 콜백 함수를 적용하고, 모델의 일반화 능력을 향상시키기 위해 K겹교차 검증을 사용했다. 또한 데이터 증강을 통한 학습데이터의 다양성을 높이기 위해 image generator를 사용하였다. 모델 성능을 비교하기 위해 VGG16, Resnet152, NASNetMobile 등 사전학습된 모델을 이용하였다. 그 결과 너비 예측에서 R2 값0.9436, RMSE 0.5659를 기록한 NASNetMobile이 가장 높은 성능을 보였으며 길이 예측에서는 R2 값이 0.9537, RMSE가 0.8713로 나타났다. 최종 모델에는 NASNetMobile 아키텍처, RMSprop 옵티마이저, MSE 손실 함수, ELU 활성화함수가 사용되었다. 모델의 학습 시간은 Epoch당평균73분이 소요되었으며, 상추 잎 사진 한 장을 처리하는 데 평균0.29초가 걸렸다. 본 연구는 실내 농장에서 식물의 엽장과 엽폭을 예측하는 CNN 기반 모델을 개발하였고 이를 통해 단순한 이미지 촬영만으로도 식물의 생장 상태를 신속하고 정확하게 평가할 수 있을 것으로 기대된다. 또한 그 결과는 실시간 양액 조절 등의 적절한 농작업 조치를 하는데 활용됨으로써 농장의 생산성 향상과 자원 효율성을 향상시키는데 기여할 것이다.

Leveraging Deep Learning and Farmland Fertility Algorithm for Automated Rice Pest Detection and Classification Model

  • Hussain. A;Balaji Srikaanth. P
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.959-979
    • /
    • 2024
  • Rice pest identification is essential in modern agriculture for the health of rice crops. As global rice consumption rises, yields and quality must be maintained. Various methodologies were employed to identify pests, encompassing sensor-based technologies, deep learning, and remote sensing models. Visual inspection by professionals and farmers remains essential, but integrating technology such as satellites, IoT-based sensors, and drones enhances efficiency and accuracy. A computer vision system processes images to detect pests automatically. It gives real-time data for proactive and targeted pest management. With this motive in mind, this research provides a novel farmland fertility algorithm with a deep learning-based automated rice pest detection and classification (FFADL-ARPDC) technique. The FFADL-ARPDC approach classifies rice pests from rice plant images. Before processing, FFADL-ARPDC removes noise and enhances contrast using bilateral filtering (BF). Additionally, rice crop images are processed using the NASNetLarge deep learning architecture to extract image features. The FFA is used for hyperparameter tweaking to optimise the model performance of the NASNetLarge, which aids in enhancing classification performance. Using an Elman recurrent neural network (ERNN), the model accurately categorises 14 types of pests. The FFADL-ARPDC approach is thoroughly evaluated using a benchmark dataset available in the public repository. With an accuracy of 97.58, the FFADL-ARPDC model exceeds existing pest detection methods.

전이 학습과 데이터 증강을 이용한 너구리와 라쿤 분류 (Classification of Raccoon dog and Raccoon with Transfer Learning and Data Augmentation)

  • 박동민;조영석;염석원
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.34-41
    • /
    • 2023
  • 최근 인간의 활동 범위가 증가함에 따라 외래종의 유입이 잦아지고 있고 환경에 적응하지 못해 유기된 외래종 중 2020년부터 유해 지정 동물로 지정된 라쿤이 문제가 되고 있다. 라쿤은 국내 토종 너구리와 크기나 생김새가 유사하여 일반적으로 포획하는데 있어서 구분이 필요하다. 이를 해결하기 위해서 이미지 분류에 특화된 CNN 딥러닝 모델인 VGG19, ResNet152V2, InceptionV3, InceptionResNet, NASNet을 사용한다. 학습에 사용할 파라미터는 많은 양의 데이터인 ImageNet으로 미리 학습된 파라미터를 전이 학습하여 이용한다. 너구리와 라쿤 데이터셋에서 동물의 외형적인 특징으로 분류하기 위해서 이미지를 회색조로 변환한 후 밝기를 정규화하였으며, 조정된 데이터셋에 충분한 학습을 위한 데이터를 만들기 위해 좌우 반전, 회전, 확대/축소, 이동을 이용하여 증강 기법을 적용하였다. 증강하지 않은 데이터셋은 FCL을 1층으로, 증강된 데이터셋은 4층으로 구성하여 진행하였다. 여러 가지 증강된 데이터셋의 정확도를 비교한 결과, 증강을 많이 할수록 성능이 증가함을 확인하였다.

결절성 폐암 검출을 위한 상용 및 맞춤형 CNN의 성능 비교 (Performance Comparison of Commercial and Customized CNN for Detection in Nodular Lung Cancer)

  • 박성욱;김승현;임수창;김도연
    • 한국멀티미디어학회논문지
    • /
    • 제23권6호
    • /
    • pp.729-737
    • /
    • 2020
  • Screening with low-dose spiral computed tomography (LDCT) has been shown to reduce lung cancer mortality by about 20% when compared to standard chest radiography. One of the problems arising from screening programs is that large amounts of CT image data must be interpreted by radiologists. To solve this problem, automated detection of pulmonary nodules is necessary; however, this is a challenging task because of the high number of false positive results. Here we demonstrate detection of pulmonary nodules using six off-the-shelf convolutional neural network (CNN) models after modification of the input/output layers and end-to-end training based on publicly databases for comparative evaluation. We used the well-known CNN models, LeNet-5, VGG-16, GoogLeNet Inception V3, ResNet-152, DensNet-201, and NASNet. Most of the CNN models provided superior results to those of obtained using customized CNN models. It is more desirable to modify the proven off-the-shelf network model than to customize the network model to detect the pulmonary nodules.

전이학습 기반 사출 성형품 burr 이미지 검출 시스템 개발 (Development of a transfer learning based detection system for burr image of injection molded products)

  • 양동철;김종선
    • Design & Manufacturing
    • /
    • 제15권3호
    • /
    • pp.1-6
    • /
    • 2021
  • An artificial neural network model based on a deep learning algorithm is known to be more accurate than humans in image classification, but there is still a limit in the sense that there needs to be a lot of training data that can be called big data. Therefore, various techniques are being studied to build an artificial neural network model with high precision, even with small data. The transfer learning technique is assessed as an excellent alternative. As a result, the purpose of this study is to develop an artificial neural network system that can classify burr images of light guide plate products with 99% accuracy using transfer learning technique. Specifically, for the light guide plate product, 150 images of the normal product and the burr were taken at various angles, heights, positions, etc., respectively. Then, after the preprocessing of images such as thresholding and image augmentation, for a total of 3,300 images were generated. 2,970 images were separated for training, while the remaining 330 images were separated for model accuracy testing. For the transfer learning, a base model was developed using the NASNet-Large model that pre-trained 14 million ImageNet data. According to the final model accuracy test, the 99% accuracy in the image classification for training and test images was confirmed. Consequently, based on the results of this study, it is expected to help develop an integrated AI production management system by training not only the burr but also various defective images.