• Title/Summary/Keyword: Image Classification Model

검색결과 707건 처리시간 0.025초

Classification of Alzheimer's Disease with Stacked Convolutional Autoencoder

  • Baydargil, Husnu Baris;Park, Jang Sik;Kang, Do Young
    • 한국멀티미디어학회논문지
    • /
    • 제23권2호
    • /
    • pp.216-226
    • /
    • 2020
  • In this paper, a stacked convolutional autoencoder model is proposed in order to classify Alzheimer's disease with high accuracy in PET/CT images. The proposed model makes use of the latent space representation - which is also called the bottleneck, of the encoder-decoder architecture: The input image is sent through the pipeline and the encoder part, using stacked convolutional filters, extracts the most useful information. This information is in the bottleneck, which then uses Softmax classification operation to classify between Alzheimer's disease, Mild Cognitive Impairment, and Normal Control. Using the data from Dong-A University, the model performs classification in detecting Alzheimer's disease up to 98.54% accuracy.

A Parallel Deep Convolutional Neural Network for Alzheimer's disease classification on PET/CT brain images

  • Baydargil, Husnu Baris;Park, Jangsik;Kang, Do-Young;Kang, Hyun;Cho, Kook
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권9호
    • /
    • pp.3583-3597
    • /
    • 2020
  • In this paper, a parallel deep learning model using a convolutional neural network and a dilated convolutional neural network is proposed to classify Alzheimer's disease with high accuracy in PET/CT images. The developed model consists of two pipelines, a conventional CNN pipeline, and a dilated convolution pipeline. An input image is sent through both pipelines, and at the end of both pipelines, extracted features are concatenated and used for classifying Alzheimer's disease. Complimentary abilities of both networks provide better overall accuracy than single conventional CNNs in the dataset. Moreover, instead of performing binary classification, the proposed model performs three-class classification being Alzheimer's disease, mild cognitive impairment, and normal control. Using the data received from Dong-a University, the model performs classification detecting Alzheimer's disease with an accuracy of up to 95.51%.

딥 러닝 기반의 전이 학습을 이용한 이미지 분류에 관한 연구 ( A Study on Image Classification using Deep Learning-Based Transfer Learning)

  • 서정희
    • 한국전자통신학회논문지
    • /
    • 제18권3호
    • /
    • pp.413-420
    • /
    • 2023
  • 오래전부터 연구자들은 CBIR에 대한 많은 연구로 인해 이미지 검색 분야에 우수한 결과를 제시하였다. 그러나 이미지에 대한 이러한 검색 결과와 사람이 인식하는 결과 사이에 의미적 격차는 여전히 존재한다. 적은 수의 이미지를 사용하여 사람이 인식하는 수준의 이미지를 분류하는 것은 아직까지 어려운 문제이다. 따라서 본 논문은 이미지 검색에서 사람과 검색 시스템의 이미지의 의미적 격차를 최소화하기 위해 딥 러닝 기반의 전이 학습을 이용한 이미지 분류 모델을 제안한다. 실험 결과, 학습 모델의 손실률은 0.2451%, 정확도는 0.8922%로 제안한 이미지 분류 방법의 구현은 원하는 목표를 달성할 수 있었다. 그리고 딥 러닝에서 CNN의 전이 학습 모델 방법이 새로운 데이터를 추가하여 이미지 데이터베이스를 구축하는데 효과적인 결과를 확인할 수 있었다.

Vision Transformer를 활용한 비디오 분류 성능 향상을 위한 Fine-tuning 신경망 (Fine-tuning Neural Network for Improving Video Classification Performance Using Vision Transformer)

  • 이광엽;이지원;박태룡
    • 전기전자학회논문지
    • /
    • 제27권3호
    • /
    • pp.313-318
    • /
    • 2023
  • 본 논문은 Vision Transformer를 기반으로 하는 Video Classification의 성능을 개선하는 방법으로 fine-tuning를 적용한 신경망을 제안한다. 최근 딥러닝 기반 실시간 비디오 영상 분석의 필요성이 대두되고 있다. Image Classification에 사용되는 기존 CNN 모델의 특징상 연속된 Frame에 대한 연관성을 분석하기 어렵다는 단점이 있다. 이와 같은 문제를 Attention 메커니즘이 적용된 Vistion Transformer와 Non-local 신경망 모델을 비교 분석하여 최적의 모델을 찾아 해결하고자 한다. 또한, 전이 학습 방법으로 fine-tuning의 다양한 방법을 적용하여 최적의 fine-tuning 신경망 모델을 제안한다. 실험은 UCF101 데이터셋으로 모델을 학습시킨 후, UTA-RLDD 데이터셋에 전이 학습 방법을 적용하여 모델의 성능을 검증하였다.

손목 관절 단순 방사선 영상에서 딥 러닝을 이용한 전후방 및 측면 영상 분류와 요골 영역 분할 (Classification of Anteroposterior/Lateral Images and Segmentation of the Radius Using Deep Learning in Wrist X-rays Images)

  • 이기표;김영재;이상림;김광기
    • 대한의용생체공학회:의공학회지
    • /
    • 제41권2호
    • /
    • pp.94-100
    • /
    • 2020
  • The purpose of this study was to present the models for classifying the wrist X-ray images by types and for segmenting the radius automatically in each image using deep learning and to verify the learned models. The data were a total of 904 wrist X-rays with the distal radius fracture, consisting of 472 anteroposterior (AP) and 432 lateral images. The learning model was the ResNet50 model for AP/lateral image classification, and the U-Net model for segmentation of the radius. In the model for AP/lateral image classification, 100.0% was showed in precision, recall, and F1 score and area under curve (AUC) was 1.0. The model for segmentation of the radius showed an accuracy of 99.46%, a sensitivity of 89.68%, a specificity of 99.72%, and a Dice similarity coefficient of 90.05% in AP images and an accuracy of 99.37%, a sensitivity of 88.65%, a specificity of 99.69%, and a Dice similarity coefficient of 86.05% in lateral images. The model for AP/lateral classification and the segmentation model of the radius learned through deep learning showed favorable performances to expect clinical application.

Estimation of Heading Date of Paddy Rice from Slanted View Images Using Deep Learning Classification Model

  • Hyeokjin Bak;Hoyoung Ban;SeongryulChang;Dongwon Gwon;Jae-Kyeong Baek;Jeong-Il Cho;Wan-Gyu Sang
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.80-80
    • /
    • 2022
  • Estimation of heading date of paddy rice is laborious and time consuming. Therefore, automatic estimation of heading date of paddy rice is highly essential. In this experiment, deep learning classification models were used to classify two difference categories of rice (vegetative and reproductive stage) based on the panicle initiation of paddy field. Specifically, the dataset includes 444 slanted view images belonging to two categories and was then expanded to include 1,497 images via IMGAUG data augmentation technique. We adopt two transfer learning strategies: (First, used transferring model weights already trained on ImageNet to six classification network models: VGGNet, ResNet, DenseNet, InceptionV3, Xception and MobileNet, Second, fine-tuned some layers of the network according to our dataset). After training the CNN model, we used several evaluation metrics commonly used for classification tasks, including Accuracy, Precision, Recall, and F1-score. In addition, GradCAM was used to generate visual explanations for each image patch. Experimental results showed that the InceptionV3 is the best performing model in terms of the accuracy, average recall, precision, and F1-score. The fine-tuned InceptionV3 model achieved an overall classification accuracy of 0.95 with a high F1-score of 0.95. Our CNN model also represented the change of rice heading date under different date of transplanting. This study demonstrated that image based deep learning model can reliably be used as an automatic monitoring system to detect the heading date of rice crops using CCTV camera.

  • PDF

Bayes의 복합 의사결정모델을 이용한 다중에코 자기공명영상의 context-dependent 분류 (Context-Dependent Classification of Multi-Echo MRI Using Bayes Compound Decision Model)

  • 전준철;권수일
    • Investigative Magnetic Resonance Imaging
    • /
    • 제3권2호
    • /
    • pp.179-187
    • /
    • 1999
  • 목적 : 본 논문은 Bayes의 복합 의사결정모델을 이용한 효과적인 다중에코 자기공명영상의 분류방법을 소개한다. 동질성을 갖는 영역 혹은 경계선부위 등 영역을 명확히 분할하기 위하여 영상 내 국소 부위 이웃시스댐상의 주변정보(contextual information)를 이용한 분류 방법을 제시한다. 대상 및 방법 : 통계학적으로이질적 성분들로 구성된 영상을 대상으로 한 주변정보를 이용한 분류결과는 영상내의 국소적으로 정적인 영역들을이웃화소시스탬 내에서 정의되는 상호작용 인자의 메커니즘에 의해 분리함으로서 개선시킬 수 있다. 영상의 분류과정에서 분류결과의 정확도를 향상시키기 위하여 분류대상화소의 주변화소에 대한 분류패턴을 이용한다면 일반적으로 발생하는 분류의 모호성을 제거한다. 그러한 이유는 특정 화소와 인접한 주변의 데이터는 본질적으로 특정 화소와 상관관계를 내재하고 있으며, 만일 주변데이터의 특성을 파악할수 있다면, 대상화소의 성질을 결정하는데 도움을 얻을 수 있다. 본 논문에서는 분류 대상화소의 주변정보와 Bayes의 복합 의사결정모델을 이용한 context-dependent 분류 방법을 제시한다. 이 모델에서 주변 정보는 국소 부위 이웃시스댐으로부터 전이확률(tran­s sition probability)을 추출하여 화소간의 상관관계의 강도를 결정하는 상호인자 값으로 사용한다. 결과 : 본논문에서는 다중에코자기공명영상의 분류를 위하여 Bayes의 복합 의사결정모델을 이용한 분류방법을 제안하였다. 주변 데이터를 고려하지 않는 context-free 분류 방법에 비하여 특히 동질성을 강는 영역 혹은 경계선 부위 등에서의 분류결과가 우수하게 나타났으며, 이는 주변정보를이용한 결과이다. 결론 : 본 논문에서는클러스터링 분석과 복합 의사결정 Bayes 모델을 이용하여 다중에코 자기공명영상의 분류 결과를 향상시키기 위한 새로운 방법을 소개하였다.

  • PDF

평활화 알고리즘에 따른 자궁경부 분류 모델의 성능 비교 연구 (A Performance Comparison of Histogram Equalization Algorithms for Cervical Cancer Classification Model)

  • 김윤지;박예랑;김영재;주웅;남계현;김광기
    • 대한의용생체공학회:의공학회지
    • /
    • 제42권3호
    • /
    • pp.80-85
    • /
    • 2021
  • We developed a model to classify the absence of cervical cancer using deep learning from the cervical image to which the histogram equalization algorithm was applied, and to compare the performance of each model. A total of 4259 images were used for this study, of which 1852 images were normal and 2407 were abnormal. And this paper applied Image Sharpening(IS), Histogram Equalization(HE), and Contrast Limited Adaptive Histogram Equalization(CLAHE) to the original image. Peak Signal-to-Noise Ratio(PSNR) and Structural Similarity index for Measuring image quality(SSIM) were used to assess the quality of images objectively. As a result of assessment, IS showed 81.75dB of PSNR and 0.96 of SSIM, showing the best image quality. CLAHE and HE showed the PSNR of 62.67dB and 62.60dB respectively, while SSIM of CLAHE was shown as 0.86, which is closer to 1 than HE of 0.75. Using ResNet-50 model with transfer learning, digital image-processed images are classified into normal and abnormal each. In conclusion, the classification accuracy of each model is as follows. 90.77% for IS, which shows the highest, 90.26% for CLAHE and 87.60% for HE. As this study shows, applying proper digital image processing which is for cervical images to Computer Aided Diagnosis(CAD) can help both screening and diagnosing.

An Explainable Deep Learning-Based Classification Method for Facial Image Quality Assessment

  • Kuldeep Gurjar;Surjeet Kumar;Arnav Bhavsar;Kotiba Hamad;Yang-Sae Moon;Dae Ho Yoon
    • Journal of Information Processing Systems
    • /
    • 제20권4호
    • /
    • pp.558-573
    • /
    • 2024
  • Considering factors such as illumination, camera quality variations, and background-specific variations, identifying a face using a smartphone-based facial image capture application is challenging. Face Image Quality Assessment refers to the process of taking a face image as input and producing some form of "quality" estimate as an output. Typically, quality assessment techniques use deep learning methods to categorize images. The models used in deep learning are shown as black boxes. This raises the question of the trustworthiness of the models. Several explainability techniques have gained importance in building this trust. Explainability techniques provide visual evidence of the active regions within an image on which the deep learning model makes a prediction. Here, we developed a technique for reliable prediction of facial images before medical analysis and security operations. A combination of gradient-weighted class activation mapping and local interpretable model-agnostic explanations were used to explain the model. This approach has been implemented in the preselection of facial images for skin feature extraction, which is important in critical medical science applications. We demonstrate that the use of combined explanations provides better visual explanations for the model, where both the saliency map and perturbation-based explainability techniques verify predictions.

딥러닝 모델 기반 위성영상 데이터세트 공간 해상도에 따른 수종분류 정확도 평가 (The Accuracy Assessment of Species Classification according to Spatial Resolution of Satellite Image Dataset Based on Deep Learning Model)

  • 박정묵;심우담;김경민;임중빈;이정수
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1407-1422
    • /
    • 2022
  • 본 연구는 분류(classification)기반 딥러닝 모델(deep learning model)인 Inception과 SENet을 결합한 SE-Inception을 활용하여 수종분류를 수행하고 분류정확도를 평가하였다. 데이터세트의 입력 이미지는 Worldview-3와 GeoEye-1 영상을 활용하였으며, 입력 이미지의 크기는 10 × 10 m, 30 × 30 m, 50 × 50 m로 분할하여 수종 분류정확도를 비교·평가하였다. 라벨(label)자료는 분할된 영상을 시각적으로 해석하여 5개의 수종(소나무, 잣나무, 낙엽송, 전나무, 참나무류)으로 구분한 후, 수동으로 라벨링 작업을 수행하였다. 데이터세트는 총 2,429개의 이미지를 구축하였으며, 그중약 85%는 학습자료로, 약 15%는 검증자료로 활용하였다. 딥러닝 모델을 활용한 수종분류 결과, Worldview-3 영상을 활용하였을 때 최대 약 78%의 전체 정확도를 달성하였으며, GeoEye-1영상을 활용할 때 최대 약 84%의 정확도를 보여 수종분류에 우수한 성능을 보였다. 특히, 참나무류는 입력 이미지크기에 관계없이 F1은 약 85% 이상의 높은 정확도를 보였으나, 소나무, 잣나무와 같이 분광특성이 유사한 수종은 오분류가 다수 발생하였다. 특정 수종에서 위성영상의 분광정보 만으로는 특징량 추출에 한계가 있을 수 있으며, 식생지수, Gray-Level Co-occurrence Matrix (GLCM) 등 다양한 패턴정보가 포함된 이미지를 활용한다면 분류 정확도를 개선할 수 있을 것으로 판단된다.