• Title/Summary/Keyword: Resnet

Search Result 60, Processing Time 0.028 seconds

Malware Classification Schemes Based on CNN Using Images and Metadata (이미지와 메타데이터를 활용한 CNN 기반의 악성코드 패밀리 분류 기법)

  • Lee, Song Yi;Moon, Bongkyo;Kim, Juntae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.212-215
    • /
    • 2021
  • 본 논문에서는 딥러닝의 CNN(Convolution Neural Network) 학습을 통하여 악성코드를 실행시키지 않고서 악성코드 변종을 패밀리 그룹으로 분류하는 방법을 연구한다. 먼저 데이터 전처리를 통해 3가지의 서로 다른 방법으로 악성코드 이미지와 메타데이터를 생성하고 이를 CNN으로 학습시킨다. 첫째, 악성코드의 byte 파일을 8비트 gray-scale 이미지로 시각화하는 방법이다. 둘째, 악성코드 asm 파일의 opcode sequence 정보를 추출하고 이를 이미지로 변환하는 방법이다. 셋째, 악성코드 이미지와 메타데이터를 결합하여 분류에 적용하는 방법이다. 이미지 특징 추출을 위해서는 본고에서 제안한 CNN을 통한 학습 방식과 더불어 3개의 Pre-trained된 CNN 모델을 (InceptionV3, Densnet, Resnet-50) 사용하여 전이학습을 진행한다. 전이학습 시에는 마지막 분류 레이어층에서 본 논문에서 선택한 데이터셋에 대해서만 학습하도록 파인튜닝하였다. 결과적으로 가공된 악성코드 데이터를 적용하여 9개의 악성코드 패밀리로 분류하고 예측 정확도를 측정해 비교 분석한다.

ResNet Model Based Real Life Sound Event Prediction and Notification Application (ResNet 모델을 이용한 일상생활 소리 예측 및 알림 애플리케이션)

  • Park, Yu-Jin;Chung, Eun-Ee;Shin, Ji-Hye;Park, Tae-jung;Yang, Hoi Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.1004-1007
    • /
    • 2020
  • 본 논문에서는 청각 장애인이 가정에서 듣지 못해 발생하는 낭비와 위험을 미리 예방하기 위하여 가정에서 현재 발생하고 있는 소리를 알려주는 시스템을 구현하였다. 무지향성 마이크로 일상 소리 감지 후 음향 데이터에서 Mel-Spectogram 특징 벡터를 추출하여 Convolutional Neural Network(CNN) 모델의 Resnet 알고리즘을 진행한다. 서버에서 소리에 대한 분석을 진행한 후 그 결과를 안드로이드에서 실시간으로 5 초마다 확인하여 사용자에게 알림 서비스를 제공한다. 이를 통해 낭비를 줄이고 위험에 대처할 수 있게 한다. 청각 장애인의 소리에 대한 접근성을 다양한 측면으로 고려해야 한다는 사회적 인식을 확산시키고자 한다.

얼굴인식기반 범죄수사 시스템

  • Park, Guman;Choi, Inho;Yun, Seongbin
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.351-353
    • /
    • 2020
  • 급변하는 현대사회에서 각종 범죄가 고도로 지능화, 전문화 되고 있을 뿐 만 아니라 매년 범죄율이 증가하고 있다. 범죄수사에서 범죄자를 검거하기 위해서는 '골든 타임'인 초기 단계가 가장 중요하다. 따라서 CCTV를 일일이 돌려보던 기존의 비효율적인 수사방식이 아닌, 얼굴인식기술을 활용해 골든타임 안에 범죄자를 검거 할 수 있도록 도와주는 얼굴인식기반 범죄수사 시스템을 제안한다. 얼굴인식 프로그램을 사용하여 CCTV 영상 속 범죄자가 있다면, 곧바로 얼굴을 인식해 표시 해줌으로써 단시간 안에 범죄자의 이동경로를 파악한다. 이후 이동경로 및 수사정보를 웹페이지를 통해 다른 경찰관들과 공유해 범죄자를 빠르게 검거하는 시스템을 제작하였다. 제작과정에서 얼굴인식관련 기술은 Deep Metric CNN(triplet), Resnet, Knn classification을 사용해 python으로 구현하였다. 통신을 위한 웹서버는 Bitnami를 통해 구축했으며, NAT, DHCP, Port Fowarding 기술을 사용했다. 마지막으로 웹페이지는 HTML, PHP, CSS 등을 통해 제작해 수사정보를 주고 받을 수 있게 제작하였다.

  • PDF

Intra-Class Random Erasing (ICRE) augmentation for audio classification

  • Kumar, Teerath;Park, Jinbae;Bae, Sung-Ho
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.244-247
    • /
    • 2020
  • Data augmentation has been helpful in improving the performance in deep learning, when we have a limited data and random erasing is one of the augmentations that have shown impressive performance in deep learning in multiple domains. But the main issue is that sometime it loses good features when randomly selected region is erased by some random values, that does not improve performance as it should. We target that problem in way that good features should not be lost and also want random erasing at the same time. For that purpose, we introduce new augmentation technique named Intra-Class Random Erasing (ICRE) that focuses on data to learn robust features of the same class samples by randomly exchanging randomly selected region. We perform multiple experiments by using different models including resnet18, VGG16 over variety of the datasets including ESC10, UrbanSound8K. Our approach has shown effectiveness over others methods including random erasing.

  • PDF

A Segmentation Guided Coarse to Fine Virtual Try-on Network for a new Clothing and Pose

  • Sandagdorj, Dashdorj;Tuan, Thai Thanh;Ahn, Heejune
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.33-36
    • /
    • 2020
  • Virtual try on is getting interested from researchers these days because its application in online shopping. But single pose virtual try on is not enough, customer may want to see themselves in different pose. Multiple pose virtual try on is getting input as customer image, an in-shop cloth and a target pose, it will try to generate realistic customer wearing the in-shop cloth with the target pose. We first generate the target segmentation layout using conditional generative network (cGAN), and then the in-shop cloth are warped to fit the customer body in target pose. Finally, all the result will be combine using a Resnet-like network. We experiment and show that our method outperforms stage of the art.

  • PDF

Digital Twin Classroom using 360 Camera (360 카메라를 이용한 디지털 트윈 강의실)

  • Yoo, Hyeontae;Kim, Jinho;Kim, Yoosung;Park, Inkyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.232-234
    • /
    • 2021
  • 본 논문에서는 딥러닝 얼굴 인식을 이용하여 실시간 360 공간 Classroom 과 실시간을 기반으로 한 가상 360 공간 Classroom 을 제안한다. MTCNN 을 이용한 얼굴 검출 및 Inception Resnet V1 모델을 이용한 딥러닝 기법을 통해 얼굴인식을 진행하고 HSV 색공간 기반의 화자 판별, 아바타 Rendering, 출석 체크 등을 진행한다. 이후 시각화를 위해 제작한 Web UI/UX 를 통해 사용자에게 현실과 가상 공간을 넘나드는 Twin Classroom 을 제공한다. 따라서 사용자는 새로운 화상 교육 플랫폼에서 보다 개선되고 생동감 있는 Classroom 에서 교육을 받을 수 있다.

  • PDF

Development of Plum-Diseases Diagnosis Application Using Transfer Learning (전이학습을 활용한 매실 병충해 진단 어플리케이션 개발)

  • Jeong, Chan-Hyeok;Lee, Sang-Cheol;Seo, Hyeon-Keun;Park, Dong-Ho;Shin, Changsun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.873-876
    • /
    • 2020
  • 매실의 병충해 이미지를 Tensorflow hub에서 제공하는 Resnet50모델에 Transfer Learning기법을 이용하여 학습시키고, 학습된 모델을 Flask를 이용하여 연동시킨다. 이렇게 완성된 웹앱은 사용자가 매실의 이미지를 업로드 하면, 어떤 병충해를 가지고 있는 지 알려주며, 사용자는 얻은 결과를 통해 육안으로 구분하기 어려운 병충해의 정보를 얻어 매실이 손상이 가는 것을 예방할 수 있다.

Verification Method for Machine Learning Based On Video Extraction ImageFiles (동영상 추출 이미지파일을 이용한 머신러닝 검증 방법)

  • Jeo, Ja-Sam;Jeo, Ja-E
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.33-35
    • /
    • 2020
  • 이전 연구에 존재했던 영상에서 이미지를 추출하여 학습 데이터로 사용 할 때 시계열성을 고려하지 않은 상태에서의 검증은 정확하지 않을 수 있음을 설명한다. 정확한 형체를 가진 물체의 경우 매 프레임 마다 일정한 모양을 유지할 가능성이 크지만, 기체나 액체처럼 유동성이 큰 형태를 분사 혹은 방류 할 때 순간적인 간섭 혹은 분산에 의해 실제 값이 분사 량 혹은 방류량과 다를 수 있다. 본 연구에서는 이전 연구 중 Yolov3와 youtube 영상을 이용하여 연기 형태를 추출하고, 이를 Resnet에 학습시킨 연구를 이용하여 이와 비슷한 사례의 연구에서 나타날 수 있는 검증 오류들을 설명한다.

  • PDF

A Vibration Signal-based Deep Learning Model for Bearing Diagnosis (베어링 진단을 위한 진동 신호 기반의 딥러닝 모델)

  • Park, SuYeon;Kim, Jaekwang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1232-1235
    • /
    • 2022
  • 최근 자동차, 철도차량 등 사용자가 있는 기계 시스템에서의 고장 발생 시 사용자의 안전과 관련된 사고로 이어질 수 있어 부품에 대한 모니터링 및 고장 여부 판단은 매우 중요하다. 이러한 부품 중에서 베어링은 회전체와 회전하지 않는 물체 사이에서 회전이 원활하게 이루어질 수 있도록 하는 부품인데, 베어링에 결함이 발생하게 될 경우, 기계 시스템이 정지하거나, 마찰 열에 의해 화재 등의 치명적인 위험이 발생한다. 본 논문에서는 Resnet과 오토인코더를 활용하여 진동 신호 기반의 베어링의 고장을 감지하고 분류할 수 있는 모델을 제안한다. 제안 방법은 raw data를 이미지로 변환하여 입력으로 사용하는데, 이러한 접근을 통해 수집된 데이터의 손실을 최소화하고 데이터가 가지는 정보를 최대한 분석에 활용할 수 있다. 제안 모델의 검증을 위하여 공개된 데이터셋으로 학습/검증 하였고, 제안 방법이 기존 방법과 비교하여 더 높은 F1 Score와 정확도를 보임을 확인하였다.

  • PDF

A Two-Stage Learning Method of CNN and K-means RGB Cluster for Sentiment Classification of Images (이미지 감성분류를 위한 CNN과 K-means RGB Cluster 이-단계 학습 방안)

  • Kim, Jeongtae;Park, Eunbi;Han, Kiwoong;Lee, Junghyun;Lee, Hong Joo
    • Journal of Intelligence and Information Systems
    • /
    • v.27 no.3
    • /
    • pp.139-156
    • /
    • 2021
  • The biggest reason for using a deep learning model in image classification is that it is possible to consider the relationship between each region by extracting each region's features from the overall information of the image. However, the CNN model may not be suitable for emotional image data without the image's regional features. To solve the difficulty of classifying emotion images, many researchers each year propose a CNN-based architecture suitable for emotion images. Studies on the relationship between color and human emotion were also conducted, and results were derived that different emotions are induced according to color. In studies using deep learning, there have been studies that apply color information to image subtraction classification. The case where the image's color information is additionally used than the case where the classification model is trained with only the image improves the accuracy of classifying image emotions. This study proposes two ways to increase the accuracy by incorporating the result value after the model classifies an image's emotion. Both methods improve accuracy by modifying the result value based on statistics using the color of the picture. When performing the test by finding the two-color combinations most distributed for all training data, the two-color combinations most distributed for each test data image were found. The result values were corrected according to the color combination distribution. This method weights the result value obtained after the model classifies an image's emotion by creating an expression based on the log function and the exponential function. Emotion6, classified into six emotions, and Artphoto classified into eight categories were used for the image data. Densenet169, Mnasnet, Resnet101, Resnet152, and Vgg19 architectures were used for the CNN model, and the performance evaluation was compared before and after applying the two-stage learning to the CNN model. Inspired by color psychology, which deals with the relationship between colors and emotions, when creating a model that classifies an image's sentiment, we studied how to improve accuracy by modifying the result values based on color. Sixteen colors were used: red, orange, yellow, green, blue, indigo, purple, turquoise, pink, magenta, brown, gray, silver, gold, white, and black. It has meaning. Using Scikit-learn's Clustering, the seven colors that are primarily distributed in the image are checked. Then, the RGB coordinate values of the colors from the image are compared with the RGB coordinate values of the 16 colors presented in the above data. That is, it was converted to the closest color. Suppose three or more color combinations are selected. In that case, too many color combinations occur, resulting in a problem in which the distribution is scattered, so a situation fewer influences the result value. Therefore, to solve this problem, two-color combinations were found and weighted to the model. Before training, the most distributed color combinations were found for all training data images. The distribution of color combinations for each class was stored in a Python dictionary format to be used during testing. During the test, the two-color combinations that are most distributed for each test data image are found. After that, we checked how the color combinations were distributed in the training data and corrected the result. We devised several equations to weight the result value from the model based on the extracted color as described above. The data set was randomly divided by 80:20, and the model was verified using 20% of the data as a test set. After splitting the remaining 80% of the data into five divisions to perform 5-fold cross-validation, the model was trained five times using different verification datasets. Finally, the performance was checked using the test dataset that was previously separated. Adam was used as the activation function, and the learning rate was set to 0.01. The training was performed as much as 20 epochs, and if the validation loss value did not decrease during five epochs of learning, the experiment was stopped. Early tapping was set to load the model with the best validation loss value. The classification accuracy was better when the extracted information using color properties was used together than the case using only the CNN architecture.