• 제목/요약/키워드: Deep Learning Dataset

검색결과 776건 처리시간 0.028초

ESCPN을 이용한 초해상화 시 활성화 함수에 따른 이미지 품질의 비교 (Comparison of image quality according to activation function during Super Resolution using ESCPN)

  • 송문혁;송주명;홍연조
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.129-132
    • /
    • 2022
  • 초해상화란 저화질의 이미지를 고화질의 이미지로 변환하는 과정이다. 본 연구에서는 ESPCN 을 이용하여 연구를 진행하였다. 초해상화 심층 신경망에서 각 노드를 거칠 때 가중치를 결정하는 활성화 함수에 따라 같은 입력 데이터를 받더라도 다른 품질의 이미지가 출력될 수 있다. 따라서 활성화 함수 ReLU, ELU, Swish를 적용시켜 같은 입력 이미지에 대한 출력 이미지의 품질을 비교하여 초해상화에 가장 적합한 활성화 함수를 찾는 것이 이 연구의 목적이다. 초해상화를 위한 Dataset은 BSDS500 Dataset을 사용하였으며, 전처리 과정에서 이미지를 정사각형으로 자른 뒤 저화질화 하였다. 저화질화된 이미지는 모델의 입력 이미지에 사용되었고, 원본 이미지는 이후 출력 이미지와 비교하여 평가하는데 사용되었다. 학습 결과 머신 러닝에 주로 쓰이는 ReLU보다는 그 단점이 개선된 ELU, swish가 훈련 시간은 오래 걸렸지만 좋은 성능을 보였다.

  • PDF

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.

딥 러닝 기반 코로나19 흉부 X선 판독 기법 (A COVID-19 Chest X-ray Reading Technique based on Deep Learning)

  • 안경희;엄성용
    • 문화기술의 융합
    • /
    • 제6권4호
    • /
    • pp.789-795
    • /
    • 2020
  • 전 세계적으로 유행하는 코로나19로 인해 많은 사망자가 보고되고 있다. 코로나19의 추가 확산을 막기 위해서는 의심 환자에 대해 신속하고 정확한 영상판독을 한 후, 적절한 조치를 취해야 한다. 이를 위해 본 논문은 환자의 감염 여부를 의료진에게 제공해 영상판독을 보조할 수 있는 딥 러닝 기반 코로나19 흉부 X선 판독 기법을 소개한다. 우선 판독모델을 학습하기 위해서는 충분한 데이터셋이 확보되어야 하는데, 현재 제공하는 코로나19 오픈 데이터셋은 학습의 정확도를 보장하기에 그 영상 데이터 수가 충분하지 않다. 따라서 누적 적대적 생성 신경망(StackGAN++)을 사용해 인공지능 학습 성능을 저하하는 영상 데이터 수적 불균형 문제를 해결하였다. 다음으로 판독모델 개발을 위해 증강된 데이터셋을 사용하여 DenseNet 기반 분류모델 학습을 진행하였다. 해당 분류모델은 정상 흉부 X선과 코로나 19 흉부 X선 영상을 이진 분류하는 모델로, 실제 영상 데이터 일부를 테스트데이터로 사용하여 모델의 성능을 평가하였다. 마지막으로 설명 가능한 인공지능(eXplainable AI, XAI) 중 하나인 Grad-CAM을 사용해 입력 영상의 질환유무를 판단하는 근거를 제시하여 모델의 신뢰성을 확보하였다.

대형 사전훈련 모델의 파인튜닝을 통한 강건한 한국어 음성인식 모델 구축 (Building robust Korean speech recognition model by fine-tuning large pretrained model)

  • 오창한;김청빈;박기영
    • 말소리와 음성과학
    • /
    • 제15권3호
    • /
    • pp.75-82
    • /
    • 2023
  • 자동 음성 인식(automatic speech recognition, ASR)은 딥러닝 기반 접근 방식으로 혁신되었으며, 그중에서도 자기 지도 학습 방법이 특히 효과적일 수 있음이 입증되고 있다. 본 연구에서는 다국어 ASR 시스템인 OpenAI의 Whisper 모델의 한국어 성능을 향상시키는 것을 목표하여 다국어 음성인식 시스템에서의 비주류 언어의 성능 문제를 개선하고자 한다. Whisper는 대용량 웹 음성 데이터 코퍼스(약 68만 시간)에서 사전 학습되었으며 주요 언어에 대한 강력한 인식 성능을 입증했다. 그러나 훈련 중 주요 언어가 아닌 한국어와 같은 언어를 인식하는 데 어려움을 겪을 수 있다. 우리는 약 1,000시간의 한국어 음성으로 구성된 추가 데이터 세트로 Whisper 모델을 파인튜닝하여 이 문제를 해결한다. 또한 동일한 데이터 세트를 사용하여 전체 훈련된 Transformer 모델을 베이스 라인으로 선정하여 성능을 비교한다. 실험 결과를 통해 Whisper 모델을 파인튜닝하면 문자 오류율(character error rate, CER) 측면에서 한국어 음성 인식 기능이 크게 향상되었음을 확인할 수 있다. 특히 모델 크기가 증가함에 따라 성능이 향상되는 경향을 포착하였다. 그러나 Whisper 모델의 영어 성능은 파인튜닝 후 성능이 저하됨을 확인하여 강력한 다국어 모델을 개발하기 위한 추가 연구의 필요성을 확인할 수 있었다. 추가적으로 우리의 연구는 한국어 음성인식 애플리케이션에 파인튜닝된 Whisper 모델을 활용할 수 있는 가능성을 확인할 수 있다. 향후 연구는 실시간 추론을 위한 다국어 인식과 최적화에 초점을 맞춰 실용적 연구를 이어갈 수 있겠다.

반려견 자동 품종 분류를 위한 전이학습 효과 분석 (Analysis of Transfer Learning Effect for Automatic Dog Breed Classification)

  • 이동수;박구만
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.133-145
    • /
    • 2022
  • 국내에서 지속적으로 증가하는 반려견 인구 및 산업 규모에 비해 이와 관련한 데이터의 체계적인 분석이나 품종 분류 방법 연구 등은 매우 부족한 실정이다. 본 논문에서는 국내에서 양육되는 반려견의 주요 14개 품종에 대해 딥러닝 기술을 이용한 자동 품종 분류 방법을 수행하였다. 이를 위해 먼저 딥러닝 학습을 위한 반려견 이미지를 수집하고 데이터셋을 구축하였으며, VGG-16 및 Resnet-34를 백본 네트워크로 사용하는 전이학습을 각각 수행하여 품종 분류 알고리즘을 만들었다. 반려견 이미지에 대한 두 모델의 전이학습 효과를 확인하기 위해, Pre-trained 가중치를 사용한 것과 가중치를 업데이트하는 실험을 수행하여 비교하였으며, VGG-16 기반으로 fine tuning을 수행했을 때, 최종 모델에서 Top 1 정확도는 약 89%, Top 3 정확도는 약 94%의 정확도 성능을 각각 얻을수 있었다. 본 논문에서 제안하는 국내의 주요 반려견 품종 분류 방법 및 데이터 구축은 동물보호센터에서의 유기·유실견 품종 구분이나 사료 산업체에서의 활용 등 여러가지 응용 목적으로도 활용될 수 있는 가능성을 가지고 있다.

CycleGAN을 활용한 항공영상 학습 데이터 셋 보완 기법에 관한 연구 (A Study on the Complementary Method of Aerial Image Learning Dataset Using Cycle Generative Adversarial Network)

  • 최형욱;이승현;김형훈;서용철
    • 한국측량학회지
    • /
    • 제38권6호
    • /
    • pp.499-509
    • /
    • 2020
  • 본 연구에서는 최근 영상판독 분야에서 활발히 연구되고, 활용성이 발전하고 있는 인공지능 기반 객체분류 학습 데이터 구축에 관한 내용을 다룬다. 영상판독분야에서 인공지능을 활용하여 정확도 높은 객체를 인식, 추출하기 위해서는 알고리즘에 적용할 많은 양의 학습데이터가 필수적으로 요구된다. 하지만, 현재 공동활용 가능한 데이터 셋이 부족할 뿐만 아니라 데이터 생성을 위해서는 많은 시간과 인력 및 고비용을 필요로 하는 것이 현실이다. 따라서 본 연구에서는 소량의 초기 항공영상 학습데이터를 GAN (Generative Adversarial Network) 기반의 생성기 신경망을 활용하여 오버샘플 영상 학습데이터를 구축하고, 품질을 평가함으로써 추가적 학습 데이터 셋으로 활용하기 위한 실험을 진행하였다. GAN을 이용하여 오버샘플 학습데이터를 생성하는 기법은 딥러닝 성능에 매우 중요한 영향을 미치는 학습데이터의 양을 획기적으로 보완할 수 있으므로 초기 데이터가 부족한 경우에 효과적으로 활용될 수 있을 것으로 기대한다.

딥러닝 기술 기반 HEVC로 압축된 영상의 이중 압축 검출 기술 (Deep Learning based HEVC Double Compression Detection)

  • 우딘 쿠툽;양윤모;오병태
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.1134-1142
    • /
    • 2019
  • 영상의 이중 압축 검출은 영상의 위조여부를 판단하는 한가지 효과적인 방식이다. 이러한 이중 압축 검출 기술을 바탕으로 HEVC로 압축된 영상의 진위 여부를 판단하는 다양한 종류의 기존 기술들이 소개되었지만, 동일한 압축 환경에서 이중 압축된 영상의 진위 여부를 검출하는 것은 상당히 어려운 일로 여겨지고 있다. 본 논문에서는 동일 압축 환경에서 HEVC의 이중압축 여부를 판단하는 기술로서, Intra모드로 압축된 영상의 분할 정보를 이용하여 판단하는 방식을 제안한다. Coding Unit (CU)와 Transform Unit (TU)의 분할 정보로부터 통계적 특징과 딥러닝 네트워크 기반의 특징을 우선 추출하고, softmax단에서 추출된 특징들을 통합하여 이중 압축 여부를 판단하는 기술을 제안한다. 실험결과를 통해서 제안하고 있는 기술이 WVGA 영상과 HD 영상에서 각각 87.5%와 84.1%의 정확도를 가지며 효과적으로 검출한다는 것을 보여준다,

허밍: DeepJ 구조를 이용한 이미지 기반 자동 작곡 기법 연구 (Humming: Image Based Automatic Music Composition Using DeepJ Architecture)

  • 김태헌;정기철;이인성
    • 한국멀티미디어학회논문지
    • /
    • 제25권5호
    • /
    • pp.748-756
    • /
    • 2022
  • Thanks to the competition of AlphaGo and Sedol Lee, machine learning has received world-wide attention and huge investments. The performance improvement of computing devices greatly contributed to big data processing and the development of neural networks. Artificial intelligence not only imitates human beings in many fields, but also seems to be better than human capabilities. Although humans' creation is still considered to be better and higher, several artificial intelligences continue to challenge human creativity. The quality of some creative outcomes by AI is as good as the real ones produced by human beings. Sometimes they are not distinguishable, because the neural network has the competence to learn the common features contained in big data and copy them. In order to confirm whether artificial intelligence can express the inherent characteristics of different arts, this paper proposes a new neural network model called Humming. It is an experimental model that combines vgg16, which extracts image features, and DeepJ's architecture, which excels in creating various genres of music. A dataset produced by our experiment shows meaningful and valid results. Different results, however, are produced when the amount of data is increased. The neural network produced a similar pattern of music even though it was a different classification of images, which was not what we were aiming for. However, these new attempts may have explicit significance as a starting point for feature transfer that will be further studied.

Malware Detection Using Deep Recurrent Neural Networks with no Random Initialization

  • Amir Namavar Jahromi;Sattar Hashemi
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.177-189
    • /
    • 2023
  • Malware detection is an increasingly important operational focus in cyber security, particularly given the fast pace of such threats (e.g., new malware variants introduced every day). There has been great interest in exploring the use of machine learning techniques in automating and enhancing the effectiveness of malware detection and analysis. In this paper, we present a deep recurrent neural network solution as a stacked Long Short-Term Memory (LSTM) with a pre-training as a regularization method to avoid random network initialization. In our proposal, we use global and short dependencies of the inputs. With pre-training, we avoid random initialization and are able to improve the accuracy and robustness of malware threat hunting. The proposed method speeds up the convergence (in comparison to stacked LSTM) by reducing the length of malware OpCode or bytecode sequences. Hence, the complexity of our final method is reduced. This leads to better accuracy, higher Mattews Correlation Coefficients (MCC), and Area Under the Curve (AUC) in comparison to a standard LSTM with similar detection time. Our proposed method can be applied in real-time malware threat hunting, particularly for safety critical systems such as eHealth or Internet of Military of Things where poor convergence of the model could lead to catastrophic consequences. We evaluate the effectiveness of our proposed method on Windows, Ransomware, Internet of Things (IoT), and Android malware datasets using both static and dynamic analysis. For the IoT malware detection, we also present a comparative summary of the performance on an IoT-specific dataset of our proposed method and the standard stacked LSTM method. More specifically, of our proposed method achieves an accuracy of 99.1% in detecting IoT malware samples, with AUC of 0.985, and MCC of 0.95; thus, outperforming standard LSTM based methods in these key metrics.

Enhanced Sign Language Transcription System via Hand Tracking and Pose Estimation

  • Kim, Jung-Ho;Kim, Najoung;Park, Hancheol;Park, Jong C.
    • Journal of Computing Science and Engineering
    • /
    • 제10권3호
    • /
    • pp.95-101
    • /
    • 2016
  • In this study, we propose a new system for constructing parallel corpora for sign languages, which are generally under-resourced in comparison to spoken languages. In order to achieve scalability and accessibility regarding data collection and corpus construction, our system utilizes deep learning-based techniques and predicts depth information to perform pose estimation on hand information obtainable from video recordings by a single RGB camera. These estimated poses are then transcribed into expressions in SignWriting. We evaluate the accuracy of hand tracking and hand pose estimation modules of our system quantitatively, using the American Sign Language Image Dataset and the American Sign Language Lexicon Video Dataset. The evaluation results show that our transcription system has a high potential to be successfully employed in constructing a sizable sign language corpus using various types of video resources.