• 제목/요약/키워드: pretrained model

검색결과 67건 처리시간 0.029초

Transfer-learning-based classification of pathological brain magnetic resonance images

  • Serkan Savas;Cagri Damar
    • ETRI Journal
    • /
    • 제46권2호
    • /
    • pp.263-276
    • /
    • 2024
  • Different diseases occur in the brain. For instance, hereditary and progressive diseases affect and degenerate the white matter. Although addressing, diagnosing, and treating complex abnormalities in the brain is challenging, different strategies have been presented with significant advances in medical research. With state-of-art developments in artificial intelligence, new techniques are being applied to brain magnetic resonance images. Deep learning has been recently used for the segmentation and classification of brain images. In this study, we classified normal and pathological brain images using pretrained deep models through transfer learning. The EfficientNet-B5 model reached the highest accuracy of 98.39% on real data, 91.96% on augmented data, and 100% on pathological data. To verify the reliability of the model, fivefold cross-validation and a two-tier cross-test were applied. The results suggest that the proposed method performs reasonably on the classification of brain magnetic resonance images.

조음장애 아동의 언어학습을 위한 인공지능 애플리케이션 UX/UI 연구 (Artificial intelligence application UX/UI study for language learning of children with articulation disorder)

  • 양은미;박대우
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.174-176
    • /
    • 2022
  • 본 논문에서는인공지능(AI; Artificial Intelligence)알고리즘을 활용한 조음 장애 아동들의 '개인화된 맞춤형 학습' 모바일 애플리케이션을 제시한다. 조음과 관련된 빅데이터(Big Data)를 수집-정제-가공한 데이터 셋(Data Set)으로 학습자의 조음 상황 및 정도를 분석, 판단, 예측한다. 특히, 인공지능 활용 시 기존 애플리케이션에 비해 어떻게 개선되고 고도화할수 있는지를 UX/UI(GUI) 측면에서 바라보고 프로토타입 모델을 설계해 보았다. 지금까지 시각적 경험에 많이 치중해 있었다면, 이제는 데이터를 어떻게 가공하여 사용자에게 UX/UI(GUI) 경험을 제공할 수 있는지가 중요한 시점이다. 제시한 모바일 애플리케이션의 UX/UI(GUI)는 딥러닝(Deep Learning)의 CRNN(Convolution Recurrent Neural Network)과 Auto Encoder GPT-3 (Generative Pretrained Transformer)를 활용하여 학습자의 조음 정도와 상황에 맞게 제공하고자 하였다. 인공지능 알고리즘의 활용은 조음 장애 아동들에게 완성도 높은 학습환경을 제공하여 학습효과를 높일 수 있를 것이다. '개인화된 맞춤형 학습'으로 조음의 완성도를 높여서, 대화에 대한 두려움이나 불편함을 갖지 않길 바란다.

  • PDF

Zero-anaphora resolution in Korean based on deep language representation model: BERT

  • Kim, Youngtae;Ra, Dongyul;Lim, Soojong
    • ETRI Journal
    • /
    • 제43권2호
    • /
    • pp.299-312
    • /
    • 2021
  • It is necessary to achieve high performance in the task of zero anaphora resolution (ZAR) for completely understanding the texts in Korean, Japanese, Chinese, and various other languages. Deep-learning-based models are being employed for building ZAR systems, owing to the success of deep learning in the recent years. However, the objective of building a high-quality ZAR system is far from being achieved even using these models. To enhance the current ZAR techniques, we fine-tuned a pretrained bidirectional encoder representations from transformers (BERT). Notably, BERT is a general language representation model that enables systems to utilize deep bidirectional contextual information in a natural language text. It extensively exploits the attention mechanism based upon the sequence-transduction model Transformer. In our model, classification is simultaneously performed for all the words in the input word sequence to decide whether each word can be an antecedent. We seek end-to-end learning by disallowing any use of hand-crafted or dependency-parsing features. Experimental results show that compared with other models, our approach can significantly improve the performance of ZAR.

준지도 학습과 전이 학습을 이용한 선로 체결 장치 결함 검출 (Detection Fastener Defect using Semi Supervised Learning and Transfer Learning)

  • 이상민;한석민
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.91-98
    • /
    • 2023
  • 오늘날 인공지능 산업이 발전함에 따라 여러 분야에 걸쳐 인공지능을 통한 자동화 및 최적화가 이루어지고 있다. 국내의 철도 분야 또한 지도 학습을 이용한 레일의 결함을 검출하는 연구들을 확인할 수 있다. 그러나 철도에는 레일만이 아닌 다른 구조물들이 존재하며 그중 선로 체결 장치는 레일을 다른 구조물에 결합시켜주는 역할을 하는 장치로 안전사고의 예방을 위해서 주기적인 점검이 필요하다. 본 논문에는 선로 체결 장치의 데이터를 이용하여 준지도 학습(semi-supervised learning)과 전이 학습(transfer learning)을 이용한 분류기를 학습시켜 선로 안전 점검에 사용되는 비용을 줄이는 방안을 제안한다. 사용된 네트워크는 Resnet50이며 imagenet으로 선행 학습된 모델이다. 레이블이 없는 데이터에서 무작위로 데이터를 선정 후 레이블을 부여한 뒤 이를 통해 모델을 학습한다. 학습된 모델의 이용하여 남은 데이터를 예측 후 예측한 데이터 중 클래스 별 확률이 가장 높은 데이터를 정해진 크기만큼 훈련용 데이터에 추가하는 방식을 채택하였다. 추가적으로 초기의 레이블된 데이터의 크기가 끼치는 영향력을 확인해보기 위한 실험을 진행하였다. 실험 결과 최대 92%의 정확도를 얻을 수 있었으며 이는 지도 학습 대비 5% 내외의 성능 차이를 가진다. 이는 제안한 방안을 통해 추가적인 레이블링 과정 없이 비교적 적은 레이블을 이용하여 분류기의 성능을 기존보다 향상시킬 수 있을 것으로 예상된다.

저성능 자원에서 멀티 에이전트 운영을 위한 의도 분류 모델 경량화 (Compressing intent classification model for multi-agent in low-resource devices)

  • 윤용선;강진범
    • 지능정보연구
    • /
    • 제28권3호
    • /
    • pp.45-55
    • /
    • 2022
  • 최근 자연어 처리 분야에서 대규모 사전학습 언어모델(Large-scale pretrained language model, LPLM)이 발전함에 따라 이를 미세조정(Fine-tuning)한 의도 분류 모델의 성능도 개선되었다. 하지만 실시간 응답을 요하는 대화 시스템에서 대규모 모델을 미세조정하는 방법은 많은 운영 비용을 필요로 한다. 이를 해결하기 위해 본 연구는 저성능 자원에서도 멀티에이전트 운영이 가능한 의도 분류 모델 경량화 방법을 제안한다. 제안 방법은 경량화된 문장 인코더를 학습하는 과제 독립적(Task-agnostic) 단계와 경량화된 문장 인코더에 어답터(Adapter)를 부착하여 의도 분류 모델을 학습하는 과제 특화적(Task-specific) 단계로 구성된다. 다양한 도메인의 의도 분류 데이터셋으로 진행한 실험을 통해 제안 방법의 효과성을 입증하였다.

AI Fire Detection & Notification System

  • Na, You-min;Hyun, Dong-hwan;Park, Do-hyun;Hwang, Se-hyun;Lee, Soo-hong
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권12호
    • /
    • pp.63-71
    • /
    • 2020
  • 본 논문에서는 최근 가장 신뢰도 높은 인공지능 탐지 알고리즘인 YOLOv3와 EfficientDet을 이용한 화재 탐지 기술과 문자, 웹, 앱, 이메일 등 4종류의 알림을 동시에 전송하는 알림서비스 그리고 화재 탐지와 알림서비스를 연동하는 AWS 시스템을 제안한다. 우리의 정확도 높은 화재 탐지 알고리즘은 두 종류인데, 로컬에서 작동하는 YOLOv3 기반의 화재탐지 모델은 2000개 이상의 화재 데이터를 이용해 데이터 증강을 통해 학습하였고, 클라우드에서 작동하는 EfficientDet은 사전학습모델(Pretrained Model)에서 추가로 학습(Transfer Learning)을 진행하였다. 4종류의 알림서비스는 AWS 서비스와 FCM 서비스를 이용해 구축하였는데, 웹, 앱, 메일의 경우 알림 전송 직후 알림이 수신되며, 기지국을 거치는 문자시스템의 경우 지연시간이 1초 이내로 충분히 빨랐다. 화재 영상의 화재 탐지 실험을 통해 우리의 화재 탐지 기술의 정확성을 입증하였으며, 화재 탐지 시간과 알림서비스 시간을 측정해 화재 발생 후 알림 전송까지의 시간도 확인해보았다. 본 논문의 AI 화재 탐지 및 알림서비스 시스템은 과거의 화재탐지 시스템들보다 더 정확하고 빨라서 화재사고 시 골든타임 확보에 큰 도움을 줄 것이라고 기대된다.

Multi-channel Long Short-Term Memory with Domain Knowledge for Context Awareness and User Intention

  • Cho, Dan-Bi;Lee, Hyun-Young;Kang, Seung-Shik
    • Journal of Information Processing Systems
    • /
    • 제17권5호
    • /
    • pp.867-878
    • /
    • 2021
  • In context awareness and user intention tasks, dataset construction is expensive because specific domain data are required. Although pretraining with a large corpus can effectively resolve the issue of lack of data, it ignores domain knowledge. Herein, we concentrate on data domain knowledge while addressing data scarcity and accordingly propose a multi-channel long short-term memory (LSTM). Because multi-channel LSTM integrates pretrained vectors such as task and general knowledge, it effectively prevents catastrophic forgetting between vectors of task and general knowledge to represent the context as a set of features. To evaluate the proposed model with reference to the baseline model, which is a single-channel LSTM, we performed two tasks: voice phishing with context awareness and movie review sentiment classification. The results verified that multi-channel LSTM outperforms single-channel LSTM in both tasks. We further experimented on different multi-channel LSTMs depending on the domain and data size of general knowledge in the model and confirmed that the effect of multi-channel LSTM integrating the two types of knowledge from downstream task data and raw data to overcome the lack of data.

Violent crowd flow detection from surveillance cameras using deep transfer learning-gated recurrent unit

  • Elly Matul Imah;Riskyana Dewi Intan Puspitasari
    • ETRI Journal
    • /
    • 제46권4호
    • /
    • pp.671-682
    • /
    • 2024
  • Violence can be committed anywhere, even in crowded places. It is hence necessary to monitor human activities for public safety. Surveillance cameras can monitor surrounding activities but require human assistance to continuously monitor every incident. Automatic violence detection is needed for early warning and fast response. However, such automation is still challenging because of low video resolution and blind spots. This paper uses ResNet50v2 and the gated recurrent unit (GRU) algorithm to detect violence in the Movies, Hockey, and Crowd video datasets. Spatial features were extracted from each frame sequence of the video using a pretrained model from ResNet50V2, which was then classified using the optimal trained model on the GRU architecture. The experimental results were then compared with wavelet feature extraction methods and classification models, such as the convolutional neural network and long short-term memory. The results show that the proposed combination of ResNet50V2 and GRU is robust and delivers the best performance in terms of accuracy, recall, precision, and F1-score. The use of ResNet50V2 for feature extraction can improve model performance.

HeavyRoBERTa: 중공업 특화 사전 학습 언어 모델 (HeavyRoBERTa: Pretrained Language Model for Heavy Industry)

  • 이정두;나승훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.602-604
    • /
    • 2021
  • 최근 자연어 처리 분야에서 사전 학습된 언어 모델은 다양한 응용 태스크에 적용되어 성능을 향상시켰다. 하지만 일반적인 말뭉치로 사전 학습된 언어 모델의 경우 중공업 분야처럼 전문적인 분야의 응용 태스크에서 좋은 성능을 나타내지 못한다. 때문에 본 논문에서는 이러한 문제점을 해결하기 위해 중공업 말뭉치를 이용한 RoBERTa 기반의 중공업 분야에 특화된 언어 모델 HeavyRoBERTa를 제안하고 이를 통해 중공업 말뭉치 상에서 Perplexity와 zero-shot 유의어 추출 태스크에서 성능을 개선시켰다.

  • PDF

사전 학습 모델과 Specific-Abstraction 인코더를 사용한 한국어 의존 구문 분석 (Korean Dependency Parsing using Pretrained Language Model and Specific-Abstraction Encoder)

  • 김봉수;황태선;김정욱;이새벽
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.98-102
    • /
    • 2020
  • 의존 구문 분석은 입력된 문장 내의 어절 간의 의존 관계를 예측하기 위한 자연어처리 태스크이다. 최근에는 BERT와 같은 사전학습 모델기반의 의존 구문 분석 모델이 높은 성능을 보이고 있다. 본 논문에서는 추가적인 성능 개선을 위해 ALBERT, ELECTRA 언어 모델을 형태소 분석과 BPE를 적용해 학습한 후, 인코딩 과정에 사용하였다. 또한 의존소 어절과 지배소 어절의 특징을 specific하게 추상화 하기 위해 두 개의 트랜스포머 인코더 스택을 추가한 의존 구문 분석 모델을 제안한다. 실험결과 제안한 모델이 세종 코퍼스에 대해 UAS 94.77 LAS 94.06의 성능을 보였다.

  • PDF