• Title/Summary/Keyword: 하이퍼파라미터

Search Result 72, Processing Time 0.036 seconds

A study on hyperparameters optimization of LSTM model for improving flood level prediction accuracy (하천 홍수위 예측 정확도 개선을 위한 LSTM 모형의 하이퍼파라미터 최적화 연구)

  • Jaewon Jung;Sooyoung Kim;Hyung-Jun Kim;Kwang Seok Yoon
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.415-415
    • /
    • 2023
  • 홍수는 일반적으로 많은 피해와 인명 손실을 초래하는 자연재해 중 하나로, 홍수위 예측은 이를 방지하고 대처하는 데 중요한 역할을 한다. 최근 기계학습 기술을 이용하여 홍수위 예측 모델을 개발하고자 하는 연구가 많이 진행되고 있다. 특히, LSTM(long short-term memory) 모형은 시계열 예측에 대해 검증된 모형으로 홍수위 예측 연구에도 활발하게 적용되고 있다. 하지만 기계학습 모델의 학습 성능은 하이퍼파라미터의 값에 영향을 크게 받을 수 있으며, 특히 집중호우로 인해 수위가 급변하는 경우에는 과거 시계열 자료에 영향을 받는 LSTM 모형의 예측 성능이 오히려 낮게 나타날 수 있다. 따라서 본 연구에서는 홍수위 예측시 LSTM 모형의 예측 성능을 향상시킬 수 있는 세부 하이퍼파라미터 값을 분석하여 최적의 하이퍼파라미터 조합을 제안하고자 한다. 이를 위해 하이퍼파라미터 조정을 위한 자동화 도구인 W&B(Weights&Bias)의 Sweep 기능을 적용하고자 한다. 본 연구를 통해 LSTM 모형을 적용한 홍수위 예측의 정확도를 향상시키는 데에 기여할 수 있을 것으로 기대된다.

  • PDF

Hyperparameter Optimization for Image Classification in Convolutional Neural Network (합성곱 신경망에서 이미지 분류를 위한 하이퍼파라미터 최적화)

  • Lee, Jae-Eun;Kim, Young-Bong;Kim, Jong-Nam
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.21 no.3
    • /
    • pp.148-153
    • /
    • 2020
  • In order to obtain high accuracy with an convolutional neural network(CNN), it is necessary to set the optimal hyperparameters. However, the exact value of the hyperparameter that can make high performance is not known, and the optimal hyperparameter value is different based on the type of the dataset, therefore, it is necessary to find it through various experiments. In addition, since the range of hyperparameter values is wide and the number of combinations is large, it is necessary to find the optimal values of the hyperparameters after the experimental design in order to save time and computational costs. In this paper, we suggest an algorithm that use the design of experiments and grid search algorithm to determine the optimal hyperparameters for a classification problem. This algorithm determines the optima values of the hyperparameters that yields high performance using the factorial design of experiments. It is shown that the amount of computational time can be efficiently reduced and the accuracy can be improved by performing a grid search after reducing the search range of each hyperparameter through the experimental design. Moreover, Based on the experimental results, it was shown that the learning rate is the only hyperparameter that has the greatest effect on the performance of the model.

Hyperparameter Optimization of Autonomous Driving exploiting Piece and Conquer Fireworks Algorithm (Piece and Conquer Fireworks 알고리즘을 이용한 자율주행 알고리즘 하이퍼파라미터 최적화 기법)

  • MyeongJun Kim;Gun-Woo Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.365-366
    • /
    • 2023
  • 본 논문은 F1TENTH 와 같은 자율주행 경주 대회를 위한 고전적인 자율주행 알고리즘의 파라미터 최적화에 관한 연구를 다룬다. 고전적인 자율주행 알고리즘은 하이퍼파라미터의 영향을 크게 받고 더 나아가서 하이퍼파라미터의 설정에 따라서 성능의 차이가 크다. 이 하이퍼파라미터를 빠르게 찾기 위하여 Piece and Conquer Fireworks 방법을 제안한다. 결과적으로Random search에 비해서 일반 Fireworks알고리즘은 약8.3배, Piece and Conquer Fireworks알고리즘은 약 28.5배 빠른 성능을 보여준다.

Analysis of Accuracy and Loss Performance According to Hyperparameter in RNN Model (RNN모델에서 하이퍼파라미터 변화에 따른 정확도와 손실 성능 분석)

  • Kim, Joon-Yong;Park, Koo-Rack
    • Journal of Convergence for Information Technology
    • /
    • v.11 no.7
    • /
    • pp.31-38
    • /
    • 2021
  • In this paper, in order to obtain the optimization of the RNN model used for sentiment analysis, the correlation of each model was studied by observing the trend of loss and accuracy according to hyperparameter tuning. As a research method, after configuring the hidden layer with LSTM and the embedding layer that are most optimized to process sequential data, the loss and accuracy of each model were measured by tuning the unit, batch-size, and embedding size of the LSTM. As a result of the measurement, the loss was 41.9% and the accuracy was 11.4%, and the trend of the optimization model showed a consistently stable graph, confirming that the tuning of the hyperparameter had a profound effect on the model. In addition, it was confirmed that the decision of the embedding size among the three hyperparameters had the greatest influence on the model. In the future, this research will be continued, and research on an algorithm that allows the model to directly find the optimal hyperparameter will continue.

Utility of Deep Learning Model for Improving Dam and Reservoir Operation: A Case Study of Seonjin River Dam (섬진강 댐의 수문학적 예측을 위한 딥러닝 모델 활용)

  • Lee, Eunmi;Kam, Jonghun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.483-483
    • /
    • 2022
  • 댐과 저수지의 운영 최적화를 위한 수문학적 예보는 현재 수동적인 댐 운영이 주를 이루면서 활용도가 높지 않다. 불확실한 기후변화나 기후재난 상황에서 우리 사회에 악영향을 최소화하기 위해 선제적으로 대응/대비할 수 있는 댐 운영 방안이 불가피하다. 강우량 예측 기술은 기후변화로 인해 제한적인 상황이다. 실례로, 2020년 8월에 섬진강의 댐이 극심한 집중 강우로 인해 무너지는 사태가 발생하였고 이로 인해 지역사회에 막대한 경제적 피해가 발생하였다. 선제적 댐 방류량 운영 기술은 또한 환경적인 변화로 인한 영향을 완화하기 위해 필요한 것이다. 제한적인 기상 예보 기술을 극복하고자 심화학습이나 강화학습 같은 인공지능 모델들의 활용성에 대한 연구가 시도되고 있다. 따라서 본 연구는 섬진강 댐의 시간당 수문 데이터를 이용하여 댐 운영을 위한 심화학습 모델을 개발하고 그 활용도를 평가하였다. 댐 운영을 위한 심화학습 모델로서 시계열 데이터 예측에 적합한 Long Sort Term Memory(LSTM)과 Gated Recurrent Unit(GRU) 알고리즘을 구축하고 댐 수위를 예측하였다. 분석 자료는 WAMIS에서 제공하는 2000년부터 2021년까지의 시간당 데이터를 사용하였다. 입력 데이터로서 시간당 유입량, 강우량과 방류량을, 출력 데이터로서 시간당 수위 자료를 각각 사용하였으며. 결정계수(R2 Score)를 통해 모델의 예측 성능을 평가하였다. 댐 수위 예측값 개선을 위해 하이퍼파라미터의 '최적값'이 존재하는 범위를 줄여나가는 하이퍼파라미터 최적화를 두 가지 방법으로 진행하였다. 첫 번째 방법은 수동적 탐색(Manual Search) 방법으로 Sequence Length를 24, 48, 72시간, Hidden Layer를 1, 3, 5개로 설정하여 하이퍼파라미터의 조합에 따른 LSTM와 GRU의 민감도를 평가하였다. 두 번째 방법은 Grid Search로 최적의 하이퍼파라미터를 찾았다. 이 두가지 방법에서는 같은 하이퍼파라미터 안에서 GRU가 LSTM에 비해 더 높은 예측 정확도를 보였고 Sequence Length가 높을수록 정확도가 높아지는 경향을 보였다. Manual Search 방법의 경우 R2가 최대 0.72의 정확도를 보였고 Grid Search 방법의 경우 R2가 0.79의 정확도를 보였다. 본 연구 결과는 가뭄과 홍수와 같은 물 재해에 사전 대응하고 기후변화에 적응할 수 있는 댐 운영 개선에 도움을 줄 수 있을 것으로 판단된다.

  • PDF

Improving Trajectory Pattern Prediction Model Using Bayesian Optimization (베이지안 최적화를 이용한 이동 경로 예측 모델의 성능 개선)

  • Song, Ha Yoon;Nam, Sehyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.846-849
    • /
    • 2020
  • 하이퍼파라미터(초매개변수) 최적화란 모델의 학습에 앞서 미리 설정해야 하는 값인 하이퍼파라미터의 최적값을 탐색하는 문제이다. 이때의 최적값은 학습을 끝낸 모델의 성능을 가능한 최대치로 높이게 하는 값이다. 한편, 최근 모바일 장치를 이용한 포지셔닝 데이터의 대량 수집이 가능해지면서 이를 활용하여 위치 기반 서비스(Location-Based Service)를 위한 데이터 분석 및 예측에 관한 연구가 활발히 이루어졌다. 그중 이동 경로를 이미지로 패턴화하여 국소 지역 내에서 다음 위치를 예측하는 CNN 모델에 대해서 하이퍼파라미터 튜닝을 진행하였다. 결과적으로 베이지안 최적화(Bayesian Optimization)를 통해 모델의 성능을 평균 3.7%, 최대 9.5%까지 개선할 수 있음을 확인하였다.

A Study on the Performance Improvement of the SASRec Recommendation Model by Optimizing the Hyperparameters (하이퍼파라미터 최적화를 통한 SASRec 추천 모델 성능 개선 연구)

  • Da-Hun Seong;Yujin Lim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.657-659
    • /
    • 2023
  • 최근 스마트폰과 같은 디지털 기기의 보급과 함께 개인화, 맞춤형 서비스의 수요가 늘어나면서 추천 서비스가 주목을 받고 있다. 세션 기반(Session based) 추천 시스템은 사용자의 아이템 선호에 따른 순서 정보를 고려한 학습 추천 모델로, 다양한 산업 분야에서 사용되고 있다. 세션 기반 추천 시스템 중 SASRec(Self-Attentive Sequential Recommendation) 모델은 MC/CNN/RNN 기반의 기존 여러 순차 모델들에 비하여 효율적인 성능을 보인다. 본 연구에서는 SASRec 모델의 하이퍼파라미터 중 배치 사이즈(Batch Size), 학습률 (Learning Rate), 히든 유닛(Hidden Unit)을 조정하여 실험함으로써 하이퍼파라미터에 의한 성능 변화를 분석하였다.

FinBERT Fine-Tuning for Sentiment Analysis: Exploring the Effectiveness of Datasets and Hyperparameters (감성 분석을 위한 FinBERT 미세 조정: 데이터 세트와 하이퍼파라미터의 효과성 탐구)

  • Jae Heon Kim;Hui Do Jung;Beakcheol Jang
    • Journal of Internet Computing and Services
    • /
    • v.24 no.4
    • /
    • pp.127-135
    • /
    • 2023
  • This research paper explores the application of FinBERT, a variational BERT-based model pre-trained on financial domain, for sentiment analysis in the financial domain while focusing on the process of identifying suitable training data and hyperparameters. Our goal is to offer a comprehensive guide on effectively utilizing the FinBERT model for accurate sentiment analysis by employing various datasets and fine-tuning hyperparameters. We outline the architecture and workflow of the proposed approach for fine-tuning the FinBERT model in this study, emphasizing the performance of various datasets and hyperparameters for sentiment analysis tasks. Additionally, we verify the reliability of GPT-3 as a suitable annotator by using it for sentiment labeling tasks. Our results show that the fine-tuned FinBERT model excels across a range of datasets and that the optimal combination is a learning rate of 5e-5 and a batch size of 64, which perform consistently well across all datasets. Furthermore, based on the significant performance improvement of the FinBERT model with our Twitter data in general domain compared to our news data in general domain, we also express uncertainty about the model being further pre-trained only on financial news data. We simplify the complex process of determining the optimal approach to the FinBERT model and provide guidelines for selecting additional training datasets and hyperparameters within the fine-tuning process of financial sentiment analysis models.

A Study on data management by applying LSTM time series parameters (LSTM 시계열 매개변수 적용을 통한 효율적 데이터 관리)

  • Min, Youn A
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.537-538
    • /
    • 2022
  • LSTM은 딥러닝 RNN의 한 종류이며 RNN의 단점인 장기 데이터손실에 대한 문제를 해결하기 위해 제시된다. 본 논문에서는 LSTM의 하이퍼파라미터 적용 시 이전 state의 중요도와 이후 state에 대한 중요도 예측에 대한 신경망 처리를 위하여 유의미성 측정가능한 매개변수를 적용하여 처리하고 데이터에 대한 정밀도와 재현율을 높이는 것을 목적으로 한다. 동일한 데이터셋에 대하여 전통적인 LSTM 방식과 본 연구를 비교한 결과 정밀도와 재현율이 5%이상 증가함을 확인하였다.

  • PDF

Optimization Of Water Quality Prediction Model In Daechong Reservoir, Based On Multiple Layer Perceptron (다층 퍼셉트론을 기반으로 한 대청호 수질 예측 모델 최적화)

  • Lee, Hankyu;Kim, Jin Hui;Byeon, Seohyeon;Park, Kangdong;Shin, Jae-ki;Park, Yongeun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.43-43
    • /
    • 2022
  • 유해 조류 대발생은 전국 각지의 인공호소나 하천에서 다발적으로 발생하며, 경관을 해치고 수질을 오염시키는 등 수자원에 부정적인 영향을 미친다. 본 연구에서는 인공호소에서 발생하는 유해 조류 대발생을 예측하기 위해 심층학습 기법을 이용하여 예측 모델을 개발하고자 하였다. 대상 지점은 대청호의 추동 지점으로 선정하였다. 대청호는 금강유역 중류에 위치한 댐으로, 약 150만명에 달하는 급수 인구수를 유지 중이기에 유해 남조 대발생 관리가 매우 중요한 장소이다. 학습용 데이터 구축은 대청호의 2011년 1월부터 2019년 12월까지 측정된 수질, 기상, 수문 자료를 입력 자료를 이용하였다. 수질 예측 모델의 구조는 다중 레이어 퍼셉트론(Multiple Layer Perceptron; MLP)으로, 입력과 한 개 이상의 은닉층, 그리고 출력층으로 구성된 인공신경망이다. 본 연구에서는 인공신경망의 은닉층 개수(1~3개)와 각각의 레이어에 적용되는 은닉 노드 개수(11~30개), 활성함수 5종(Linear, sigmoid, hyperbolic tangent, Rectified Linear Unit, Exponential Linear Unit)을 각각 하이퍼파라미터로 정하고, 모델의 성능을 최대로 발휘할 수 있는 조건을 찾고자 하였다. 하이퍼파라미터 최적화 도구는 Tensorflow에서 배포하는 Keras Tuner를 사용하였다. 모델은 총 3000 학습 epoch 가 진행되는 동안 최적의 가중치를 계산하도록 설계하였고, 이 결과를 매 반복마다 저장장치에 기록하였다. 모델 성능의 타당성은 예측과 실측 데이터 간의 상관관계를 R2, NSE, RMSE를 통해 산출하여 검증하였다. 모델 최적화 결과, 적합한 하이퍼파라미터는 최적화 횟수 총 300회에서 256 번째 반복 결과인 은닉층 개수 3개, 은닉 노드 수 각각 25개, 22개, 14개가 가장 적합하였고, 이에 따른 활성함수는 ELU, ReLU, Hyperbolic tangent, Linear 순서대로 사용되었다. 최적화된 하이퍼파라미터를 이용하여 모델 학습 및 검증을 수행한 결과, R2는 학습 0.68, 검증 0.61이었고 NSE는 학습 0.85, 검증 0.81, RMSE는 학습 0.82, 검증 0.92로 나타났다.

  • PDF