• 제목/요약/키워드: hyper-parameter

검색결과 114건 처리시간 0.022초

Hyper-Parameter in Hidden Markov Random Field

  • Lim, Jo-Han;Yu, Dong-Hyeon;Pyu, Kyung-Suk
    • 응용통계연구
    • /
    • 제24권1호
    • /
    • pp.177-183
    • /
    • 2011
  • Hidden Markov random eld(HMRF) is one of the most common model for image segmentation which is an important preprocessing in many imaging devices. The HMRF has unknown hyper-parameters on Markov random field to be estimated in segmenting testing images. However, in practice, due to computational complexity, it is often assumed to be a fixed constant. In this paper, we numerically show that the segmentation results very depending on the fixed hyper-parameter, and, if the parameter is misspecified, they further depend on the choice of the class-labelling algorithm. In contrast, the HMRF with estimated hyper-parameter provides consistent segmentation results regardless of the choice of class labelling and the estimation method. Thus, we recommend practitioners estimate the hyper-parameter even though it is computationally complex.

비트코인 가격 예측을 위한 LSTM 모델의 Hyper-parameter 최적화 연구 (A Study on the Hyper-parameter Optimization of Bitcoin Price Prediction LSTM Model)

  • 김준호;성한울
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.17-24
    • /
    • 2022
  • 비트코인은 정부나 금융기관에 의존되어 있지 않은 전자 거래를 지향하며 만들어진 peer-to-peer 방식의 암호화폐이다. 비트코인은 최초 발행 이후 거대한 블록체인 금융 시장을 생성했고, 이에 따라 기계 학습을 이용한 비트코인 가격 데이터를 예측하는 연구들이 활발해졌다. 그러나 기계 학습 연구의 비효율적인 Hyper-parameter 최적화 과정이 연구 진행에 있어 비용적인 측면을 악화시키고 있다. 본 논문은 LSTM(Long Short-Term Memory) 층을 사용하는 비트코인 가격 예측 모델에서 가장 대표적인 Hyper-parameter 중 Timesteps, LSTM 유닛의 수, 그리고 Dropout 비율의 전체 조합을 구성하고 각각의 조합에 대한 예측 성능을 측정하는 실험을 통해 정확한 비트코인 가격 예측을 위한 Hyper-parameter 최적화의 방향성을 분석하고 제시한다.

Effects of Hyper-parameters and Dataset on CNN Training

  • Nguyen, Huu Nhan;Lee, Chanho
    • 전기전자학회논문지
    • /
    • 제22권1호
    • /
    • pp.14-20
    • /
    • 2018
  • The purpose of training a convolutional neural network (CNN) is to obtain weight factors that give high classification accuracies. The initial values of hyper-parameters affect the training results, and it is important to train a CNN with a suitable hyper-parameter set of a learning rate, a batch size, the initialization of weight factors, and an optimizer. We investigate the effects of a single hyper-parameter while others are fixed in order to obtain a hyper-parameter set that gives higher classification accuracies and requires shorter training time using a proposed VGG-like CNN for training since the VGG is widely used. The CNN is trained for four datasets of CIFAR10, CIFAR100, GTSRB and DSDL-DB. The effects of the normalization and the data transformation for datasets are also investigated, and a training scheme using merged datasets is proposed.

Hyper-parameter Optimization for Monte Carlo Tree Search using Self-play

  • Lee, Jin-Seon;Oh, Il-Seok
    • 스마트미디어저널
    • /
    • 제9권4호
    • /
    • pp.36-43
    • /
    • 2020
  • The Monte Carlo tree search (MCTS) is a popular method for implementing an intelligent game program. It has several hyper-parameters that require an optimization for showing the best performance. Due to the stochastic nature of the MCTS, the hyper-parameter optimization is difficult to solve. This paper uses the self-playing capability of the MCTS-based game program for optimizing the hyper-parameters. It seeks a winner path over the hyper-parameter space while performing the self-play. The top-q longest winners in the winner path compete for the final winner. The experiment using the 15-15-5 game (Omok in Korean name) showed a promising result.

BEGAN을 통해 한국인 얼굴 데이터 생성을 하는데 최적의 HyperParameter (Optimal Hyper Parameter for Korean Face Data Generation with BEGAN)

  • 조규철;김산
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.459-460
    • /
    • 2021
  • 본 논문에서는 BEGAN을 활용한 한국인 얼굴 데이터 생성을 위한 최적의 Hyper Parameter를 제안한다. 연구에서는 GAN의 발전된 모델인 BEGAN을 이용한다. 위의 모델을 작성하기 위하여 본 논문에서는 Anaconda 기반의 Jupyter Notebook에서 Python Tensorflow 모델을 작성하여 테스트하고, 만들어진 모델을 FID를 통해 모델의 성능을 비교한다. 본 연구에서는 제안하는 방법들을 통해서 만들어진 모델을 이용해 한국인 얼굴 데이터를 구하고, 생성된 이미지에 대한 정량적인 평가를 진행한다.

  • PDF

Comparison of Hyper-Parameter Optimization Methods for Deep Neural Networks

  • Kim, Ho-Chan;Kang, Min-Jae
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.969-974
    • /
    • 2020
  • Research into hyper parameter optimization (HPO) has recently revived with interest in models containing many hyper parameters, such as deep neural networks. In this paper, we introduce the most widely used HPO methods, such as grid search, random search, and Bayesian optimization, and investigate their characteristics through experiments. The MNIST data set is used to compare results in experiments to find the best method that can be used to achieve higher accuracy in a relatively short time simulation. The learning rate and weight decay have been chosen for this experiment because these are the commonly used parameters in this kind of experiment.

초기하분포의 모수에 대한 신뢰구간추정 (On the actual coverage probability of hypergeometric parameter)

  • 김대학
    • Journal of the Korean Data and Information Science Society
    • /
    • 제21권6호
    • /
    • pp.1109-1115
    • /
    • 2010
  • 본 연구는 질병자료나 사망자수 등과 관련된 자료의 분석에서 가장 많이 사용되는 초기하분포의 모수, 즉 성공의 확률에 대한 신뢰구간추정에 대하여 설펴보았다. 초기하분포의 성공의 확률에 대한 신뢰구간은 일반적으로 잘 알려져 있지 않으나 그 응용성과 활용성의 측면에서 신뢰구간의 추정은 상당히 중요하다. 본 논문에서는 초기하분포의 성공의 확률에 대한 정확신뢰구간을 소개하고 여러 가지 모집단의 크기와 표본수에 대하여, 그리고 몇가지 실현값에 대한 신뢰구간을 유도하고 소표본의 경우에 모의실험을 통하여 실제 포함확률의 측면에서 살펴보았다.

Generative AI parameter tuning for online self-directed learning

  • Jin-Young Jun;Youn-A Min
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권4호
    • /
    • pp.31-38
    • /
    • 2024
  • 본 연구는 온라인 원격교육에서 코딩 교육 활성화를 위해, 생성형 AI 기반의 학습 지원 도구개발에 필요한 하이퍼 파라미터 설정을 제안한다. 연구를 위해 세 가지 다른 학습 맥락에 따라 하이퍼 파라미터를 설정할 수 있는 실험 도구를 구현하고, 실험 도구를 통해 생성형 AI의 응답 품질을 평가하였다. 생성형 AI 자체의 기본 하이퍼 파라미터 설정을 유지한 실험은 대조군으로, 연구에서 설정한 하이퍼 파라미터를 사용한 실험은 실험군으로 하였다. 실험 결과, 첫 번째 학습맥락인 "학습 지원"에서는 실험군과 대조군 사이의 유의한 차이가 관찰되지 않았으나, 두 번째와 세 번째 학습 맥락인 "코드생성"과 "주석생성"에서는 실험군의 평가점수 평균이 대조군보다 각각 11.6% 포인트, 23% 포인트 높은 것으로 나타났다. 또한, system content에 응답이 학습 동기에 미칠 수 있는 영향을 제시하면 학습 정서를 고려한 응답이 생성되는 것이 관찰되었다.

Multi-Class Classification Framework for Brain Tumor MR Image Classification by Using Deep CNN with Grid-Search Hyper Parameter Optimization Algorithm

  • Mukkapati, Naveen;Anbarasi, MS
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.101-110
    • /
    • 2022
  • Histopathological analysis of biopsy specimens is still used for diagnosis and classifying the brain tumors today. The available procedures are intrusive, time consuming, and inclined to human error. To overcome these disadvantages, need of implementing a fully automated deep learning-based model to classify brain tumor into multiple classes. The proposed CNN model with an accuracy of 92.98 % for categorizing tumors into five classes such as normal tumor, glioma tumor, meningioma tumor, pituitary tumor, and metastatic tumor. Using the grid search optimization approach, all of the critical hyper parameters of suggested CNN framework were instantly assigned. Alex Net, Inception v3, Res Net -50, VGG -16, and Google - Net are all examples of cutting-edge CNN models that are compared to the suggested CNN model. Using huge, publicly available clinical datasets, satisfactory classification results were produced. Physicians and radiologists can use the suggested CNN model to confirm their first screening for brain tumor Multi-classification.

Hyper Parameter Tuning Method based on Sampling for Optimal LSTM Model

  • Kim, Hyemee;Jeong, Ryeji;Bae, Hyerim
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권1호
    • /
    • pp.137-143
    • /
    • 2019
  • As the performance of computers increases, the use of deep learning, which has faced technical limitations in the past, is becoming more diverse. In many fields, deep learning has contributed to the creation of added value and used on the bases of more data as the application become more divers. The process for obtaining a better performance model will require a longer time than before, and therefore it will be necessary to find an optimal model that shows the best performance more quickly. In the artificial neural network modeling a tuning process that changes various elements of the neural network model is used to improve the model performance. Except Gride Search and Manual Search, which are widely used as tuning methods, most methodologies have been developed focusing on heuristic algorithms. The heuristic algorithm can get the results in a short time, but the results are likely to be the local optimal solution. Obtaining a global optimal solution eliminates the possibility of a local optimal solution. Although the Brute Force Method is commonly used to find the global optimal solution, it is not applicable because of an infinite number of hyper parameter combinations. In this paper, we use a statistical technique to reduce the number of possible cases, so that we can find the global optimal solution.