• Title/Summary/Keyword: 활성화 함수

Search Result 289, Processing Time 0.027 seconds

Comparison of Activation Functions of Reinforcement Learning in OpenAI Gym Environments (OpenAI Gym 환경에서 강화학습의 활성화함수 비교 분석)

  • Myung-Ju Kang
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.25-26
    • /
    • 2023
  • 본 논문에서는 OpenAI Gym 환경에서 제공하는 CartPole-v1에 대해 강화학습을 통해 에이전트를 학습시키고, 학습에 적용되는 활성화함수의 성능을 비교분석하였다. 본 논문에서 적용한 활성화함수는 Sigmoid, ReLU, ReakyReLU 그리고 softplus 함수이며, 각 활성화함수를 DQN(Deep Q-Networks) 강화학습에 적용했을 때 보상 값을 비교하였다. 실험결과 ReLU 활성화함수를 적용하였을 때의 보상이 가장 높은 것을 알 수 있었다.

  • PDF

A study on activation functions of Artificial Neural Network model suitable for prediction of the groundwater level in the mid-mountainous area of eastern Jeju island (제주도 동부 중산간지역 지하수위 예측에 적합한 인공신경망 모델의 활성화함수 연구)

  • Mun-Ju Shin;Jeong-Hun Kim;Su-Yeon Kang;Jeong-Han Lee;Kyung Goo Kang
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.520-520
    • /
    • 2023
  • 제주도 동부 중산간 지역은 화산암으로 구성된 지하지질로 인해 지하수위의 변동폭이 크고 변동양상이 복잡하여 인공신경망(Artificial Neural Network, ANN) 모델 등을 활용한 지하수위의 예측이 어렵다. ANN에 적용되는 활성화함수에 따라 지하수의 예측성능은 달라질 수 있으므로 활성화함수의 비교분석 후 적절한 활성화함수의 사용이 반드시 필요하다. 본 연구에서는 5개 활성화함수(sigmoid, hyperbolic tangent(tanh), Rectified Linear Unit(ReLU), Leaky Rectified Linear Unit(Leaky ReLU), Exponential Linear Unit(ELU))를 제주도 동부 중산간지역에 위치한 2개 지하수 관정에 대해 비교분석하여 최적 활성화함수 도출을 목표로 한다. 또한 최적 활성화함수를 활용한 ANN의 적용성을 평가하기 위해 최근 널리 사용되고 있는 순환신경망 모델인 Long Short-Term Memory(LSTM) 모델과 비교분석 하였다. 그 결과, 2개 관정 중 지하수위 변동폭이 상대적으로 큰 관정은 ELU 함수, 상대적으로 작은 관정은 Leaky ReLU 함수가 지하수위 예측에 적절하였다. 예측성능이 가장 낮은 활성화함수는 sigmoid 함수로 나타나 첨두 및 최저 지하수위 예측 시 사용을 지양해야 할 것으로 판단된다. 도출된 최적 활성화함수를 사용한 ANN-ELU 모델 및 ANN-Leaky ReLU 모델을 LSTM 모델과 비교분석한 결과 대등한 지하수위 예측성능을 나타내었다. 이것은 feed-forward 방식인 ANN 모델을 사용하더라도 적절한 활성화함수를 사용하면 최신 순환신경망과 대등한 결과를 도출하여 활용 가능성이 충분히 있다는 것을 의미한다. 마지막으로 LSTM 모델은 가장 적절한 예측성능을 나타내어 다양한 인공지능 모델의 예측성능 비교를 위한 기준이 되는 참고모델로 활용 가능하다. 본 연구에서 제시한 방법은 지하수위 예측과 더불어 하천수위 예측 등 다양한 시계열예측 및 분석연구에 유용하게 사용될 수 있다.

  • PDF

DQN Reinforcement Learning for Acrobot in OpenAI Gym Environment (OpenAI Gym 환경의 Acrobot에 대한 DQN 강화학습)

  • Myung-Ju Kang
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.35-36
    • /
    • 2023
  • 본 논문에서는 OpenAI Gym 환경에서 제공하는 Acrobot-v1에 대해 DQN(Deep Q-Networks) 강화학습으로 학습시키고, 이 때 적용되는 활성화함수의 성능을 비교분석하였다. DQN 강화학습에 적용한 활성화함수는 ReLU, ReakyReLU, ELU, SELU 그리고 softplus 함수이다. 실험 결과 평균적으로 Leaky_ReLU 활성화함수를 적용했을 때의 보상 값이 높았고, 최대 보상 값은 SELU 활성화 함수를 적용할 때로 나타났다.

  • PDF

Development of hybrid activation function to improve accuracy of water elevation prediction algorithm (수위예측 알고리즘 정확도 향상을 위한 Hybrid 활성화 함수 개발)

  • Yoo, Hyung Ju;Lee, Seung Oh
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2019.05a
    • /
    • pp.363-363
    • /
    • 2019
  • 활성화 함수(activation function)는 기계학습(machine learning)의 학습과정에 비선형성을 도입하여 심층적인 학습을 용이하게 하고 예측의 정확도를 높이는 중요한 요소 중 하나이다(Roy et al., 2019). 일반적으로 기계학습에서 사용되고 있는 활성화 함수의 종류에는 계단 함수(step function), 시그모이드 함수(sigmoid 함수), 쌍곡 탄젠트 함수(hyperbolic tangent function), ReLU 함수(Rectified Linear Unit function) 등이 있으며, 예측의 정확도 향상을 위하여 다양한 형태의 활성화 함수가 제시되고 있다. 본 연구에서는 기계학습을 통하여 수위예측 시 정확도 향상을 위하여 Hybrid 활성화 함수를 제안하였다. 연구대상지는 조수간만의 영향을 받는 한강을 대상으로 선정하였으며, 2009년 ~ 2018년까지 10년간의 수문자료를 활용하였다. 수위예측 알고리즘은 Python 내 Tensorflow의 RNN (Recurrent Neural Networks) 모델을 이용하였으며, 강수량, 수위, 조위, 댐 방류량, 하천 유량의 수문자료를 학습시켜 3시간 및 6시간 후의 수위를 예측하였다. 예측정확도 향상을 위하여 입력 데이터는 정규화(Normalization)를 시켰으며, 민감도 분석을 통하여 신경망모델의 은닉층 개수, 학습률의 최적 값을 도출하였다. Hybrid 활성화 함수는 쌍곡 탄젠트 함수와 ReLU 함수를 혼합한 형태로 각각의 가중치($w_1,w_2,w_1+w_2=1$)를 변경하여 정확도를 평가하였다. 그 결과 가중치의 비($w_1/w_2$)에 따라서 예측 결과의 RMSE(Roote Mean Square Error)가 최소가 되고 NSE (Nash-Sutcliffe model Efficiency coefficient)가 최대가 되는 지점과 Peak 수위의 예측정확도가 최대가 되는 지점을 확인할 수 있었다. 본 연구는 현재 Data modeling을 통한 수위예측의 정확도 향상을 위해 기초가 되는 연구이나, 향후 다양한 형태의 활성화 함수를 제안하여 정확도를 향상시킨다면 예측 결과를 통하여 침수예보에 대한 의사결정이 가능할 것으로 기대된다.

  • PDF

An Improvement of Performance for Cascade Correlation Learning Algorithm using a Cosine Modulated Gaussian Activation Function (코사인 모듈화 된 가우스 활성화 함수를 사용한 캐스케이드 코릴레이션 학습 알고리즘의 성능 향상)

  • Lee, Sang-Wha;Song, Hae-Sang
    • Journal of the Korea Society of Computer and Information
    • /
    • v.11 no.3
    • /
    • pp.107-115
    • /
    • 2006
  • This paper presents a new class of activation functions for Cascade Correlation learning algorithm, which herein will be called CosGauss function. This function is a cosine modulated gaussian function. In contrast to the sigmoidal, hyperbolic tangent and gaussian functions, more ridges can be obtained by the CosGauss function. Because of the ridges, it is quickly convergent and improves a pattern recognition speed. Consequently it will be able to improve a learning capability. This function was tested with a Cascade Correlation Network on the two spirals problem and results are compared with those obtained with other activation functions.

  • PDF

Comparison of Reinforcement Learning Activation Functions to Maximize Rewards in Autonomous Highway Driving (고속도로 자율주행 시 보상을 최대화하기 위한 강화 학습 활성화 함수 비교)

  • Lee, Dongcheul
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.5
    • /
    • pp.63-68
    • /
    • 2022
  • Autonomous driving technology has recently made great progress with the introduction of deep reinforcement learning. In order to effectively use deep reinforcement learning, it is important to select the appropriate activation function. In the meantime, many activation functions have been presented, but they show different performance depending on the environment to be applied. This paper compares and evaluates the performance of 12 activation functions to see which activation functions are effective when using reinforcement learning to learn autonomous driving on highways. To this end, a performance evaluation method was presented and the average reward value of each activation function was compared. As a result, when using GELU, the highest average reward could be obtained, and SiLU showed the lowest performance. The average reward difference between the two activation functions was 20%.

Characterics of Combustion Response of Solid Propellants to Radiant Heat Flux Fluctuation (복사 열속 교란에 대한 고체 추진제의 연소 반응 특성)

  • Nam, Sam-Sik;Lee, Chang-Jin;Kim, Seong-In
    • 한국연소학회:학술대회논문집
    • /
    • 1998.10a
    • /
    • pp.111-122
    • /
    • 1998
  • 수정된 연소 반응 함수[9]를 이용하여 복사 열속 교란에 대한 연소 반응 특성을 살펴 보았다. DB N5추진제에 대한 Son 등[6]의 실험 결과오 비교할 때 본 연구에서 사용한 연소 반응 함수가 낮은 활성화 에너지에서 비슷한 피크를 예측할 수 있었다. 이것은 Son 등[6]에 의해 과소 평가된 복사 열속의 영향이 고려되었기 때문인 것으로 판단 된다. 민감 변수들을 구하기 위하여 Iribicu 등[2]이 제시한 정상 연소 관계식을 이용하였는데, 표면 온도에 대한 정상 연소율 변화를 비교한 결과 Zanotti[8]의 AP2 추진제의 실험 결과와 정성적으로 비슷한 결과를 나타내었다. Zebrowski 등[4]의 연소 반응 함수와도 비교하였는데 활성화 에너지가 Zanotti[8]가 제시한 범위의 값을 가질때는 피크에 있어 상당한 차이를 보이지만, 그 보다 더 큰 활성화 에너지에서는 $f_rJ$의 영향이 거의 사라져 비슷한 결과를 보여주고 있다. 이는 활성화 에너지가 클수록 본 연구에서 사용한 연소 반응 함수가 [6]과 같아지지만, [8]에서 제시된 활성화 에너지 범위에서는 본 연구에서 사용한 연소 반응 함수로 예측함이 타당함을 의미한다.

  • PDF

Masking Exponential-Based Neural Network via Approximated Activation Function (활성화 함수 근사를 통한 지수함수 기반 신경망 마스킹 기법)

  • Joonsup Kim;GyuSang Kim;Dongjun Park;Sujin Park;HeeSeok Kim;Seokhie Hong
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.33 no.5
    • /
    • pp.761-773
    • /
    • 2023
  • This paper proposes a method to increase the power-analysis resistance of the neural network model's feedforward process by replacing the exponential-based activation function, used in the deep-learning field, with an approximated function especially at the multi-layer perceptron model. Due to its nature, the feedforward process of neural networks calculates secret weight and bias, which already trained, so it has risk of exposure of internal information by side-channel attacks. However, various functions are used as the activation function in neural network, so it's difficult to apply conventional side-channel countermeasure techniques, such as masking, to activation function(especially, to exponential-based activation functions). Therefore, this paper shows that even if an exponential-based activation function is replaced with approximated function of simple form, there is no fatal performance degradation of the model, and than suggests a power-analysis resistant feedforward neural network with exponential-based activation function, by masking approximated function and whole network.

A Comparative Analysis of Reinforcement Learning Activation Functions for Parking of Autonomous Vehicles (자율주행 자동차의 주차를 위한 강화학습 활성화 함수 비교 분석)

  • Lee, Dongcheul
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.22 no.6
    • /
    • pp.75-81
    • /
    • 2022
  • Autonomous vehicles, which can dramatically solve the lack of parking spaces, are making great progress through deep reinforcement learning. Activation functions are used for deep reinforcement learning, and various activation functions have been proposed, but their performance deviations were large depending on the application environment. Therefore, finding the optimal activation function depending on the environment is important for effective learning. This paper analyzes 12 functions mainly used in reinforcement learning to compare and evaluate which activation function is most effective when autonomous vehicles use deep reinforcement learning to learn parking. To this end, a performance evaluation environment was established, and the average reward of each activation function was compared with the success rate, episode length, and vehicle speed. As a result, the highest reward was the case of using GELU, and the ELU was the lowest. The reward difference between the two activation functions was 35.2%.

Optimization of Sigmoid Activation Function Parameters using Genetic Algorithms and Pattern Recognition Analysis in Input Space of Two Spirals Problem (유전자알고리즘을 이용한 시그모이드 활성화 함수 파라미터의 최적화와 이중나선 문제의 입력공간 패턴인식 분석)

  • Lee, Sang-Wha
    • The Journal of the Korea Contents Association
    • /
    • v.10 no.4
    • /
    • pp.10-18
    • /
    • 2010
  • This paper presents a optimization of sigmoid activation function parameter using genetic algorithms and pattern recognition analysis in input space of two spirals benchmark problem. To experiment, cascade correlation learning algorithm is used. In the first experiment, normal sigmoid activation function is used to analyze the pattern classification in input space of the two spirals problem. In the second experiment, sigmoid activation functions using different fixed values of the parameters are composed of 8 pools. In the third experiment, displacement of the sigmoid function to determine the value of the three parameters is obtained using genetic algorithms. The parameter values applied to the sigmoid activation functions for candidate neurons are used. To evaluate the performance of these algorithms, each step of the training input pattern classification shows the shape of the two spirals.