• 제목/요약/키워드: Gradient descent method

검색결과 234건 처리시간 0.027초

학습기능을 이용한 Z. Cao의 퍼지추론방식 (Z. Cao's Fuzzy Reasoning Method using Learning Ability)

  • 박진현;이태환;최영규
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1591-1598
    • /
    • 2008
  • 과거 Z. Cao는 Relation matrix를 사용한 정밀한 추론이 가능한 NFRM(New fuzzy reasoning method)을 제안하였다. 이는 추론의 규칙 수가 적음에도 불구하고 Mamdani의 퍼지추론방식에 비하여 좋은 성능을 보였다. 그러나 정밀한 추론을 위하여 relation maoix는 시행착오법을 사용하여 구하고, 이는 많은 시간과 노력이 필요하다. 본 연구에서는 이러한 relation matrix를 구하기 위하여 시행착오법에 의해 소요되는 많은 시간과 노력을 줄이고, 더욱 정밀한 추론 성능의 개선을 위하여 경사감소학습법을 사용한 학습기능을 갖는 Z. Cao의 퍼지추론 방식을 제안하고자 한다. 모의실험은 비선형 시스템에 적용하여 제안된 추론방식이 좋은 성능을 나타냄을 보였다.

GLOBAL CONVERGENCE OF AN EFFICIENT HYBRID CONJUGATE GRADIENT METHOD FOR UNCONSTRAINED OPTIMIZATION

  • Liu, Jinkui;Du, Xianglin
    • 대한수학회보
    • /
    • 제50권1호
    • /
    • pp.73-81
    • /
    • 2013
  • In this paper, an efficient hybrid nonlinear conjugate gradient method is proposed to solve general unconstrained optimization problems on the basis of CD method [2] and DY method [5], which possess the following property: the sufficient descent property holds without any line search. Under the Wolfe line search conditions, we proved the global convergence of the hybrid method for general nonconvex functions. The numerical results show that the hybrid method is especially efficient for the given test problems, and it can be widely used in scientific and engineering computation.

하이브리드 알고리즘을 이용한 신경망의 학습성능 개선 (Improving the Training Performance of Neural Networks by using Hybrid Algorithm)

  • 김원욱;조용현;김영일;강인구
    • 한국정보처리학회논문지
    • /
    • 제4권11호
    • /
    • pp.2769-2779
    • /
    • 1997
  • 본 논문에서는 공액기울기법과 터널링 시스템을 조합사용하여 신경망의 학습성능을 향상시킬 수 있는 효율적인 방법을 제안하였다. 빠른 수렴속도의 학습을 위하여 공액 기울기법에 기초한 후향전파 알고리즘을 사용하였고, 국소최적해를 만났을 때 이를 벗어난 다른 연결가중치의 설정을 위해 동적터널링 시스템에 기초한 후향전파 알고리즘을 조합한 학습 알고리즘을 적용하였다. 제안된 방법을 패리티 검사 및 패턴분류 문제에 각각 적용하여 기존의 기울기 하강법에 기초한 후향전파 알고리즘 및 기울기 하강법과 동적터널링 시스템을 조합한 후향전파 알고리즘방법의 결과와 비교 고찰하여 제안된 방법이 다른 방법들 보다 학습성능에서 우수함을 나타내었다.

  • PDF

A NEW CLASS OF NONLINEAR CONJUGATE GRADIENT METHOD FOR UNCONSTRAINED OPTIMIZATION MODELS AND ITS APPLICATION IN PORTFOLIO SELECTION

  • Malik, Maulana;Sulaiman, Ibrahim Mohammed;Mamat, Mustafa;Abas, Siti Sabariah;Sukono, Sukono
    • Nonlinear Functional Analysis and Applications
    • /
    • 제26권4호
    • /
    • pp.811-837
    • /
    • 2021
  • In this paper, we propose a new conjugate gradient method for solving unconstrained optimization models. By using exact and strong Wolfe line searches, the proposed method possesses the sufficient descent condition and global convergence properties. Numerical results show that the proposed method is efficient at small, medium, and large dimensions for the given test functions. In addition, the proposed method was applied to solve practical application problems in portfolio selection.

GLOBAL CONVERGENCE OF A NEW SPECTRAL PRP CONJUGATE GRADIENT METHOD

  • Liu, Jinkui
    • Journal of applied mathematics & informatics
    • /
    • 제29권5_6호
    • /
    • pp.1303-1309
    • /
    • 2011
  • Based on the PRP method, a new spectral PRP conjugate gradient method has been proposed to solve general unconstrained optimization problems which produce sufficient descent search direction at every iteration without any line search. Under the Wolfe line search, we prove the global convergence of the new method for general nonconvex functions. The numerical results show that the new method is efficient for the given test problems.

제약조건을 갖는 최소자승 추정기법과 최급강하 알고리즘을 이용한 동적 베이시안 네트워크의 파라미터 학습기법 (Parameter Learning of Dynamic Bayesian Networks using Constrained Least Square Estimation and Steepest Descent Algorithm)

  • 조현철;이권순;구경완
    • 전기학회논문지P
    • /
    • 제58권2호
    • /
    • pp.164-171
    • /
    • 2009
  • This paper presents new learning algorithm of dynamic Bayesian networks (DBN) by means of constrained least square (LS) estimation algorithm and gradient descent method. First, we propose constrained LS based parameter estimation for a Markov chain (MC) model given observation data sets. Next, a gradient descent optimization is utilized for online estimation of a hidden Markov model (HMM), which is bi-linearly constructed by adding an observation variable to a MC model. We achieve numerical simulations to prove its reliability and superiority in which a series of non stationary random signal is applied for the DBN models respectively.

FCM 클러스터링 알고리즘에 기초한 퍼지 모델링 (Fuzzy Modeling based on FCM Clustering Algorithm)

  • 윤기찬;오성권
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2000년도 제15차 학술회의논문집
    • /
    • pp.373-373
    • /
    • 2000
  • In this paper, we propose a fuzzy modeling algorithm which divides the input space more efficiently than convention methods by taking into consideration correlations between components of sample data. The proposed fuzzy modeling algorithm consists of two steps: coarse tuning, which determines consequent parameters approximately using FCRM clustering method, and fine tuning, which adjusts the premise and consequent parameters more precisely by gradient descent algorithm. To evaluate the performance of the proposed fuzzy mode, we use the numerical data of nonlinear function.

  • PDF

점진적 하강 방법을 이용한 속성값 기반의 가중치 계산방법 (Gradient Descent Approach for Value-Based Weighting)

  • 이창환;배주현
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.381-388
    • /
    • 2010
  • 나이브 베이시안 알고리즘은 데이터 마이닝의 여러 분야에서 적용되고 있으며 좋은 성능을 보여주고 있다. 하지만 이 학습 방법은 모든 속성의 가중치가 동일하다는 가정을 하고 있으며 이러한 가정으로 인하여 가끔 정확도가 떨어지는 현상이 발생한다. 이러한 문제를 보완하기 위하여 나이브 베이시안에서 속성의 가중치를 조절하는 다수의 연구가 제안되어 이러한 단점을 보완하고 있다. 본 연구에서는 나이브 베이시안 학습에서 기존의 속성에 가중치를 부여하는 방식에서 한걸음 나아가 속성의 값에 가중치를 부여하는 새로운 방식을 연구하였다. 이러한 속성값의 가중치를 계산하기 위하여 점진적 하강(gradient descent) 방법을 이용하여 가중치를 계산하는 방식을 제안하였다. 제안된 알고리즘은 다수의 데이터를 이용하여 속성 가중치 방식과 비교하였고 대부분의 경우에 더 좋은 성능을 제공함을 알 수 있었다.

A NONLINEAR CONJUGATE GRADIENT METHOD AND ITS GLOBAL CONVERGENCE ANALYSIS

  • CHU, AJIE;SU, YIXIAO;DU, SHOUQIANG
    • Journal of applied mathematics & informatics
    • /
    • 제34권1_2호
    • /
    • pp.157-165
    • /
    • 2016
  • In this paper, we develop a new hybridization conjugate gradient method for solving the unconstrained optimization problem. Under mild assumptions, we get the sufficient descent property of the given method. The global convergence of the given method is also presented under the Wolfe-type line search and the general Wolfe line search. The numerical results show that the method is also efficient.

THE STEEPEST DESCENT METHOD AND THE CONJUGATE GRADIENT METHOD FOR SLIGHTLY NON-SYMMETRIC, POSITIVE DEFINITE MATRICES

  • Shin, Dong-Ho;Kim, Do-Hyun;Song, Man-Suk
    • 대한수학회논문집
    • /
    • 제9권2호
    • /
    • pp.439-448
    • /
    • 1994
  • It is known that the steepest descent(SD) method and the conjugate gradient(CG) method [1, 2, 5, 6] converge when these methods are applied to solve linear systems of the form Ax = b, where A is symmetric and positive definite. For some finite difference discretizations of elliptic problems, one gets positive definite matrices that are almost symmetric. Practically, the SD method and the CG method work for these matrices. However, the convergence of these methods is not guaranteed theoretically. The SD method is also called Orthores(1) in iterative method papers. Elman [4] states that the convergence proof for Orthores($\kappa$), with $\kappa$ a positive integer, is not heard. In this paper, we prove that the SD method and the CG method converge when the $\iota$$^2$ matrix norm of the non-symmetric part of a positive definite matrix is less than some value related to the smallest and the largest eigenvalues of the symmetric part of the given matrix.(omitted)

  • PDF