Abstract
This paper presents an adaptive back propagation algorithm that its able to enhancement for the learning efficiency with updating the learning parameter and varies the number of hidden layer node by the generated error, adaptively. This algorithm is expected to escaping from the local minimum and make the best environment for the convergence of the back propagation neural network. On the simulation tested this algorithm on three learning pattern. One was exclusive-OR learning and the another was 3-parity problem and 7${\times}$5 dot alphabetic font learning. In result that the probability of becoming trapped in local minimum was reduce. Furthermore, the neural network enhanced to learning efficient about 17.6%~64.7% for the existed back propagation.
본 논문에서는 역전파 신경회로망의 학습능률을 향상시키기 위한 방법으로 발생한 오차에 따라서 학습파라미터와 은닉층의 수를 적응적으로 변경시킬 수 있는 적응 역 전파 학습알고리즘을 제안하였다. 제안한 알고리즘은 역전파 신경회로망이 국소점으로 수렴하는 문제를 해결할 수 있고 최적의 수렴환경을 만들 수 있다. 제안된 알고리즘을 평가하기 위하여 배타적 논리합, 3-패리티 및 7${\times}$5 영문자 폰트의 학습을 이용하였다. 실험결과, 기존에 제안된 알고리즘들에 비하여 국소점에 빠지게 되는 경우가 감소하였고 약 17.6%~64.7%정도 학습능률이 향상하였다.