• Title/Summary/Keyword: 다층 역전파 신경망

Search Result 68, Processing Time 0.024 seconds

Visualization of Multi Layer Perceptron Backpropagation Learning (다층 퍼셉트론 신경망의 역전파 학습 시각화)

  • Oh, Ju-Min;Choi, Yong-Suk
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.19-20
    • /
    • 2017
  • 인공지능이 사회적으로 대두되면서 많은 양의 관련 연구가 시작되고 있다. 본 논문에서는 다층 퍼셉트론 신경망에서 역전파 학습의 진행 과정을 시각화 하는 것을 목표로 하고 있다. 다층 퍼셉트론 신경망은 학습의 진행 과정과 그 방식은 잘 알려져 있으나 각 신경의 값이 어떻게 변화되어 가는 지는 눈에 보이지 않는다. 이러한 과정에 대해 시각화를 통해 값이 변하는 과정을 눈으로 쉽게 관찰할 수 있도록 하는 것이 이 논문의 목표이다. 본 연구결과는 향후 다층 퍼셉트론 신경망을 기반으로 하는 다른 모델의 시각화에 대한 기초자료로 활용될 수 있을 것이다.

  • PDF

회귀분석을 위한 로버스트 신경망

  • 황창하;김상민;박희주
    • Communications for Statistical Applications and Methods
    • /
    • v.4 no.2
    • /
    • pp.327-332
    • /
    • 1997
  • 다층 신경망은 비모수 회귀함수 추정의 한 방법이다. 다충 신경망을 학습시키기 위해 역전파 알고리즘이 널리 사용되고 있다. 그러나 이 알고리즘은 이상치에 매우 민감하여 이상치를 포함하고 있는 자료에 대하여 원하지 않는 회귀함수를 추정한다. 본 논문에서는 통계물리에서 자주 사용하는 방법을 이용하여 로버스트 역전파 알고리즘을 제안하고 수학적으로 신경망과 매우 유사한 PRP(projection pursuit regression) 방법, 일반적인 역전파 알고리즘과 모의실험을 통해 비교 분석한다.

  • PDF

Fuzzy Multilayer Perceptron by Using Self-Generation (자가 생성을 이용한 퍼지 다층 퍼셉트론)

  • 백인호;김광백
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2003.05a
    • /
    • pp.469-473
    • /
    • 2003
  • 다층 구조 신경망에서 널리 사용되는 오류 역전파 알고리즘은 초기 가중치와 불충분한 은닉층의 노드수로 인하여 지역 최소화에 빠질 가능성이 있다. 따라서 본 논문에서는 오류 역전파 알고리즘에서 은닉층의 노드 수를 설정하는 문제와 ARTI에서 경계 변수의 설정에 따라 인식률이 저하되는 문제점을 개선하기 위하여 ARTI과 Max-Min 신경망을 결합한 퍼지 다층 퍼셉트론을 제안한다. 제안된 자가 생성을 이용한 퍼지 다층 퍼셉트론은 입력층에서 은닉층으로 노드를 생성시키는 방식은 ARTI을 적용하였고, 가중치 조정은 특정 패턴에 대한 저장 패턴을 수정하도록 하는 winner-take-all 방식을 적용하였다. 제안된 학습 방법의 성능을 평가하기 위하여 학생증 영상을 대상으로 실험한 결과, 기존의 오류 역전파 알고즘보다 연결 가중치들이 지역 최소화에 위치할 가능성이 줄었고 학습 속도 및 정체 현상이 개선되었다.

  • PDF

A Study on Analysis of Dynamic Generation of Initial Weights in EBP Learning (EBP 신경망 학습에서의 동적 초기 가중치 선택에 관한 연구)

  • Kim, Tea-Hun;Lee, Yill-Byung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.11a
    • /
    • pp.35-38
    • /
    • 2006
  • 다층 퍼셉트론(MLP) 학습 이론인 오류 역전파 알고리즘은 델타룰과 최급 하강법을 사용하기 때문에 학습시 많은 시간이 소요된다는 단점을 가지고 있다. 때문에 신경망에서의 잘못된 초기 가중치 선택은 오류 역전파 알고리즘을 사용하는 신경망에서의 현격한 학습 성능저하를 발생시키게 된다. 본 논문에서는 학습시 오류 역전파 알고리즘의 수렴시간을 개선하기 위한 신경망의 동적 초기 가중치 선택 알고리즘을 제안한다. 이 알고리즘은 학습전 기존의 선택 가중치와 모든 가중치가 1.0 또는 -1.0 값을 가지는 가중치 집합에서 가중치 변동률을 선측정하여 이들 중 가장 변동률이 큰 경우를 초기 가중치 집합으로 선정하게 된다. 즉, 초기의 가중치 변동률을 차후 성능을 판단하는 지표로 사용하여 잘못된 가중치 선택으로 인한 최악의 학습효율의 가능성을 배제시키고 다층 신경망의 학습특성상 평균 이상의 학습효율을 보장하는 초기 가중치 선택방법이다.

  • PDF

Pattern Recognition using Robust Feedforward Neural Networks (로버스트 다층전방향 신경망을 이용한 패턴인식)

  • Hwang, Chang-Ha;Kim, Sang-Min
    • Journal of the Korean Data and Information Science Society
    • /
    • v.9 no.2
    • /
    • pp.345-355
    • /
    • 1998
  • The back propagation(BP) algorithm allows multilayer feedforward neural networks to learn input-output mappings from training samples. It iteratively adjusts the network parameters(weights) to minimize the sum of squared approximation errors using a gradient descent technique. However, the mapping acquired through the BP algorithm may be corrupt when errorneous training data are employed. In this paper two types of robust backpropagation algorithms are discussed both from a theoretical point of view and in the case studies of nonlinear regression function estimation and handwritten Korean character recognition. For future research we suggest Bayesian learning approach to neural networks and compare it with two robust backpropagation algorithms.

  • PDF

A Robust Propagation Algorithm for Function Approximation (함수근사를 위한 로버스트 역전파 알고리즘)

  • Kim, Sang-Min;Hwang, Chang-Ha
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.3
    • /
    • pp.747-753
    • /
    • 1997
  • Function approximation from a set of input-output parirs has numerous applications in scientiffc and engineer-ing areas.Multiayer feedforward neural networks have been proposed as a good approximator of noninear function.The back propagation (BP) algorithm allows muktiayer feedforward neural networks oro learn input-output mappongs from training samples.However, the mapping acquired through the BP algorithm nay be cor-rupt when errorneous trauning data are employed.In this paper we propose a robust BP learning algorithm that is resistant to the errormeous data and is capable of rejecting gross errors during the approximation process.

  • PDF

Neural Network Weight Optimization using the GA (GA를 이용한 신경망의 가중치 최적화)

  • 문상우;공성곤
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.10a
    • /
    • pp.374-378
    • /
    • 1998
  • 신경망은 복잡하게 나타나는 비선형성을 가지는 실제의 다양한 문제들에 적용이 가능할 뿐만 아니라, 정보들이 가중치에 분산되어 저장됨으로서 강인성을 가지고 있다. 그러나 전방향 다층 신경망 구조를 학습할 수 있는 역전파 알고리즘은 초기 가중치의 영향에 의하여 학습된 결과가 지역 최소점에 빠지기 쉬운 경향이 있다. 본 논문에서는 이러한 문제점을 해결하기 위한 한가지 방법으로서 유전자 알고리즘을 이용하여 전방향 다층 신경망의 가중치를 학습하여, 지역 최소점에 빠지지 않고 학습이 이루어짐을 보인다.

  • PDF

신경망이론에 의한 비중심카이제곱분포의 확률 계산

  • 남궁평;구선희
    • Communications for Statistical Applications and Methods
    • /
    • v.3 no.2
    • /
    • pp.227-237
    • /
    • 1996
  • 비중심 ${\chi}^2$분포의 누적분포함수의 계산은 ${\chi}^2$검정에서 요구되고 있는 새로운 접근방법으로 신경망 이론을 적용하기 위하여 입력층의 입력노드가 세개, 출력증의 축력노드가 한개 그리고 한개의 은닉층으로 구성된 다층 퍼셉트론 네트워크부터 역전파 알고리즘을 개발하여 비중심${\chi}^2$분포의 확률계산을 시도하였다. 정확성과 계산속도를 고려하여 기존의 방법과 비교한 결과 효율적임을 알 수 있다.

  • PDF

A Robust Backpropagation Algorithm and It's Application (문자인식을 위한 로버스트 역전파 알고리즘)

  • Oh, Kwang-Sik;Kim, Sang-Min;Lee, Dong-No
    • Journal of the Korean Data and Information Science Society
    • /
    • v.8 no.2
    • /
    • pp.163-171
    • /
    • 1997
  • Function approximation from a set of input-output pairs has numerous applications in scientific and engineering areas. Multilayer feedforward neural networks have been proposed as a good approximator of nonlinear function. The back propagation(BP) algorithm allows multilayer feedforward neural networks to learn input-output mappings from training samples. It iteratively adjusts the network parameters(weights) to minimize the sum of squared approximation errors using a gradient descent technique. However, the mapping acquired through the BP algorithm may be corrupt when errorneous training data we employed. When errorneous traning data are employed, the learned mapping can oscillate badly between data points. In this paper we propose a robust BP learning algorithm that is resistant to the errorneous data and is capable of rejecting gross errors during the approximation process, that is stable under small noise perturbation and robust against gross errors.

  • PDF

Computation of Noncentral F Probabilities using multilayer neural network (다층 신경 망을 이용한 비중심F분포 확률계산)

  • Gu, Sun-Hee
    • The KIPS Transactions:PartB
    • /
    • v.9B no.3
    • /
    • pp.271-276
    • /
    • 2002
  • The test statistic in ANOVA tests has a single or doubly noncentral F distribution and the noncentral F distribution is applied to the calculation of the power functions of tests of general linear hypotheses. Although various approximations of noncentral F distribution are suggested, they are troublesome to compute. In this paper, the calculation of noncentral F distribution is applied to the neural network theory, to solve the computation problem. The neural network consists of the multi-layer perceptron structure and learning process has the algorithm of the backpropagation. Using fables and figs, comparisons are made between the results obtained by neural network theory and the Patnaik's values. Regarding of accuracy and calculation, the results by neural network are efficient than the Patnaik's values.