Abstract
In this paper, a new learning methodology for kernel methods that results in a sparse representation of kernel space from the training patterns for classification problems is suggested. Among the traditional algorithms of linear discriminant function, this paper shows that the relaxation procedure can obtain the maximum margin separating hyperplane of linearly separable pattern classification problem as SVM(Support Vector Machine) classifier does. The original relaxation method gives only the necessary condition of SV patterns. We suggest the sufficient condition to identify the SV patterns in the learning epoches. For sequential learning of kernel methods, extended SVM and kernel discriminant function are defined. Systematic derivation of learning algorithm is introduced. Experiment results show the new methods have the higher or equivalent performance compared to the conventional approach.
본 논문은 분류 문제의 훈련 패턴으로부터 형성되는 커널 공간의 저밀도 표현을 가능하게 하는 커널 방법에 대한 새로운 학습방법론을 제안한다. 선형 판별 함수에 대한 기존의 학습법 중에서 이완 절차가 SVM(Support Vector Machine) 분류기와 동등하게 선형분리 가능 패턴분류 문제의 최대 마진 분리 초평면을 얻을 수 있다. 기존의 이완 절차는 지원 백터에 대한 필요 조건을 만족한다. 본 논문에서는 학습 중 지원 벡터를 확인하기 위한 충분 조건을 제시한다. 순차적 학습을 위하여 기존의 SVM을 확장하고 커널 판별함수를 정의한 후에 체계적인 학습방법을 제시한다. 실험 결과는 새 방법이 기존의 방법과 동등하거나 우수한 분류 성능을 갖고있음을 보여준다.