Abstract
The classification time required by conventional multi-class SVMs(Support Vector Machines) greatly increases as the number of pattern classes increases. This is due to the fact that the needed set of binary class SVMs gets quite large. In this paper, we propose a method to reduce the number of classes by using nearest neighbor rule (NNR) in the principle component analysis and linear discriminant analysis (PCA+LDA) feature subspace. The proposed method reduces the number of face classes by selecting a few classes closest to the test data projected in the PCA+LDA feature subspace. Results of experiment show that our proposed method has a lower error rate than nearest neighbor classification (NNC) method. Though our error rate is comparable to the conventional multi-class SVMs, the classification process of our method is much faster.
기존의 다중 클래스 SVMs은 클래스의 개수가 증가되면, 이진 클래스 SVMs의 수도 증가되어 분류를 위해 많은 시간이 요구된다. 본 논문에서는 분류 시간을 줄이기 위하여, PCA+LDA 특징 부 공간에서 NNR을 적용하여 클래스의 개수를 줄이는 방법을 제안한다. 제안된 방법은 PCA+LDA 특징 부 공간에서 간단한 NNR을 사용하여, 입력된 테스트 특징 데이터와 근접된 얼굴 클래스들을 추출함으로서 얼굴 클래스의 개수를 줄이는 방법이다. 클래스 개수를 줄임으로, 본 방법은 기존의 다중 클래스 SVMs에 비하여 훈련 횟수와 비교 횟수를 줄일 수 있고, 결과적으로 하나의 테스트 영상을 위한 분류 시간을 크게 줄일 수 있다. 또한 실험 결과, 제안된 방법은 NNC 기법보다 낮은 에러 율을 가지며, 기존의 다중 클래스 SVMs보다 동일한 에러 율을 갖지만, 보다 빠른 분류시간을 가짐을 확인할 수 있었다.