DOI QR코드

DOI QR Code

데이터 분포와 연판정을 이용한 MCT-Adaboost 커널 분류기

Kernel Classification Using Data Distribution and Soft Decision MCT-Adaboost

  • 투고 : 2016.08.12
  • 심사 : 2016.09.08
  • 발행 : 2017.03.31

초록

MCT-Adaboost 학습 알고리즘은 각 학습 단계에서 배경과 객체를 구분하는 가장 좋은 특징을 찾는 학습 알고리즘이다. 각 학습 단계에서는 최적의 특징을 검출하기 위해 학습 데이터에서 각 특징의 각 커널에서 모든 오차율을 산정하고, 각 특징에서 모든 커널들의 합을 하였을 경우 최소 오차율을 가지는 특징을 선택하도록 되어 있다. 이를 선택하고 다음 학습때 영향을 주는 약분류기에서 기존의 MCT-Adaboost 방법은 경판정 방법으로 사용하였다. 이 방법은 특정 커널에서 객체 데이터와 배경 데이터의 오류율이 유사할 경우, 한쪽으로 판정하기 때문에, 제대로 된 결과값을 산정할 수 없는 문제가 있다. 이를 유연하게 하기 위해 본 연구에서는 연판정을 이용한 약분류기 방법을 제안한다. 기존의 MCT-Adaboost는 초기 가중치를 동일하게 산정한다. 하지만, 이는 데이터의 특성을 모른다는 가정하에 설계된 초기 가중치 설정이다. 본 논문에서는 데이터 분포를 이용하여 가중치를 확률적으로 다르게 할당함으로서, 적은 학습에도 좋은 결과를 보이는 방법을 제안한다. 실험 결과에는 기존의 MCT-Adaboost가 제안하는 성능평가를 통해, 본 연구가 제안하는 방법이 기존 방법에 비해 좋은 결과를 보였다.

The MCT-Adaboost algorithm chooses an optimal set of features in each rounds. On each round, it chooses the best feature by calculate minimizing error rate using feature index and MCT kernel distribution. The involved process of weak classification executed by a hard decision. This decision occurs some problems when it chooses ambiguous kernel feature. In this paper, we propose the modified MCT-Adaboost classification using soft decision. The typical MCT-Adaboost assigns a same initial weights to each datum. This is because, they assume that all information of database is blind. We assign different initial weights with our propose new algorithm using some statistical properties of involved features. In experimental results, we confirm that our method shows better performance than the traditional one.

키워드

참고문헌

  1. Y. Kim and B. Ryu, "Future social change from development of AI technology," KISTEP R&D InI, 2016.
  2. S. Kulkarni, L. Gabor, and S. Venkatesh, "Learning pattern classification-a survey," IEEE Transactions on Information Theory, Vol.44, No.6, pp.2178-2206, 1998. https://doi.org/10.1109/18.720536
  3. S. Tong and D. Koller, "Support vector machine active learning with applications to text classification," The Journal of Machine Learning Research, pp.45-66, 2001.
  4. J. Friedman, T. Hastie, and R. Tisbhirani, "Additive logistic regression: a statistical view of boosting," The Annals of Statistics Vol.28, No.2, pp.337-407, 2000. https://doi.org/10.1214/aos/1016218223
  5. M. Hagan, H. Demuth, M. Beale, and O. Jesus, "Neural Network Design," Boston : Pws Pub., 1996.
  6. Y. Freund and R. Schapire, "A decision-theoretic generalization of on-line learning and an application to boosting," Journal of computer and system sciences, Vol.55. No.1, pp.119-139, 1997. https://doi.org/10.1006/jcss.1997.1504
  7. P. Viola and M. Jones, "Rapid object detection using a boosted cascade of simple features," Computer Vision and Pattern Recognition, 2001.
  8. K. Kim and H. Choi, "Object detection using Fuzzy Adaboost," Journal of the Korea Contents Association, Vol.16, No.5, pp.104-112, 2016. https://doi.org/10.5392/JKCA.2016.16.05.104
  9. S. Lomax, and S. Vadera, "A survey of cost-sensitive decision tree induction algorithms," ACM Computing Surveys (CSUR), Vol.45, No.2, 2013.
  10. G. Hinton, S. Osindero, and Y. Teh, "A fast learning algorithm for deep belief nets," Neural Computation, Vol.18, No.7, pp.1527-1554, 2006. https://doi.org/10.1162/neco.2006.18.7.1527
  11. B. Froba and A. Ernst, "Face detection with the modified census transform." Automatic Face and Gesture Recognition, 2004.
  12. Face dataset from Newyork University [Internet], http://www.cs.nyu.edu/roweis/data.html.
  13. Pedestrian dataset from MIT [Internet], http://cbcl.mit.edu/software-datasets/PedestrianData.html.