Moving Object Classification through Fusion of Shape and Motion Information

형상 정보와 모션 정보 융합을 통한 움직이는 물체 인식

  • Kim Jung-Ho (Dept. of Electronics & Computer Engineering, Korea University) ;
  • Ko Han-Seok (Dept. of Electronics & Computer Engineering, Korea University)
  • 김정호 (고려대학교 전자컴퓨터공학과) ;
  • 고한석 (고려대학교 전자컴퓨터공학과)
  • Published : 2006.09.01

Abstract

Conventional classification method uses a single classifier based on shape or motion feature. However this method exhibits a weakness if naively used since the classification performance is highly sensitive to the accuracy of moving region to be detected. The detection accuracy, in turn, depends on the condition of the image background. In this paper, we propose to resolve the drawback and thus strengthen the classification reliability by employing a Bayesian decision fusion and by optimally combining the decisions of three classifiers. The first classifier is based on shape information obtained from Fourier descriptors while the second is based on the shape information obtained from image gradients. The third classifier uses motion information. Our experimental results on the classification Performance of human and vehicle with a static camera in various directions confirm a significant improvement and indicate the superiority of the proposed decision fusion method compared to the conventional Majority Voting and Weight Average Score approaches.

기존의 인식 방법은 물체에 대한 형상 정보 또는 움직임을 특징으로 한 단일 인식기를 사용한다. 하지만, 기존의 단일 특징 기반의 단일 인식기를 사용하는 방법의 인식 성능은 물체의 영역에 대한 정확한 검출에 크게 의존하는 단점을 가진다. 본 논문에서는 이러한 기존 인식방법의 단점을 해결하고, 인식의 신뢰성을 높이기 위해서 세 가지 인식기에 의한 각 결과를 Bayesian을 이용하여 융합하는 새로운 인식 방법을 제안한다. 첫 번째 인식기는 푸리에 묘사자로부터 얻은 형상 정보를 특징으로 한 신경망을 사용하고, 두 번째 인식기는 형상 정보에 대한 기울기를 바탕으로 한 통계적인 방법을 사용한다. 또한. 세 번째 인식기는 검출된 물체의 일정 부분의 움직임에 대한 모션 정보를 특징으로 하여 인식한다. 본 논문의 실험결과에서 제안한 결과 융합방법은 기존의 Majority Voting과 Weight Average Score 방법에 비해서 더 우수한 인식 성능을 보여준다.

Keywords

References

  1. A. J Lipton, H. Fujiyosi and R S. Patil, 'Moving target classification and tracking from real-time video,' Proc. of IEEE Workshop, on Applications of Computer Vision, pp. 8-14, 1998 https://doi.org/10.1109/ACV.1998.732851
  2. C. Stauffer and W. Grimson, 'Adaptive background mixture models for real-time tracking, ' Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, Vol. 2, pp. 246-252, 1999 https://doi.org/10.1109/CVPR.1999.784637
  3. H. Fujiyoshi. and A. J. Lipton 'Real-time human motion analysis by image skeletonization', IEICE Trans, on Info & Systems, Vol. E87-D, No.1, Jan 2004
  4. I. Harigaoglu, D. Harwood and L. S. Davis, 'A real-time system for detecting and tracking people, ' Proc. of Int. Conf. on Face and Gesture Recognition, pp. 222-227, April 1998 https://doi.org/10.1109/AFGR.1998.670952
  5. J. Barron, D. Fleet and S. Beauchemin, 'Performance of optical flow techniques, ' Int. J. Comput, Vis., Vol. 12, No.1, pp. 42-77, 1994 https://doi.org/10.1007/BF01420984
  6. Li. X. R., Zhu, Y., Wang, J., Han and C. 'Optimal linear estimation fusion-Part I: Unified fusion rules, ' IEEE Trans. Information Theory. Vol. 49, No.9, Sep 2003 https://doi.org/10.1109/TIT.2003.815774
  7. M. M. Kokar and J A. Tomasik 'Data vs. decision fusion in the category theory framework, ' Proc. 2nd Int. Conf. on Information Fusion, 2001
  8. R. Cutler and L. S. Davis, 'Robust real-time periodic motion detection, analysis, and applications,' IEEE Trans. Pattern Anal. Machine Intell., Vol. 22, pp. 781-796, Aug 2000 https://doi.org/10.1109/34.868681
  9. R. T Collins, A. J Lipton and T. Kanade, 'Introduction to the special section on video surveillance,' IEEE Trans. Pattern Anal. Machine Intell., Vol. 22, pp. 745-746, Aug 2000 https://doi.org/10.1109/TPAMI.2000.868676
  10. Y. Kuno, T. Watanabe, Y. Shimosakoda and S. Nakagawa, 'Automated detection of human for visual surveillance system, ' Proc. of Int. Conf. on Pattern Recognition, pp. 865-869, 1996 https://doi.org/10.1109/ICPR.1996.547291