DOI QR코드

DOI QR Code

Fast Natural Feature Tracking Using Optical Flow

광류를 사용한 빠른 자연특징 추적

  • 배병조 (인천대학교 컴퓨터공학부) ;
  • 박종승 (인천대학교 컴퓨터공학부)
  • Received : 2010.05.24
  • Accepted : 2010.09.06
  • Published : 2010.10.31

Abstract

Visual tracking techniques for Augmented Reality are classified as either a marker tracking approach or a natural feature tracking approach. Marker-based tracking algorithms can be efficiently implemented sufficient to work in real-time on mobile devices. On the other hand, natural feature tracking methods require a lot of computationally expensive procedures. Most previous natural feature tracking methods include heavy feature extraction and pattern matching procedures for each of the input image frame. It is difficult to implement real-time augmented reality applications including the capability of natural feature tracking on low performance devices. The required computational time cost is also in proportion to the number of patterns to be matched. To speed up the natural feature tracking process, we propose a novel fast tracking method based on optical flow. We implemented the proposed method on mobile devices to run in real-time and be appropriately used with mobile augmented reality applications. Moreover, during tracking, we keep up the total number of feature points by inserting new feature points proportional to the number of vanished feature points. Experimental results showed that the proposed method reduces the computational cost and also stabilizes the camera pose estimation results.

시각기반 증강현실을 구현하기 위한 추적 방법들은 정형 패턴 마커를 가정하는 마커 추적기법과 영상 특징점을 추출하여 이를 추적하는 자연특징 추적기법으로 분류된다. 마커 추적기법은 빠른 마커의 추출 및 인식이 가능하여 모바일 기기에서도 실시간 처리가 가능하다. 한편 자연 특징 추적기법의 경우는 입력 영상의 다양성을 고려해야 하므로 계산량이 많은 처리과정을 거쳐야 한다. 따라서 저사양의 모바일 기기에서는 빠른 실시간 처리에 어려움이 있다. 기존의 자연특징 추적에서는 입력되는 카메라 영상의 매 프레임마다 특징점을 추출하고 패턴매칭 과정을 거친다. 다수의 자연특징점들을 추출하는 과정과 패턴매칭 과정은 계산량이 많아 실시간 응용에 많은 제약을 가하는 요인으로 작용한다. 특히 등록된 패턴의 개수가 증가될수록 패턴매칭 과정의 처리시간도 증가하게 된다. 본 논문에서는 이러한 단점을 해결하고자 자연특징 추적 과정에 광류를 사용하여 모바일 기기에서의 실시간 동작이 가능하도록 하였다. 패턴매칭에 사용된 특징점들은 다음의 연속 프레임에서 광류추적 기법을 적용하여 대응점들을 빠르게 찾도록 하였다. 또한 추적 과정에서 소실되는 특징점의 수에 비례하여 새로운 특징점들을 추가하여 특징점의 전체 개수는 일정 수준으로 유지되도록 하였다. 실험 결과 제안하는 추적 방법은 자연특징점 추적 시간을 상당히 단축시킬 뿐만 아니라 카메라 자세 추정 결과도 더욱 안정시킴을 보여주었다.

Keywords

References

  1. R. Azuma, “A survey of augmented reality,” Presence: Teleoperators and Virtual Environments, Vol.6, No.4, pp. 355-385, 1997.
  2. T. Höollerer, S. Feiner, T. Terauchi, G. Rashid, and D. Hallaway, “Exploring MARS: Developing Indoor and Outdoor User Interfaces to a Mobile Augmented Reality System,” IEEE Computers Graphics and Applications, Vol.23, No.6, pp.779-785, 1999. https://doi.org/10.1016/S0097-8493(99)00103-X
  3. C. Geiger, B. Kleinnjohann, C. Reimann, and D. Stichling, “Mobile AR4ALL,” International Symposium on Augmented Reality 2001, pp.181-182, 2001.
  4. M. Assad, D. J. Carmichael, D. Cutting, and A. Hudson, “A Demonstration of Mobile Augmented Reality,” In OzCHI Demo Section, 2003.
  5. David G. Lowe, “Object recognition from local scale-invariant features,” In International Conference on Computer Vision, Corfu, Greece, pp.1150-1157, 1999. https://doi.org/10.1109/ICCV.1999.790410
  6. D. Wagner, G. Reitmayr, A. Mulloni, T. Drummond, D. Schmalstieg, “Pose Tracking from Natural Features on Mobile Phones,” In Proc. of ISMAR 2008, pp.125-134, 2008. https://doi.org/10.1109/ISMAR.2008.4637338
  7. Wagner, D., Schmalstieg, D., Bischof, H., “Multiple target detection and tracking with guaranteed framerates on mobile phones”, ISMAR 2009. pp.57-64, 2009. https://doi.org/10.1109/ISMAR.2009.5336497
  8. David G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, Vol.60(2), pp.91-110, 2004. https://doi.org/10.1023/B:VISI.0000029664.99615.94
  9. H. Bay, T. Tuytelaars, and L. Van Gool, “SURF: Speeded Up Robust Features,” ECCV, pp.404-417, 2006. https://doi.org/10.1007/11744023_32
  10. J.Y. Bouguet, “Pyramidal Implementation of the Lucas-Kanade Feature Tracker,” Technical Report, Intel Corporation, Microprocessor Research Labs, 2000.
  11. B. Lucas, T. Kanade, “An iterative image registration technique with an application to stereo vision,” In Proc. Seventh International Joint Conference on Artificial Intelligence, Vancouver, Canada, pp.674-679, 1981.
  12. Wagner, D., Reitmayr, G., Mulloni, A., Drummond, T., Schmalstieg, D., “Real-Time Detection and Tracking for Augmented Reality on Mobile Phones,” Visualization and Computer Graphics, Vol.16, pp.355-368, 2010. https://doi.org/10.1109/TVCG.2009.99
  13. J.L. Barron, D.J. Fleet, S.S. Beauchemin, and T.A. Burkitt, “Performance of Optical Flow Techniques,” CVPR, pp. 236-242, 1992. https://doi.org/10.1109/CVPR.1992.223269
  14. G. Papagiannakis, G. Singh, N. Magnenat-Thalmann, “A survey of mobile and wireless technologies for augmented reality systems,” Computer Animation and Virtual Worlds, Vol.19, pp.3-22, 2008. https://doi.org/10.1002/cav.221
  15. M. A. Fischler, R. C. Bolles, “Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography,” ACM, Vol.24, pp 381-395, 1981. https://doi.org/10.1145/358669.358692