DOI QR코드

DOI QR Code

Pallet Measurement Method for Automatic Pallet Engaging in Real-Time

자동 화물처리를 위한 실시간 팔레트 측정 방법

  • 변성민 (부산대학교 컴퓨터공학과) ;
  • 김민환 (부산대학교 정보컴퓨터공학부)
  • Received : 2010.08.27
  • Accepted : 2010.12.06
  • Published : 2011.02.28

Abstract

A vision-based method for positioning and orienting of pallets is presented in this paper, which guides autonomous forklifts to engage pallets automatically. The method uses a single camera mounted on the fork carriage instead of two cameras for stereo vision that is conventionally used for positioning objects in 3D space. An image back-projection technique for determining the orient of a pallet without any fiducial marks is suggested in tins paper, which projects two feature lines on the front plane of the pallet backward onto a virtual plane that can be rotated around a given axis in 3D space. We show the fact that the rotation angle of the virtual plane on which the back-projected feature lines are parallel can be used to describe the orient of the pallet front plane. The position of the pallet is determined by using ratio of the distance between the back-projected feature lines and their real distance on the pallet front plane. Through a test on real pallet images, we found that the proposed method was applicable to real environment practically in real-time.

본 논문에서는 자율주행 지게차에서 팔레트 화물을 자동 인식하여 운송할 수 있도록 하는 비전 기반의 팔레트 자세 및 위치 측정 방법을 제안한다. 일반적으로 3차원 측정에서는 스테레오 비전 기술이 사용되나, 제안한 방법에서는 지게차의 포크 캐리지에 설치한 한 대의 카메라만을 사용한다. 먼저 어떤 별도의 표식이 없는 팔레트의 자세를 측정하기 위해 영상 역투영 기법을 제시하였는데, 이 기법에서는 팔레트 앞면 영상에서의 두 특징 직선을 3차원 공간에서 주어진 축 중성으로 회전시킬 수 있는 가상평면에 역투영 시킨다. 가상평면에 역투영된 두 특정 직선이 평행하게 되면 그 때의 가상평면의 회전각이 팔레트의 자세를 나타낸다는 사실을 이용한다. 팔레트 위치 측정 방법에서는 역투영된 특징 직선 간의 거리와 팔레트 앞면에서의 실제 직선간 거리의 비율을 이용한다. 실제 팔레트 영상에 대한 실험을 통하여 제안된 방법의 타당성 및 실시간 실행 가능성을 보였다.

Keywords

References

  1. J.W. Jang, W.S. Yang, and J.G. Jeong, "An Automatic Engagement Robot System using Combined Acoustic and Visual Sensors," 한국통신학회논문지, Vol.18, No.10, 1993.
  2. D. Lecking, O. Wulf, and B. Wagner, "Variable Pallet Pick-Up for Automatic Guided Vehicles in Industrial Environments," IEEE Conference on Emerging Technologies and Factory Automation, pp.1169-1174, 2006.
  3. M. Seelinger and J.D. Yoder, "Automatic Visual Guidance of a Forklift Engaging a Pallet," Robotics and Autonomous Systems, Vol.54, pp.1026-1038, 2006. https://doi.org/10.1016/j.robot.2005.10.009
  4. J. Pages, X. Armangue, J. Salvi, J. Freixenet, and J. Marti, "A Computer Vision System for Autonomous Forklift Vehicles in Industrial Environments," Proceedings of 9th Mediterranean Conference on Control and Automation, 2001.
  5. G. Garibotto, S. Masciangelo, M. Ilic, and P. Bassino, "ROBOLIFT: A Vision Guided Autonomous Fork-lift for Pallet Handling," Proceedings of the 1996 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.656-663, 1996.
  6. A. Kelly, B. Nacy, D. Stager, and R. Unnikrishnan, "An Infrastructure-free Automated Guided Vehicle based on Computer Vision," IEEE Robotics & Automation Magazine, pp. 24-34, September 2007.
  7. Z. Zhang, "A Flexible New Technique for Camera Calibration," Technical Report MSR- TR-98-71, 1998.
  8. 국가표준인증종합정보센터, http://www.standard.go.kr/
  9. G.P. Stein, "Lens Distortion Calibration using Point Correspondences," Proceedings of the 1997 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.602-608, 1997.
  10. 김병익, 김대현, 배태욱, 김영춘, 심태은, 김덕규, "광각 카메라 영상의 보정을 위한 자동 정합 좌표 추출 방법," 한국멀티미디어학회논문지, Vol.13, No.3, pp.410-416, 2010.
  11. S. Suzuki and K. Be, "Topological Structural Analysis of Digitized Binary Images by Border Following," Computer Vision, Graphics and Image Processing, Vol.30, Issue 1, pp 32-46, 1985. https://doi.org/10.1016/0734-189X(85)90016-7

Cited by

  1. Development of Autonomous Loading and Unloading for Network-based Unmanned Forklift vol.17, pp.10, 2011, https://doi.org/10.5302/J.ICROS.2011.17.10.1051
  2. Implementation of a Stereo Vision Using Saliency Map Method vol.36, pp.5, 2012, https://doi.org/10.5916/jkosme.2012.36.5.674
  3. Multi-Stage Pallet Recognition Using 3-Directions Labeling and Surface Features vol.17, pp.11, 2011, https://doi.org/10.14801/jkiit.2019.17.11.87