Research on railroad track object detection and classification based on mask R-CNN

mask R-CNN 기반의 철도선로 객체검출 및 분류에 관한 연구

  • Seung-Shin Lee (Dept. of IT.Energy Convergence, Korea National University of Transportation) ;
  • Jong-Won Choi (Dept. of Software, Korea National University of Transportation) ;
  • Ryum-Duck Oh (Dept. of Software & IT.Energy Convergence, Korea National University of Transportation)
  • 이승신 (한국교통대학교 교통에너지융합학과) ;
  • 최종원 (한국교통대학교 컴퓨터소프트웨어학과) ;
  • 오염덕 (한국교통대학교 컴퓨터소프트웨어학과 & 교통에너지융합학과)
  • Published : 2024.01.17

Abstract

본 논문에서는 mask R-CNN의 이미지 세그먼테이션(Image Segmentation) 기법을 이용하여 철도의 선로를 식별하고 분류하는 방법을 제안한다. mask R-CNN의 이미지 세그먼테이션은 바운딩 박스(Bounding Box)를 통해 이미지에서 객체를 식별하는 R-CNN 알고리즘과는 달리 픽셀 단위로 관심 있는 객체를 검출하고 분류하는 기법으로서 오브젝트 디텍션(Object Detection)보다 더욱 정교한 객체 식별이 가능하다. 본 연구에서는 Pascal VOC 형태의 고속철도 데이터 24,205셋의 데이터를 전처리하고 MS COCO 데이터셋으로 변환하여, MMDetection의 mask R-CNN을 통해 픽셀 단위로 철도선로를 식별하고 정상/불량 상태를 분류하는 연구를 수행하였다. 선행연구에서는 YOLO를 활용하여 Polygon형태의 좌표를 바운딩 박스로 분류하였는데, 본 연구에서는 mask R-CNN을 활용함으로써 철도 선로를 더욱 정교하게 식별하였으며 정상/불량의 상태 분류는 YOLO와 유사한 성능을 보였다.

Keywords

Acknowledgement

이 성과는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. 2020R1A2C1101867)

References

  1. Sbhuh, "Image Processing Technology for Detection of Fallout of Railway Vehicle Parts based on Deep Learning", Doctoral dissertation, Seoul National University of Science and Technology, 2021
  2. Djkim, bckim, dwlee, and ysyu, "Comparison on Performance of 3 Types of Deep-Learning Model for Detecting Cracks of Railroad Ties", The Conference of Korea Institute of information and Communication Engineering, pp. 376-378, 2020.10
  3. H.Wang, M.Li, and Z.Wan, "Rail surface defect detection based on improved Mask R-CNN", Computers and Electrical Engineering, Volume 102, 2022
  4. K.Chen, J.Wang, J.Pang, Y.Cao, and Y.Xiong et al., "MMDetection: Open MMLab Detection Toolbox and Benchmark", arXiv preprint arXiv:1906.07155, 2019
  5. K.He, G.Gkioxari, P. Dollar, and R Girshick, "Mask R-CNN", Proceedings of the IEEE International Conference on Computer Vision(ICCV), 2017, pp. 2961-2969