Implementation of Preceding Vehicle Break-Lamp Detection System using Selective Attention Model and YOLO

선택적 주의집중 모델과 YOLO를 이용한 선행 차량 정지등 검출 시스템 구현

  • Lee, Woo-Beom (Department of Information and Communication Software Engineering, Sangji University)
  • 이우범 (상지대학교 융합기술공과대학 정보통신소프트웨어공학과)
  • Received : 2021.06.10
  • Accepted : 2021.06.29
  • Published : 2021.06.30

Abstract

A ADAS(Advanced Driver Assistance System) for the safe driving is an important area in autonumous car. Specially, a ADAS software using an image sensors attached in previous car is low in building cost, and utilizes for various purpose. A algorithm for detecting the break-lamp from the tail-lamp of preceding vehicle is proposed in this paper. This method can perceive the driving condition of preceding vehicle. Proposed method uses the YOLO techinicque that has a excellent performance in object tracing from real scene, and extracts the intensity variable region of break-lamp from HSV image of detected vehicle ROI(Region Of Interest). After detecting the candidate region of break-lamp, each isolated region is labeled. The break-lamp region is detected finally by using the proposed selective-attention model that percieves the shape-similarity of labeled candidate region. In order to evaluate the performance of the preceding vehicle break-lamp detection system implemented in this paper, we applied our system to the various driving images. As a results, implemented system showed successful results.

운전자의 안전 운전을 위한 첨단 운전자 보조시스템(ADAS; Advanced Driver Assistance System)은 자율주행 자동차에서 중요한 연구 분야 가운데 하나이다. 특히, 이전에 자동차에 부착된 영상센서를 기반으로 한 ADAS 소프트웨어는 구축 비용이 저렴하고 그 활용도가 우수하다. 본 논문에서는 선행차의 주행 상황을 인지할 수 있는 선행 차량 후미등(Tail-Lamp)의 정지등(Break-Lamp) 영역을 검출하는 알고리즘을 제안한다. 제안하는 방법은 주행 영상으로부터 객체 추적에 우수한 성능을 보이고 있는 YOLO 기술을 이용하여 자동차 객체를 추출하고, 추출된 자동차 관심 영역의 HSV 영상을 이용하여 정지등의 밝기 변화 영역을 검출한다. 그 다음 검출된 각 정지등 후보 고립영역을 라벨링하여 후보 영역들 간의 모양 대칭성을 인지하는 선택적 주의집중 모델(Selective Attention Model)을 적용하여 정지등 영역을 검출한다. 제안한 알고리즘의 성능 평가를 위하여 다양한 주행 영상에 적용하여 실험한 결과 ADAS에 적용 가능한 성공적인 검출 결과를 보였다.

Keywords

Acknowledgement

이 논문은 2019년도 상지대학교 교내 연구비 지원에 의한 것임.

References

  1. https://tech.hyundaimotorgroup.com
  2. https://news.hyundaimotorgroup.com
  3. "Volkswagen interactive Head&Tail Lamp", volkswagen Korea(autogram channel), Nov 2018.
  4. "Brain Research Innovation 2030 - Brain Research Promotion Basic Plan 3rd", Ministry of Science and ICT, et al, May 2018.
  5. J. Redmon. Darknet: Open source neural networks in c. http://pjreddie.com/darknet/, 2013-2016.
  6. Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi, "You Only Look Once: Unified, Real-Time Object Detection", arXiv:1506.02640 [cs.CV], May 2016.
  7. Joseph Redmon, Ali Farhadi, "YOLO9000: Better, Faster, Stronger", arXiv:1612.08242 [cs.CV], Dec 2016.
  8. Joseph Redmon, Ali Farhadi, "YOLOv3: An Incremental Improvement", arXiv:1804.02767 [cs.CV], Apr 2018.
  9. Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao, "YOLOv4: Optimal Speed and Accuracy of Object Detection", arXiv:2004.10934 [cs.CV], Apr 2020.
  10. https://en.wikipedia.org/wiki/HSL_and_HSV
  11. R. M. Haralick, et al, "Image analysis using mathematical morphology", IEEE transactions on PAMI, Vol. 9, No. 4, pp. 532-550, Jul 1987. DOI: https://doi.org/10.1109/TPAMI.1987.4767941.