DOI QR코드

DOI QR Code

Deep Learning Based Emergency Response Traffic Signal Control System

  • Received : 2023.01.16
  • Accepted : 2023.02.06
  • Published : 2023.02.28

Abstract

In this paper, we developed a traffic signal control system for emergency situations that can minimize loss of property and life by actively controlling traffic signals in a certain section in response to emergency situations. When the emergency vehicle terminal transmits an emergency signal including identification information and GPS information, the surrounding image is obtained from the camera, and the object is analyzed based on deep learning to output object information having information such as the location, type, and size of the object. After generating information tracking this object and detecting the signal system, the signal system is switched to emergency mode to identify and track the emergency vehicle based on the received GPS information, and to transmit emergency control signals based on the emergency vehicle's traveling route. It is a system that can be transmitted to a signal controller. This system prevents the emergency vehicle from being blocked by an emergency control signal that is applied first according to an emergency signal, thereby minimizing loss of life and property due to traffic obstacles.

이 논문에서 우리는 응급상황에 대응하여 일정 구간의 교통신호를 능동적으로 제어함으로써 재산과 인명 손실을 최소화할 수 있는 응급상황 대응 교통신호 제어 시스템을 개발하였다. 응급 차량 단말기에서 식별정보 및 GPS 정보를 포함한 응급신호를 송출하면 카메라에서 주위 영상을 획득하게 되고, 딥러닝 기반으로 객체를 분석하여 객체의 위치, 종류, 크기 등 정보를 가지는 객체정보를 출력한다. 이 객체를 트래킹한 정보를 생성하여 신호체계를 검출한 후 신호체계를 응급모드로 전환하여 수신받은 GPS 정보를 기준으로 응급 차량을 식별·추적하고 이 응급 차량의 진행 경로 기준으로 긴급 제어신호를 교통신호 제어기로 전송할 수 있는 체계이다. 이 시스템은 응급신호에 따라 우선 적용되는 긴급 제어신호에 의해 응급 차량의 진행이 저지되지 않도록 하여, 교통상 장애에 따른 인명과 재산의 손실을 최소화할 수 있다.

Keywords

I. Introduction

도심이 확장되고 차량 보급률이 증가함에 따라 교통체계 개선 관련 각종 정책에도 불구하고 상시 교통 혼잡이 지속화 됨으로써 많은 사회적 경제적 손실을 발생시키고 있다. 특히, 응급 환자, 화재 발생 등의 응급상황에서 도심지의 차량 정체 상황은 인명 손실을 포함하여 돌이킬 수 없는 손실을 야기할 수 있다.

최근 시민 의식 고취로 구급차, 소방차 등의 응급 차량에 대한 운전자의 자발적 양보가 원활히 이루어지고 있으나, 교차로의 차량 정체 상황, 교통신호 체계 등에 의해 양보하고 싶어도 할 수 없는 상황이 종종 발생한다. 따라서, 사회 안전망 확보를 위해 응급상황에 능동적으로 대응할 수 있는 교통신호 통제 시스템에 대한 개발이 요구되며, 종래에 차량 정체에 대한 적극적 대응을 위해 연구ㆍ적용되어온 능동형 교통신호 운영방식과 딥러닝(Deep Learning) 기법을 이용하여 객체 감지 및 트래킹 등을 수행하는 영상 분석 기술 등을 종합적으로 활용하는 기술을 연구할 필요가 있다.

따라서 이 논문에서는 차량 정체율 및 대기시간을 현저히 절감시킬 수 있는 딥러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템에 기반하여[1], 응급신호 수신 또는 응급상황 감지에 따라 긴급 제어신호가 우선 적용되도록 하는 ‘응급상황 대응 교통신호 제어 시스템’을 개발하는 데에 그 목적이 있다.

이 시스템을 개발하기 위한 주요 구성요소로써 먼저 응급 차량에는 식별정보 및 GPS 정보를 포함한 응급신호를 송출하는 응급차량 단말기가 있어야 한다. 그리고 교차로 통행로 차선 수에 맞게 분산 배치되어 담당 영역의 도로 영상을 획득하는 카메라가 설치되어 있어야 한다.

이 카메라에서 수집된 영상은 차량이 통행하는 도롯가의 함체 내에 설치되는 관제서버를 통하게 되는데 이 관제 서버는 딥러닝 기반의 객체 분석 알고리즘을 이용하여 카메라의 촬영에 의해 획득된 영상들을 분석하여 감지된 객체의 위치, 종류, 크기 중 최소한 하나 이상을 포함하는 객체 정보를 출력한다.

또한 이 관제 서버 내에는 감지된 객체를 트래킹하여 교통정보를 생성하며, 생성된 교통정보를 기반으로 최적 신호체계를 검출한 후, 검출된 최적 신호체계에 따른 감응신호를 교통신호 제어기로 전송하는 콘트롤러를 포함하고 있다.

실제 응급상황이 발생하여 응급 차량에서 식별정보 및 GPS 정보를 포함한 응급신호를 송출하게 되면 관제 서버는 이 응급신호를 수신ㆍ분석하여 교통신호 제어 콘트롤러를 응급 모드로 전환 시키고, 콘트롤러는 응급 차량에서 발송된 GPS 정보를 기준으로 설치된 반경 범위 내의 카메라 촬영 영상으로부터 객체 식별정보에 대응하는 응급 차량을 식별하고 추적하여 응급 차량의 진행 경로 기준으로 감응 신호에 우선하는 긴급 제어신호를 교통신호 제어기로 전송하게 된다.

이 시스템을 위해 응급차량에 탑재되어야 하는 응급차량 단말기는 네비게이션 기능이 구비 되어 있으며, 이 네비게이션 UI에 목적지가 입력되면 경로 주위에 응급차를 위한 응급신호를 받을 수 있도록 관제 서버가 송출하는 필요 정보를 수신하여 화면에 표출하도록 구성될 수 있다

또한, 이 시스템에서 관제 서버는 응급 차량 단말기의 목적지 정보를 수신하여 최적 경로를 도출하고 이 정보를 응급 차량의 단말기에 역으로 제공한다. 콘트롤러는 최적 경로와 응급 차량의 실시간 진행 경로를 대조하며, 응급 차량 앞 구간의 교통신호 제어기에 선제적으로 긴급 제어 신호를 전송하도록 구성된다.

이 논문에서 구현하고자 하는 ‘응급상황 대응 교통신호 제어 시스템’의 주요 기능을 정리해보면, 이 시스템은 기존 딥러닝 기반 객체 감응을 활용한 차량 제어 흐름 제어 시스템을 기반으로 운용되되, 응급상황 발생 시 긴급 제어 신호를 우선 적용할 수 있도록 하기 위한 것으로, 응급상황의 인지 및 긴급 제어신호 운용의 특징이 있다.

카메라들에 의해 촬영된 영상을 분석하여 생성된 객체 정보 및 교통정보에 따라 교통신호가 제어됨으로서 차량 정체율 및 대기시간을 현저히 절감시킬 수 있고, 연비소모 및 오염가스 배출량을 효과적으로 줄여 사회적ㆍ경제적 비용을 절감시킬 수 있게 된다.

또한, 응급신호에 따라 우선 적용되는 긴급 제어신호에 의해 응급차량의 진행이 저지되지 않도록 하여, 교통상 장애에 따른 인명과 재산의 손실을 최소화할 수 있다.

이 논문의 전체적인 구성은 다음과 같다. 먼저 뒤이어 2장에서는 신호등 기반 응급 신호제어와 영상처리 기반 AI 딥러닝에 대해 관련 연구를 살펴보고, 3장에서는 시스템의 구체적인 구현에 대해 상세히 기술한다. 4장에서는 실험 및 평가를 수행하고 5장에서는 결론 및 효과성에 대해 기술한다.

II. Related Works

1. EVP-Based Emergency Vehicle Control

EVP(Emergency Vehicle Preemption) 신호체계 제어는 일반 신호체계에서 긴급차량이 발견되는 경우 우선순위 신호를 제공 후 다시 일반 신호체계로 되돌아오는 프로세스를 말한다. EVP 제어는 일반적으로 다음과 같은 프로세스로 동작한다[2].

첫째, EV 검지 단계로써, EV가 대상 교차로에 진입하였는지에 대한 여부를 유ㆍ무선 검지 장치(센서 등)를 통해 검지 된 후 신호 제어기로 우선 신호 요청이 전달되어 우선신호제어가 시작되는 단계이다. 즉, EV 검지 시점에 해당하며 여기서부터 시작한다.

둘째, 신호제어기 현시 변경 단계로써, EV의 우선신호 요청이 오면 신호제어기에서는 현재의 신호등 운영 현시 상태를 파악한 후 긴급차량의 진행 신호가 아닌 경우 현재 운영 신호 현시의 최소 녹색신호 점등 시간 경과 여부를 확인 후 최소 녹색신호 점등 시간 경과 후 긴급차량의 운행 신호를 출력한다.

셋째, 우선 신호 지속 간격 유지 단계로써, EV 현시 제공시 부터 EV 통과까지 우선 신호제어가 지속되는 단계이다. 일반적으로 EV가 주행 중 어디로 진행할지 그 경로를 사전에 미리 알 수 없기 때문에 EV의 진행 방향과 동일한 직ㆍ좌 동시신호 상태 현시를 제공하는 경우가 제일 많다.

마지막으로, EV 통과 완료 확인 및 원래 신호 복귀 단계 이다. EV가 완전히 해당 교차로를 통과한 것을 확인한 후 우선 신호제어 이전의 신호 운영 상태로 돌아오는 단계이다. 이 경우 조심해야 할 사항은 일상 신호 복귀 첫 현시는 일반 차량 운전자의 혼란을 최소화하기 위하여 EV 진행 신호 출력 다음 현시를 제공하는 방법과 현재의 교통상황에 따라 첫 현시를 결정하는 방법이 있으며, 이렇게 결정된 전이 방법에 따라 3주기 이내에 원 신호로 복귀하는 체계를 가진다.

2. UTIS (Urban Traffic Information System)

UTIS는 국가 ITS 구축사업 중에 하나인 도시지역 광역 교통정보 기반 확충사업의 핵심 시스템으로써, IEEE 802.11a 무선랜 기반의 실시간 교통정보를 수집ㆍ제공하는 시스템이다.

Table 1. Characteristics of UTIS[3]

CPTSCQ_2023_v28n2_121_t0001.png 이미지

UTIS 기반 교통정보 수집 및 제공을 위한 기본 과정으로는 차량내단말기(OBE, On Board Equipment)를 활용하며 이 단말기에 GPS 및 노드ㆍ링크체계로 구성된 전자 지도를 탑재하여 주행 경로에 대한 링크 정보를 작성하여 도시 내 주요 교차로의 도로변에 설치된 노변 기지국(RSE, Road Side Equipment)과의 통신이 이루어 지면 주행정보(위치, 응급신호 등)를 ‘축적’, ‘전송’하는 방식으로 RSE에 전송하게 된다. 이 때, 중앙센터에서 가공된 교통정보는 RSE를 통해 전송 받아 표출하는 방식으로 이루어져 있으며, 결과적으로 UTIS는 필요한 교통정보를 센터로 요청하여 전송받을 수 있는 실시간 양방향 무선 통신 기반의 교통정보수집ㆍ제공시스템이다[4].

이 논문에서도 OBE를 활용하기는 하지만 UTIS처럼 중앙센터와 통신하는 것은 아니며 현장기반 도로나 교차로 내의 카메라 영상처리 및 OBE와 통신을 위한 관제 서버를 활용하는 점이 다른 점이다. 즉, 실제 교차로에 설치된 교통정보 시스템에서 얻어진 영상을 토대로 신호등의 신호 시간이 현장 상황에 적용될 수 있는 실영상 기반 우선순위 교통신호 제어 시스템을 제안하고자 한다.

3. On-Site Control Based Emergency Vehicle Control

응급 차량 우선 신호제어를 위한 현장 제어 방식의 관련 연구를 살펴보면, 응급 차량에 부착된 단말기와 도로 또는 교차로 또는 도로에 설치된 검지기와의 통신을 통해 긴급 차량이 교차로에 진입했는지 여부를 판단하고, 이 검지기를 통해 교차로의 대기 차량의 길이를 산정하여 긴급차량 통과를 위한 신호제어 변경을 수행하는 방식에 대한 연구가 주를 이루고 있다.

현장 제어 관련 기존 연구 중 하나로 먼저, 지점 검지기 기반 현장 제어 알고리즘을 들 수 있다[5][6]. 이 관련 연구에서는 검지기에 의해 수집된 일반차량과 긴급차량의 정보를 바탕으로 긴급차량 진입 시 기존에 형성되어 있던 대기행렬 합류 시간과 그 대기행렬이 사라지는 시간을 고려하여 제어 가능 시점을 산출하는 방식으로 구현하였다. 교차로의 주 도로 꼬리물기 길이 대략 200m, 500m, 800m와 각 길이에 대해 차량 대기 가중치 0.6, 0.7, 0.8, 0.9, 1.0을 기준으로 9가지 상황을 가정함으로써 시뮬레이션을 통해 검증한 결과, 꼬리물기 길이가 길고 차량 대기 가중치가 낮을수록 기존 현장 제어 방식에 비교하여 개선된 효과가 크게 나타났음을 보여주었다.

또 다른 연구에서는 이 논문에서와 같이 GPS 기반 긴급 차량 현장 제어 시스템을 구축하였다[7][8]. 신호제어기에 긴급차량의 GPS 수신 단말기를 부착하여 긴급차량의 접근시 해당 교차로의 신호제어를 수행한다. 교차로 내의 교통 상황을 파악하기 위해 검지기로 대기 차량 수를 실시간으로 수집하여 대기행렬이 차츰 줄어드는 시간을 임계시간으로 산정하였다. 긴급차량의 교차로 예상 도착시간과 임계시간을 비교하여 예상 도착시간이 임계시간보다 작거나 같을 경우 신호제어를 수행하도록 구현하였다. 실제 교차로에 적용하여 시뮬레이션한 결과 시스템이 효과적으로 동작하였으며, GPS 정보 송수신 시 지연시간이 신호제어에 영향을 미칠 수 있음을 보여주었다.

이외에도 UTIS를 활용하여 수집한 자료를 기반으로 현장 제어 방식의 신호제어 시스템을 연구한 사례가 있었다. 해당 시스템은 응급차와 같은 긴급차량의 접근을 검지하면 수행되는 체계로써 검지기와 신호제어기 간 유선통신을 통해 검지 시점 이후 부터 긴급차량의 우선 신호제어가 이루어지는 구조이다. 우선 신호제어는 긴급차량이 해당 교차로를 통과할 때 까지 유지되며, 이후 일반 신호로 복귀하는 프로세스를 소개 하고 있다[9][10].

4. Deep Learning Algorithm for Vehicle Object Recognition

제 4차 산업혁명에 힘입어 최근에 제조되는 대부분의 영상식 카메라는 머신러닝 기반 객체 인식 알고리즘이 탑재 되거나 또는 영상 분석 패키지를 포함하여 출시되고 있다. 차량이 카메라 화각에 진입하면 영상식 카메라가 차량을 찍고 이와 동시에 관제서버에서 획득된 영상 기반 오브젝트 인식을 수행한다, 뒤이어 딥러닝 알고리즘이 작동하여 인식된 오브젝트에 대해 보정을 하는 등 보다 정확하게 차량 객체를 인식하고 추출한다.

딥러닝은 강화학습법으로써 인간의 뇌 정보전달 방식과 유사한 방식이다. 뉴런과 같이 노드 상호관계를 정의하고 수많은 필터를 통해 특징들을 추출해서 분류한 다음 추론한 오차를 근거로 가중치를 변경하며 최적의 해답을 결정하는 모델을 생성하는 학습 방법이다. 기존 영상에서 특징적인 물체의 노드 간 상호관계와 가중치를 딥러닝 모델로 저장, 변경하여 새로운 영상 분석에 활용한다.

CNN (Convolutional Neural Network)은 영상 인식에서 사용되는 성능이 뛰어난 대표적인 학습 방법으로 촬영된 이미지를 매트릭스로 수치화하여 데이터를 분석한다. Fig. 1에서 C1 ∼ C5까지는 데이터 처리를 위해 분할된 이미지 영역의 3차원 매트릭스를 분석하고 FC6, FC7에서는 이를 2차원으로 요약/정리하여 활용하며 정리된 매트릭스는 딥러닝이나 영상 분석에 사용된다[11].

CPTSCQ_2023_v28n2_121_f0001.png 이미지

Fig. 1. The structure of CNN

결과 미세조정이란 인공지능 모델에서 객체 인식 추출의 오류를 줄이기 위해서 특수 목적을 가진 데이터 셋이 필요하며 이를 이용한 인공지능 모델 개선을 추가 학습하게 되는데 이를 말한다. 특수목적성 데이터셋을 사용한 예로 미국 알바니 대학교(University of Albany)에서 차량의 촬영 환경 즉, 날씨, 시간 등에 따라 미세 학습 시 다양한 환경에서의 차량 인식 정확도를 높인 사례를 찾아볼 수 있으며 이를 응용하여 본 논문에서는 YOLO 알고리즘을 도입하여 구현하였다.

Fig. 2에서 YOLO는 각 이미지를 S × S개의 그리드로 분할하고 그리드의 신뢰도를 계산하여 바운딩 볼륨 박스(Bounding Volume Box, 경계 상자)의 위치를 조정함으로써 객체 인식률이 뛰어날 뿐만 아니라 실시간 처리가 가능하다[12][13].

CPTSCQ_2023_v28n2_121_f0002.png 이미지

Fig. 2. Introduction of YOLO v4 for fine learning

5. Induction Signal Control Signal Operation Method

우리 나라의 대부분의 교차로는 일정한 신호주기 및 현시 순서에 의해 운영되거나 신호제어기에 내장된 계절별 신호제어 시간, 시간대별 신호제어 시간, 요일에 따른 신호제어 시간 및 특정일 신호 시간 테이블(Holiday Plan Table)에 의해 운영되는 고정주기식 신호체계방식이 일반적인 신호체계로 운영되고 있다.

이러한 고정주기식 신호체계 방식은 계절별, 요일별, 시간대별로 교통량의 변동이 큰 교통 특성을 잘 반영하지 못하기 때문에 신호 시간의 낭비를 수반하여 도로상에 불필요한 지체를 야기하고 있다.

응급 차량의 출현 및 진입, 신호제어에 이르는 일련의 신호제어 프로세스는 이 논문에서 소개하는 바와 같이 감응신호제어 신호운영방식으로 운영되어야 한다. 이 방식은 고정시간 시간제어 운영방식에 비하여 수요변동이 심한 교차로에서의 지체를 크게 줄일 수 있다.

특히, 응급 차량이 좌회전의 큐로 진입하는 경우 좌회전 감응 신호제어는 좌회전 교통 상태를 파악하여 좌회전 신호를 효율적으로 사용함으로써 다른 현시의 이동류가 남은 신호 시간을 이용하게 함으로써 연동제어와 동시에 신호 효율을 극대화할 수 있다.

이상의 관련 연구에서 살펴본 바와 같이 개발하고자 하는 차량 오브젝트 검지 시스템은 Table 2에서와 같이 현장 카메라에 의한 영상 객체 검지를 기반으로 차량을 검지하고, 검지한 후 즉시 딥러닝 기술을 이용하여 차량 대수, 대기열 길이를 추출함으로써 긴급차량 통행 시 효율적인 신호제어 체계를 구현한다.

Table 2. The excellence of the proposal system

CPTSCQ_2023_v28n2_121_t0002.png 이미지

대기열 차량에 대해 정확한 검지를 기반으로 도로 정보에 대한 신뢰성을 보장하고 긴급차량 운행에 대응하기 위한 신호 운영 측면에서 긴급차량을 위한 신호체계를 개선함으로써 정확하고 신속한 차량 현황 정보를 제공하고자 한다.

III. Design and Implementation

이 장에서는 ‘응급상황 대응 교통신호 제어 시스템’을 구현하기 위한 설계와 구현에 대해 상세히 설명한다. 이 시스템은 딥러닝 기반 객체 감응을 활용한 차량 제어 흐름 제어 시스템을 기반으로 동작되며, 응급 상황 발생 시 긴급제어신호를 우선 적용할 수 있도록 하기 위한 체계로 응급 상황의 인지 및 긴급제어신호 운용을 특징으로 한다.

Fig. 3은 시스템 개념도이며 각 부 명칭 및 주요 기능은 Table 3과 같다.

CPTSCQ_2023_v28n2_121_f0003.png 이미지

Fig. 3. System Architecture

Table 3. System composition and main function

CPTSCQ_2023_v28n2_121_t0003.png 이미지

정보 송수신을 위한 통신망은 본 시스템의 구성요소 간 데이터 통신을 지원한다. 광역통신망(WAN), LAN(Local Area Network)망, VAN(Value Added Network)망, 유선통신망 등을 상황에 맞게 혼용할 수 있다.

Table 3의 Sensing Signal Transmission Controller(Main Controller)는 다수 지역에 분산 배치될 수 있으며, 구역별로 나누어 1구역당 1대의 콘트롤러가 복수 대의 카메라 촬영 영상을 분석하도록 배치될 수 있다.

또한 교통신호 제어기는 교차로 내 다수 신호등의 점등 및 점멸을 제어한다. 아울러, Main Controller는 도로 갓길 또는 신호등 지주에 설치된 디스플레이 장치(VMS)에 각종 정보 문구를 전달하여 출력되도록 할 수 있다. 이 디스플레이 장치는 Main Controller의 제어에 따라 기 설정된 경고 문구 등이 출력되며 예를 들어, 디스플레이 장치를 우회전 차로의 갓길에 설치하여 차량 우회전 시 보행자가 감지될 때, 기 설정된 경고 문구를 출력하도록 구성할 수 있다.

Main Controller는 카메라, 교통신호 제어기, 디스플레이 장치 등과 유무선 통신망을 통해 데이터를 송수신할 수 있다. 물론, 이 콘트롤러는 관제서버 및 응급차량 단말기와도 유무선 통신망을 통해 데이터를 송수신할 수 있으며 이 콘트롤러의 자세한 기능은 Fig. 4 와 같다.

CPTSCQ_2023_v28n2_121_f0004.png 이미지

Fig. 4. Sensing Signal Transmission Controller (Main Controller)

Fig. 4에서 인공지능기반영상분석부(AI-Based image analysis module 1 ~ M)는 복수 개의 인공지능 기반 영상 분석모듈 들로 이루어지고, 각 인공지능기반영상분석모듈은 각 GPU에 설치되어 영상 분석을 수행한다. 교통신호 제어기는 콘트롤러로부터 최적 신호체계에 따른 감응신호를 전송받으면, 전송받은 감응신호에 따라 신호등 들이 동작하도록 이들을 제어한다. Main Controller는 컨트롤러의 OS에 해당하며 Fig. 4의 우측 제어 대상들을 관리 및 제어한다.

기 설정된 주기 T 마다 인공지능학습부를 실행시키며, 기 설정된 제1 주기(T1) 마다 영상분류테이블 생성/갱신 모듈을 실행시킨다. 또한 통신 인터페이스부를 통해 카메라들로부터 전송받은 영상들을 영상 분류부로 입력하고, 영상 분류부(34)에 의해 분류된 바에 따라 영상들을 해당하는 인공지능 기반 영상 분석모듈들로 각각 입력한다.

객체분석정보 생성부에 의해 생성된 객체분석정보를 교통정보 생성부, 위반차량 단속부 및 경고문구 출력부로 입력한다. 신호체계 수립부에 의해 최적 신호체계가 수립되면, 수립된 최적 신호체계에 따른 감응신호를 생성한 후, 생성된 최적 신호체계에 따른 감응신호가 교통신호 제어기로 전송되도록 통신 인터페이스부를 제어한다.

위반차량 단속부에 의해 위반차량 검출 시, 해당 위반차량의 영상과 차량번호를 매칭시킨 후, 매칭된 데이터가 관제서버로 전송되도록 통신 인터페이스부를 제어한다. 즉,이 시스템은 위반차량이 검출되지 않는 평시에는 영상들을 관제서버로 전송하지 않되, 위반차량이 검출되는 이벤트가 발생한 경우에만, 영상들을 관제서버로 전송함으로써 종래에 대용량의 영상들이 동시에 관제서버로 전송됨에 따라 통신부하, 연산처리량 급증 및 데이터 저장 효율성이 떨어지는 문제점을 획기적으로 해결할 수 있게 되었다.

FIg. 5는 콘트롤러의 위반차량 단속부에 의해 감지되는 꼬리물기 위반차량을 나타내는 실 케이스 이다. 이 때 긴급 자동차가 출현하는 경우 꼬리 물기 상황을 해소하기 위해 긴급자동차 위치를 판단하여 진행 방향의 신호를 짧게 변경하거나 신호를 길게 주는 등의 조치를 취할 수가 있다.

CPTSCQ_2023_v28n2_121_f0005.png 이미지

Fig. 5. System Application Case

FIg. 6은 응급신호에 따라 생성되는 최적 경로 및 콘트롤러의 응급모드에서 교통신호 제어기가 순차 제어되는 상을 보여주고 있다.

CPTSCQ_2023_v28n2_121_f0006.png 이미지

Fig. 6. Optimal path and signal control

관제서버에서 응급차량 단말기에 최적 경로 정보를 제공하는 경우, 콘트롤러는 관제서버에서 도출한 최적 경로와 응급차량의 실시간 진행 경로를 대조하며, 응급차량 앞 구간의 교통신호 제어기에 선제적으로 긴급제어호를 전송하도록 동작된다. 즉, 긴급제어신호에 의해 교차로 신호, 보행자 신호 등에 우선하여 응급차량의 진행을 저지하지 않도록 신호 제어가 이루어지질 수 있다.

Fig. 6에서 최적 경로를 붉은색 실선으로 나타냈고 콘트롤러가 전송하는 긴급제어 신호에 의해 제어되는 교통신호 제어기는 제어순서에 따라 파란색 원 안에 넘버링 하여 나타냈다.

이 시스템은 딥러닝 알고리즘을 이용하여 입력된 영상들을 분석함에 따라 객체 인식률을 개선시켜 분석의 정확성 및 신뢰도를 획기적으로 개선할 수 있다. 딥러닝 알고리즘으로는 관련연구에서 살펴본 바와 같이 합성곱 신경망(CNN, Convolution Neural Network) 기반의 YOLO 모델을 적용시킴으로써 객체 인식률을 더욱 높일 수 있게 하였다.

딥러닝 알고리즘 학습 시 인식대상에 대해 종래의 80종류를 도로에서 자주 볼 수 있는 5종류로 제한하여 학습이 이루어지도록 구성함으로써 객체 인식률을 더욱 개선시킬 수 있었다. 복수개의 GPU들을 이용하여 영상을 분석함으로써 카메라들의 촬영에 의해 획득된 대용량 영상들의 실시간 처리 및 분석이 가능하게 된다.

응급상황 통제를 위한 구성으로는 식별정보 및 GPS 정보를 포함한 응급신호를 송출하는 응급차량 단말기를 더 포함하여 구성되고, 관제서버는 응급신호를 수신ㆍ분석하여 콘트롤러를 응급모드로 전환시킨다.

소방차, 구급차 등의 응급차량에 장착되거나, 응급차량 운전자가 소지한 스마트폰, 테블릿 등의 모바일 단말기로서, 전용 앱(App)의 활성모드에서 식별정보 및 GPS 정보를 포함한 응급신호를 송출하도록 구성된다. 전용 앱(App)은 별도의 아이콘 터치에 의해 활성화되거나 백그라운드 방식으로 활성화 상태가 유지되도록 할 수 있다. 또한 모바일 단말기는 관제서버 IP 주소를 타겟팅하여 응급신호를 송출토록 구성할 수 있다. 전용 앱(App)의 활성모드에서는 관제서버와 직접 음성, 문자, 영상, 데이터 등의 송ㆍ수신을 통한 교신이 이루어지도록 구성할 수 있다.

응급차량 단말기에는 네비게이션 기능이 구비되어, 네비게이션 UI에 목적지가 입력되면 관제서버가 송출하는 필요 정보를 수신하여 현시하도록 구성될 수 있다. 이에, 관제서버는 응급차량 단말기의 네비게이션 UI를 통해 입력된 목적지 정보를 수신하여 실시간 교통량, 도로너비(차선 수), 신호제어 편의성 등을 고려한 최적 경로를 도출하여 위 응급 차량 단말기에 제공할 수 있는 것이다. 또한 응급차량의 실시간 GPS 정보를 반영하여 최적 경로를 변경하여 제공할 수 있다.

IV. System Testing and Performance Evaluation

이 시스템의 시험 및 성능을 평가하기 위한 시험 환경으로는 현장 Test-Bed의 카메라 영상 장비 및 제어기 등을 구성요소로 하는 장비 인프라 환경과 이를 구동하는 프로그램 구동 환경으로 나눌 수가 있다. 장비 인프라 환경은 이 논문과 관련한 본 연구과제(사사 참조)를 수행하기 위해 경기도 안양시의 협조를 얻어서 선정한 교차로에 장비를 설치하여 구축한 환경이다.

응급차가 진입하여 진출하기 까지의 프로세스는 구현 프로그램 및 통신과 관련된 사항이므로 이는 통신단절이나 프로그램 오류가 발생하지 않는 한 결과가 100%로 도출될 수 밖에 없다. 따라서 성능 평가의 대상은 응급차 진입 시 CCTV 영상에 의한 대기열 인식과 이에 대한 처리, 이후 신호제어 및 변경에 초점이 맞추어진다.

시스템의 인식률 평가를 위해 NVIDIA RTX 2080 Super 2-way 환경에서 테스트한 결과, pre-trained YOLO v4에서 실생활에서 자주 볼 수 있는 80종류의 사물에 대해 가장 높은 평균인식률인 98.9%으로 나타났고, 그 중에서도 자동차, 버스, 트럭 3종류의 사물에 대해서는 평균 95%의 인식률을 보였다. 이때 인식률은 모델 평가용 데이터셋(MSCOCO)을 각 AI 모델에 순전파하여 나온 인식 결과를 바탕으로, AI 모델이 인식한 사물 개수/이미지에 존재하는 사물 개수를 계산하였다.

이러한 YOLO의 인식률을 기반으로, 이 논문에서는 객체분석 알고리즘의 인식 대상을 종래와 같이, 80종류로 설정하지 않고, 도로에서 볼 수 있는 사물, 즉 자동차, 버스, 오토바이, 트럭, 사람 등 5종류로 축소하여 설정함으로써 3% 이상의 인식률 개선이 이루어지도록 하였다. 이에 따라 Fig. 7은 인식율 성능을 비교한 결과이다.

CPTSCQ_2023_v28n2_121_f0007.png 이미지

Fig. 7. Recognition results of 5 major vehicles and people

V. Conclusions

이 시스템은 딥러닝 기반 객체 감응을 활용한 차량 흐름 제어 시스템에 기반하여 교차로 내 차량 대기시간을 현저히 단축시키면서, 응급상황에 대응하여 일정 구간의 교통 신호를 능동적으로 제어함으로써 인명과 재산의 손실을 최소화시킬 수 있는 응급상황 대응 교통신호 제어 시스템이다.

시스템의 구성요소로는 관제서버, 식별정보 및 GPS 정보를 포함한 응급신호를 송출하는 응급차량 단말기, 여러 대가 분산 배치되어 담당 영역의 도로 영상을 획득하는 카메라로 구성되어 있다.

영상처리를 위해 YOLO와 같은 딥러닝 기반의 객체분석 알고리즘을 이용하여 카메라의 촬영에 의해 획득된 영상들을 분석하여 감지된 객체의 위치, 종류 및 크기 중 적어도 하나 이상을 포함하는 객체정보를 출력한 후 출력된 객체를 트래킹하여 교통정보를 생성한다.

생성된 교통정보를 기반으로 최적 신호체계를 검출한 후, 검출된 최적 신호체계에 따른 감응신호를 교통신호 제어기로 전송하는 콘트롤러를 포함하며, 관제서버는 이 응급신호를 수신ㆍ분석하여 콘트롤러를 응급모드로 전환시키고, 콘트롤러는 GPS 정보 기준으로 기설정된 반경 범위 내의 카메라 촬영 영상으로부터 식별정보에 대응하는 응급차량을 식별·추적하여, 응급차량의 진행 경로 기준으로 감응신호에 우선하는 긴급제어신호를 교통신호 제어기로 전송하도록 구성하였다.

또한 본 제안 시스템의 인공지능 학습부에 의해 학습되는 객체분석 알고리즘은 CNN 기반의 YOLO를 적용하여 학습이 이루어지되, 인식 대상을 도로에서 흔히 볼 수 있는 5종류로 제한함으로써 인식율 98.14%로 객체 인식 및 분류의 정확성 및 정밀도를 기존 대비 3%이상 높일 수 있고, 이에 따라 최적 신호체계 수립의 정확성 및 신뢰도가 함께 증가하여 차량 대기시간을 획기적으로 절감시킬 수 있게 되었다.

ACKNOWLEDGEMENT

This thesis was conducted with the support from the Ministry of SMEs and Startups' 2020 SME Network Technology Development Project (R&BD). (S3029645)

References

  1. Park J. I, "Development of Left Turn Response System Based on LiDAR for Traffic Signal ontrol", Journal of The Korea Society of Computer And Information, Vol.27, No.11, pp.181~190, November, 2022. https://doi.org/10.9708/jksci.2022.27.11 
  2. Morgan Quigley, Brian Gerkey and Ken Conley, et al., "ROS: an open-source Robot Operating System", ICRA workshop on open source software, Vol.3, No.3.2, p.5, Jan. 2009. http://robotics.stanford.edu/~ang/papers/icraoss09-ROS.pdf 
  3. B. Wu, X. Zhou, S.Zhao, X. Yue and K.kutzer, "SqueezeSegV2: Improved Model Structure and Unsupervised Domain Adaptation for Road-Object Segmentation from a Lidar Point Cloud", ICRA, Vol. 6, No. 3, pp. 1721-1737, Jun, 2O19. https://arxiv.org/abs/1809.08495 
  4. Eltayeb A. S., Almubarak H. O. and Attia T. A., "A GPS based traffic light pre-emption control system for emergency vehicles. In Computing, Electrical and Electronics Engineering (ICCEEE)," 2013 International Conference on IEEE, pp.724-729. August, 2013 
  5. Shaoqing Ren, Kaiming He, Ross Girshick, et al., "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", Advances in neural information processing system, Montreal, Canada, pp.91-99, Jun. 2015. https://arxiv.org/abs/1506.01497 
  6. Liu Mingjie, Cheng Bin Jin and Xuenan Cui, et al., "Online multiple object tracking using confidence score-based appearance model learning and hierarchical data association", IET Computer Vision, Vol.13, No.3, pp.312-318, Apr. 2019. https://doi.org/10.1049/iet-cvi.2018.5499 
  7. Robert J. Wang, Xiang Li and Charles X. Ling, "Pelee: A Real-Time Object Detection System on Mobile Devices", Advances in neural information processing system, Montreal, Canada, pp.1963-1972, Apr. 2018. https://arxiv.org/abs/1804.06882 
  8. Tsung-Yi Lin, Priya Goyal and Ross Girshick, et al., "Focal Loss for Dense Object Detection", Proceedings of the IEEE international conference on computer vision, Venice, Italy, pp.2980-2988, Aug. 2017. https://arxiv.org/abs/1708.02002 
  9. Bin Yang, Wenjie Luo and Raquel Urtasum, "PIXOR: Real-time 3D Object Detection from Point Clouds", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake City, Utah, pp.7652-7660, Feb. 2019. https://arxiv.org/abs/1902.06326 
  10. Ming Liang, Bin Yang and Shenlong Wang, et al., "Deep Continuous Fusion for Multi-Sensor 3D Object Detection", Proceedings of the European Conference on Computer Vision, Munich, Germany, pp.641-656, 2018. https://arxiv.org/abs/2012.10992 
  11. Wei Liu, Dragomir Anguelov and Dumiru Erhan, et al., "SSD: Single Shot MultiBox Detector", Proceedings of the European Conference on Computer Vision, Amsterdam, Netherlands, pp.21-37, Dec. 2016. https://arxiv.org/abs/1512.02325 
  12. Ross Girshick, Jeff Donahue, Trevor Darrell, et al., "Rich feature hierarchies for accurate object detection and semantic segmentation", Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Columbus, Ohio, pp.580-587, Oct. 2014. https://arxiv.org/abs/1311.2524 
  13. Ross Girshick, "Fast R-CNN", Proceedings of the IEEE international conference on computer vision, Santiago, Chile, pp.1440-1448, Apr. 2015. https://arxiv.org/abs/1504.08083