1. 서 론
오늘날 첨단과학의 집적은 2000년대 이전 공상과학의 영역으로 여겨졌던 수많은 기술들을 책과 스크린 속에서 일상생활로 점차 끄집어내고 있다. 이와 함께, 최근에는 빅데이터와 인공지능 기술의 발달로 인해 거의 전 분야에 걸쳐 자동화 및 무인화 시스템이 급진적으로 보급되고 있으며, 보다 인간을 닮고 흉내 내는 로봇과, 스스로 상황을 인지하고 문제를 해결할 수 있는 컴퓨터 기술들이 속속 개발되고 있다. 그러한 기술들을 가능케 하는 기술들 중 중요한 요소로서 바로 센서 기술의 발달을 들 수 있다. 고도의 정밀도와 소형화를 통해 진화하는 센서 기술을 활용함으로써, 산업 전 분야에서 보다 다양하고 세밀한 현상들의 관측/측정 및 해석/분석이 가능해졌으며, 이 정보들을 활용하는 방법에 따라 다양한 융합기술과 인공지능 기술로 발전하고 있는 것이다. 이러한 다양한 센서 기술을 집적함으로써 하나의 큰산업을 이룬 좋은 예로 자율주행 자동차(autonomous vehicle)를 들 수 있다. 자율주행 자동차는 카메라, GPS를 비롯해서 레이더(radar), 라이더(lidar), 초음파 센서 등 무수히 많은 센서들로부터 획득되는 신호를 분석해서 최적의 알고리즘으로 차량을 자율로 운행하는 기술이다. 현재 많은 연구소와 기업들에 의해 상용화를 목전에 두고 있으며, 이를 위한 다양한 제도와 법률, 안전성에 대한 전문가들의 논의가 진행 중이다.
한편, 실제 도로상에서는 우리가 차량을 주행함에 있어 사고를 유발하는 차량 안전성을 저해하는 다양한 외적인 위험 도로주행환경 요소들이 산재하고 있다. 이 때, 도로주행환경은 크게 교통환경과 기상환경으로 구분할 수 있으며, 교통환경은 교통밀도(대/km), 교통량(대/시), 통행속도(km/시), 노면상태 등으로 분류되고, 기상환경은 강우, 강설, 안개, 대기 및 노면 온도 등으로 분류된다. 이렇게 분류되는 각 환경들의 변화에 의한 상황들은 실제 도로상에서 일반적으로 시시각각 발생하고 있다. 하지만 이러한 상황들이 복합적이고 지속적으로 또는 돌발적으로 발생하는 경우, 차량의 관측 환경은 나빠지게 되고 이것은 자율주행 자동차의 순간적인 오판을 야기하여 승객에게 치명적인 위협을 가할 수 있다. 일례로, 현재의 충돌방지용 차량레이더의 경우 전방의 장애물을 인식하면 자동비상제어장치를 통해 차량을 감속시키는 역할을 하지만, 강한 강우가 발생하는 주행환경에서는 강우의 영향에 의한 차량레이더 오작동 방지를 위해 레이더 신호를 차단하고 있다.
또한, 자율주행 자동차 시대에 앞서, 이미 진보한 과학기술들을 바탕으로 자동차는 많은 운전 보조 장치들을 탑재하고 있다. 그럼에도 불구하고 증가하는 자동차 생산율에 비례하여 교통혼잡도와 교통사고 역시 여전히 증가하는 추세이다. 특히, 2012년 기준으로 급격히 잦아지는 악천후에 따른 교통사고율이 증가추세에 있으며, 통계적으로도 전체 교통사고 중 날씨와 관련된 사고는 23%이고 악천후 시 교통사고 사망자 비율은 17%에 이른다[1]. 이것은 각 개별 자동차의 정보와 지점별로 서비스되는 ITS(intelligent transport system) 정보만으로는 운전자가 위험한 상황에 정확한 판단을 하기 어렵기 때문이다. Fig. 1로부터 정보 음영 지역에서 운전자가 잘못 판단할 수 있는 경우를 국지성 기상현상이 발생한 것을 가정하여 도식하였다.
Fig. 1.Example of the case that driver misjudged weather in local torrential rainfalls.
Fig. 1의 예로 알 수 있듯이, 국지성 호우가 발생할 경우, 운전자, 또는 자율주행 자동차가 기상관측 사각지역을 운행하고 있다면, 차량 진행 방향에 존재하는 악기상을 예측하기 어렵기 때문에 사고 위험률이나 교통혼잡도 등이 높아질 수 있다. 이처럼, 현재 국내외 대부분의 도로 상에서는 방대하고 다양한 정보 음영 구간이 산재하고 있다. 운전자, 자율주행 자동차 중심의 도로 서비스 제공을 위해서는 도로 안전성 및 운영 효율성을 높이는 것이 필수적이며, 이를 위해서는 많은 양의 도로주행환경 관측 자료가 요구되고 있지만, 현재의 주행환경 관측시스템만으로는 분명한 한계가 존재한다.
그에 따라, 한국건설기술연구원에서는 2015년부터 실시간으로 수집되는 차량센서 자료와 각종 빅데이터를 활용한 주행환경 관측·예측 통합 시스템을 구축하여, 시공간적으로 연속적인 도로 관측 자료의 수집 및 분석 및 서비스를 통한 도로주행 안전성과 운영 효율성을 제공하기 위한 연구를 진행 중에 있다[1].
본 논문에서는 한국건설기술연구원의 센서시험 차량에 장착된 다양한 센서를 이용하여 도로주변환경 분석 및 모니터링을 효과적으로 수행하기 위한 상호자료교환과 정보 표출을 위한 GIS 기반의 멀티미디어 플랫폼을 제안하며, 에뮬레이션을 통해 차량 정보 분석의 용이함을 검증하였다. 본 논문의 구성은 다음과 같다. 2장에서 현재 한국건설기술연구원에서 연구 중인 차량센서 기반 차량주행환경 관측기술을 소개하며, 3장에서 제안하는 플랫폼의 구성과 데이터 교환형식 및 에뮬레이션에 대해 서술한다. 그리고 4장에서는 실제 도로에서 관측된 실측 자료들을 이용한 시뮬레이션 결과를 고찰하고 5장에서 결론을 맺는다.
2. 차량센서 기반 차량주행환경 관측기술
Fig. 2로부터 한국건설기술연구원에서 연구 중인 차량센서 기반 차량주행환경 관측·예측 시스템[1]의 개념도를 나타내었다 시스템은 Fig. 2에서 나타낸 바와 같이 특정 조사 차량들을 이용해 도로상의 교통환경 및 기상환경을 다양한 센서를 통해 관측하여 1차 분석 자료를 관제 센터로 실시간 전송한다. 관제 센터는 수신된 도로환경 정보들과 각종 빅데이터를 통합 분석한 결과로 도로안전 및 효율성에 대한 예측정보를 주행 중인 차량으로 서비스하는 것을 목적으로 현재 연구되고 있다.
Fig. 2.Concept and scenario of the automotive sensor based driving environment observation and prediction system.
Fig. 3은 실제 도로상의 주행환경 관측을 위해 개조한 조사차량과 차량에 설치된 각종 센서들을 나타낸 것이다. 현재 교통환경 및 기상환경 관측을 위해 고정밀의 GPS, 온습도 센서, 전후방 차량레이더, 노면온도 센서 및 별도로 개발된 기상관측용 소형 레이더가 탑재되어 있으며, 향후 비전카메라와 W-밴드 레이더 등을 추가 탑재하여 보다 다양한 정보를 수집할 예정이다.
Fig. 3.The probe vehicle for sensing of road-surrounding environment.
한국건설기술연구원에서는 각각 조사차량의 센서들로부터 자료를 관측하여 교통환경 관측 및 기상환경 관측 정보를 분석/가공하는 연구와, 가공된 자료와 빅데이터를 통합 분석/예측을 수행하는 연구를 각각 분리하여 수행하고 있다. 한편, 해당 연구와 관련하여 교통사고의 주요 원인이 되고 있는 도로환경을 개선하기 위해 도로안전점검용 차량인 ARASEO가 개발되었다[2]. ARASEO는 도로 기하구조 및 도로 시설물, 도로노면 정보(물고임, 마찰력, 노면온도 그리고 도로차폭) 그리고 안전표지 정보 등을 분석하며, 수집된 정보를 이용해 500m 단위의 도로도면을 자동으로 생성할 수도 있다. 제안 기법은 이러한 이기종의 센서 정보들도 포함할 수 있는 플랫폼을 제공하고자 한다.
3. 제안하는 차량주변 환경 분석·모니터링 플랫폼
3.1 차량주변 환경 분석·모니터링 플랫폼 설계
본 논문에서는 앞서 서술한 차량주행환경 관측·예측 시스템 연구에서 조사차량 내에서 차량센서들로부터 획득되는 정보의 가공 및 저장, 전송을 위한 정보 관리기술과 관제센터에서 실시간 다양한 관측정보들을 실시간 분석 및 모니터링 할 수 있는 방법을 제시하고, 하나의 체계화된 플랫폼을 설계한다. Fig. 3에서 설명한 바와 같이 현재의 조사차량에는 다양한 고정밀 센서가 탑재되며, 관측 안정성을 담보하고, 센서의 추가 장착 및 탈착의 효율성을 위해 각각 독립적인 모듈로 동작하도록 설계되어 있다. 또한, 조사차량에 탑재된 서버컴퓨터는 관측정보들의 수집과 관제 센터와의 관측 정보들의 1차 품질관리, 2차 산출물 가공, 비중요 정보 제거 등의 역할을 수행하며, 정보전송 효율을 위한 S/W 및 H/W 플랫폼의 역할을 한다. 예를 들어, 차량 기상레이더로부터 획득된 신호는 RAW 데이터로써 I/Q 자료를 기반으로 반사도와 도플러 시선속도 등이 산출된다. 이때, 1차 품질관리로써 비기상 에코 및 노이즈 제거, 감쇄보정 등이 수행되며, 이후, 품질관리 된 자료로부터 강우강도 및 강수 유형 등을 2차 산출물로 가공하여 생성할 수 있다. 관제센터의 요청에 따라 지점 강우량만을 전송하거나, 1차 산출물 및 RAW 데이터를 전송할 수 있는 것이다. 센서 획득 정보와 가공 기법, 분석 알고리즘 들에 대해서는 현재 연구중에 있으며, 본 논문과의 직접적인 연관이 없어 생략하기로 한다. 단, 현재 제안한 플랫폼에서 사용하기 위해 획득 및 가공되는 정보들에 대해 표 1로부터 세 카테고리(Class 1, 2, and 3)로 분류하고 명세하였다.
Table. 1.Sensing data specification and classification for the proposed platform.
Table 1의 Class-3로 정의된 대부분의 관측정보들은 센서들이 서로 독립적으로 동작하도록 설계되어있으므로 임의의 시공간 상에서 무작위로 획득된다. 이러한 무작위의 정보들을 이용하여 차량주변 환경에 대한 정확한 시간대와 지점에서의 분석을 위해서는 실시간 측정된 관측 자료들에 대한 시·공간적 동기화 및 재배열 과정이 필수적이다. 따라서 조사차량의 서버는 관측 자료의 획득 뿐 아니라, 획득된 Class-3의 모든 정보들에 대해 시·공간 동기화 및 재배열, 그리고 효율적인 전송을 위한 자료관리 및 전송트래픽 관리 등을 수행하는 역할이 요구된다.
제안 플랫폼에서는 관측 정보들에 대해 각 센서 모듈에서 측정값이 생성되는 시간에 대한 타임스탬프(time stamp)를 기록하고 이를 이용하여 조사차량에 탑재된 고정밀 GPS 모듈 정보를 기준으로 Class-3 정보들에 대한 시·공간 동기화 및 정보 재배열을 수행한다. 시·공간 동기화 및 정보 재배열 과정의 간략한 예을 Fig. 4로부터 나타내었다.
Fig. 4.Spatio-temporal synchronization and rearrangement of sensing data on proposed platform.
Fig. 4의 예에서는 GPS 시간대를 기준으로 자료를 정렬하며, 제안하는 플랫폼에서는 연속된 GPS 시간대에 GPS 위치좌표가 동일하다면 좌표정보를 생략할 수 있으며, 동일 시간대에 획득된 센서정보 역시 선별적으로 생략할 수 있도록 설계하였다. Fig. 4의 예로부터 GPS Time 1 및 2의 좌표가 동일하다고 간주하였으며, 이때 GPS Time 2의 좌표정보가 우측의 재배열 버퍼에서 생략되었음을 알 수 있다. 또한 동일 GPS 시간대에 획득된 Road 2 및 3 중 최근에 획득된 Road 3만 버퍼에 저장됨을 예로 보였다.
Fig. 5는 앞서 설명한 조사차량의 서버플랫폼 내에서의 실제 센서 자료 흐름을 나타낸 것이다. 각 센서의 자료들은 컨테이너(container) 단위로 Fig. 4에서처럼 Fig. 5의 우측 하단 저장장치에 저장된다.
Fig. 5.Data flow on vehicle side of proposed road-surrounding environment analysis and monitoring platform.
3.2 차량센서 자료구조 설계
Fig. 5와 함께, 앞서 언급한 바와 같이 각각의 고정밀 센서 모듈이 갖는 특성 상 자료의 종류와 양이 방대하며, Table 1에서처럼 각 센서로부터 생성되는 자료의 형식과 프로토콜이 상이한 문제가 있다. 따라서 센서자료를 효율적으로 관제센터에 전송하고 관리하기 위해서는 자료의 시·공간 동기화 및 재배열 뿐 아니라, 생성 자료 및 데이터 통신 프로토콜의 통일성이 필요하다. 또한, 향후 연구와 추가적으로 센서의 탈·장착이 발생할 수 있는 가능성에 대해 확장성 및 수정/변경을 용이 하게하고 실시간 처리를 위한 효율적인 자료 구조화가 요구된다. 따라서 제안 플랫폼에서는 네트워크 대역폭과 빅데이터 서버에서 요구하는 원시 데이터 및 가공 데이터의 수요를 최대한 만족시키기 위해 MPEG-4 Part 15[3]의 NAL(network abstraction layer) 유닛(unit) 구조에 착안하여 융통성 있는 가변 자료구조를 설계하여 적용하였다.
Fig. 7로부터 제안하는 관측자료 전송 및 저장을 위한 가변 자료구조의 구조를 도식하였다, 본 논문에서는 전송 및 저장을 위한 하나의 데이터 단위를 TU(transmission uint)로 명명하고, 연속된 TU들을 전송함으로써 조사차량의 진행에 따라 시·공간 동기화된 센서자료들을 관제센터에서 분석 가능하도록 하였다. 따라서 특정 주행구간의 차량주변 환경분석을 위한 TU의 연속된 집합에 대해 해당 구간의 ‘TU-트레인(train)’으로 명명하였다.
Fig. 6.Designed TU and TU-train data structure for the proposed road-surrounding environment analysis and monitoring platform.
Fig. 7.Emulation Environment for the proposed road-surrounding environment analysis and monitoring platform.
우선 각 센서로부터 생성되는 표 1의 Class-3에 해당하는 각 자료들을 독립적인 속성(attribute)으로 간주하며, 각 속성 데이터는 시·공간 동기화 및 정보 재배열 과정을 거쳐 컨테이너로 쌓여 Fig. 4와 같이 조사차량의 로컬서버에 저장된다. 이 때, 컨테이너는 컨테이너 헤더(header)와 관측 데이터(Payload)로 구성되며, Fig. 5에서 언급되었다. 다시 컨테이너 헤더는 Class-1, 2, 및 3에 대한 각각의 인덱스를 포함하며, 임의 관측 데이터는 Class-3분류에 따라 표 1의 데이터 형식으로 미리 정해진 byte 수를 갖게 함으로써 관제 서버에서의 데이터 해석을 쉽게 하도록 설계하였다. 한편, TU는 다시 TU 헤더와 TU 데이터(payload)로 구성되며, TU 헤더는 TU 지시자와 시간 동기화를 위한 타임스탬프 및 Class-1 인덱스를 포함하며, TU 데이터는 대분류 인덱스에 해당하는 동시간대 타임스탬프를 갖는 컨테이너들로 채워진다. 그에 따라, 조사차량 내 서버에서는 GPS 시간을 기준으로 데이터 생성 시간대 별로 컨테이너를 수집, 저장하며, 또한 TU의 전송을 위해 타임스탬프를 고려하여 ‘TU’ 데이터를 전송하는 TU 트레인을 상시 가동하도록 한다. TU 데이터에 적재될 센서자료가 적을 때, 관제서버의 빅데이터 활용을 위한 RAW 데이터를 추가 전송할 수 있도록 하였다. 반대로 TU 트레인 버퍼에 과적재가 발생했을 경우에는 TU 헤더 지시자를 이용해 연속된 TU 간에 분할하여 자료를 전송할 수 있도록 하였다. 관제 서버는 각 조사차량들로부터 해당 조사차량의 지시자가 포함된 TU 트레인을 각각 수신한 후, 이로부터 TU 타임스탬프를 이용하여 서버 간 동기화 및 실시간 분석/처리를 가능케 한다.
3.3 에뮬레이터 및 모니터링 환경 구축
본 연구는 Fig. 2의 차량센서 기반 차량주행환경관측·예측 시스템 개발 과정의 일부로 진행된 것이며, 크게 조사차량을 이용한 센서 정보 획득 기술과 관제서버에서의 빅데이터 기반 분석 및 예측 기술로 구분할 수 있다. 해당 연구는 각 분야별로 현재 진행중이며, 따라서 조사차량과 관제서버의 실시간 통신은 아직 이루어지지 않고 있다. 그에 따라, 본 논문에서는 취합된 센서 자료의 정량적 전송량을 결정하고 관제서버에서 효율적으로 해석할 수 있는 방법과 조사차량의 다중 센서들로부터 획득된 자료를 직관적으로 모니터링 할 수 있는 방법 찾기 위해, 현재 조사차량을 이용하여 획득된 각 센서 모듈의 실측 정보들과 앞서 설계된 플랫폼을 기반으로 조사차량내에서의 자료 취득과 전송 및 모니터링을 수행하는 에뮬레이션 환경을 구축하였다.
Fig. 7로부터 제안 플랫폼에서 관측 자료의 분석 및 모니터링에 대한 시뮬레이션을 수행하기 위해 구글어스(google earth)[4]를 이용하였다. 다양한 GIS 관련 서비스 및 응용기술 개발을 위한 GIS 플랫폼으로 일반적으로 널리 사용되는 구글어스는 위성사진과 고도정보를 이용한 3차원 세계지도를 기반으로 기본적인 지리, 지도 서비스 뿐 아니라 KML(keyhole markup language)[5]을 이용하여 다양한 어플리케이션(application)을 적용할 수 있는 통합 GIS 솔루션으로 활용된다. 이러한 장점을 이용하여, Jang 등[6,7]은 구글어스를 이용한 기상레이더 표출 플랫폼들을 제안한 바 있다. 한편, 제안하는 플랫폼에서는 차량 운행과 관련하여 GPS로부터 수신되는 위치좌표와 시간을 기준으로 주변 환경을 분석하므로, GIS 플랫폼과 밀접한 관련이 있다. 따라서 다양한 응용기능과 KML 언어를 통해 효율적으로 차량관측 정보를 모니터링 할 수 있는 환경을 제공하며, 또한 동적(dynamic) KML 기술[8]을 이용하여 실시간 전송된 자료를 구글어스로 즉시 갱신함으로써, 실제 조사차량의 주행상황을 사실적으로 모니터링 가능하도록 설계하였다.
4. 시뮬레이션 결과 및 고찰
3장으로부터 제안하는 차량주변 환경 분석·모니터링 플랫폼에 대해 살펴보았다. 본 장에서는 제안하는 플랫폼에 대한 시뮬레이션 결과를 분석함으로서 제안 기법을 평가한다. 우선 차량주변 환경 분석을 위한 차량센서 실측을 위해, 경기도 고양시와 파주시에 위치 한 자유로 도시고속도로 구간중 이산포분기점에서 관측을 시작하여 문발 분기점까지 약 10 km를 운행하며 획득한 자료를 이용하였다. Fig. 3의 각 센서들로부터 획득된 신호를 가공한 후 TU 트레인으로 서버에 저장하였다. TU 트레인의 데이터 무결성 검증을 위해 별도의 프로그램을 작성하여 검증한 결과를 Fig. 8로부터 나타내었다.
Fig. 8.Data integrity verification of received TU train, (a) TU parsing result by GPS time stamp, (b) composed TU verification S/W.
Fig. 9는 본 연구의 시뮬레이션을 위해 조사차량을 이용하여 실제 주행한 구간과 해당 구간에 대해 Fig. 8과 같이 무결성이 검증 된 TU 트레인을 구글어스 상에 표현한 결과를 나타낸 것이다. Fig. 9-(b)로부터 다양한 센서 자료들의 시공간 동기화가 잘 수행되어 표출되었음을 직관적으로 알 수 있다.
Fig. 9.Spatio-temporal synchronization of multiple vehicle sensors on Google Earth, (a) start and end point of actual measurement for simulation, (b) synchronization result of measured multiple sensing data.
Fig. 10으로부터 Fig. 9-(b)의 일부 구간을 확대한 모습을 나타내었다. 노면에 표시된 두 줄의 색선은 각각 노면온도 및 대기온도를 표현한 것이며, 선의 두께를 이용하여 습도를 표현하였다. 도로상에 존재하는 각 아이콘들은 각각 표 1에 나타낸 기상레이더, 차량레이더 및 온도센서들의 실측값들의 타임스탬프가 찍힌 위치를 의미한다. Fig. 10에 의해 제안한 플랫폼과 구글어스와 같은 멀티미디어 표현 도구를 이용하여 Table 1의 다양한 실측 자료들을 조사차량의 주행과 일치하게 직관적으로 모니터링 할 수 있음을 알 수 있다.
Fig. 10.Integrated monitoring system of the overall sensing data, and its legend and sensor items.
한편, 제안 기법의 실시간 분석 및 모니터링 효용성을 조사하기 위해, 조사 차량과 관제센터의 네트워크 구축이 완료되었음을 가정하여 TU 트레인 데이터가 주기적으로 전송되는 것을 가정한 에뮬레이션 환경을 구축하였다. Fig. 11은 동적 KML 기술을 이용하여 에뮬레이터로부터 전송되는 TU 트레인에 대해 구글어스에 동기화하여 표출되는 것을 나타낸 것이다. Fig. 11-(a)∼(h)의 자료는 시간의 흐름에 따라 전송된 TU 트레인이 지도상에 표현되는 것을 알 수 있다.
Fig. 11.Realtime road-surrounding environment monitoring via TU train transmission emulation, (a) to (h) are time sequential expressions progressively.
Fig. 11로부터 다수의 조사차량이 주기적으로 주요 도로를 주행할 경우, 관제 센터는 제안하는 플랫폼 상에서 실시간 취합되는 자료들을 동시에 모니터링 함으로서 전체적인 도로망의 주행환경을 직관적으로 분석할 수 있게 된다.
Fig. 12-(a)∼(c)는 표 1로부터 Class-1으로 정의된 기상레이더, 도로기상(온도, 습도 등) 및 차량레이더 자료들을 각각 표현한 것이다. 노면 바닥에 차량 진행에 따른 대기온도와 노면온도를 색상을 이용한 범례로 표현하였으며, 바닥선의 두께를 이용하여 관측된 습도를 표현하였다. 그 외의 관측 값들은 관측된 지점에 아이콘을 배치함으로서 자료가 입력되었음을 표현하였다. 그에 따라, 현재, 각 실측값들에 대한 분석 및 상호작용에 알고리즘이 연구 중이며 본 플랫폼에서는 실측치를 타임스탬프 아이콘을 활성화함으로서 표출하여 결과를 나타냄으로써 모니터링을 수행한다. Fig. 12-(a)에서는 기상레이더로부터 획득된 시점에 해당 위치의 아이콘을 활성화함으로써, 반사도, 강우량의 정보를 나타내었으며, (b)는 보다 상세한 현재의 대기온도, 습도 및 노면온도를 표현하였다. 마지막으로 (c)로부터 전, 후방 레이더로부터 관측된 값들이 배치된 아이콘을 활성화함으로서 차량의 수와 분포가 영상으로 표현됨을 알 수 있다. 이것으로 Fig. 9-(b)와 같이 전체적인 도로주변환경의 모니터링과 함께, 특정 구역의 정밀한 측정치를 모니터링 함으로서 도로주행환경의 분석을 보다 용이하게 할 수 있도록 하였다.
Fig. 12.Monitoring of detailed sensing information on the proposed platform, (a) Radar reflectivity and rainfall rate, (b) Air temperature and humidity, and (c) vehicle distribution of front and rear radars.
5. 결 론
본 논문에서는 현재의 차량 운전자들과 향후 무인 자율주행 차량 도입 시 차량 주변의 다양한 환경에 따른 적절한 차량 제어를 보조하고, 교통 혼잡과 교통사고의 위험률을 줄이기 위한 차량주행환경 관측·예측 시스템 내에서 센서자료의 효율적인 네트워크와 분석 및 모니터링을 위한 플랫폼을 제안하였다. 시뮬레이션 결과, 차량 관측 자료를 실시간 분석 및 모니터링 할 수 있는 것을 검증하였으며, 보다 정확하고 핵심적인 정보를 제공하기 위해 차량통신망인 CAN(controller area network)와의 연동과 기상, 도로 및 빅데이터 분석 분야에서의 지속적인 융합연구가 요구됨을 알 수 있었다. 향후, 센서 집적화와 각종 분석 알고리즘 정립 및 관제센터의 구축이 완료 될 경우, 도심지 사업용 자동차에 시험 적용함으로써 전체 도로망에 대한 실시간 주행환경 모니터링이 가능할 것으로 기대한다. 최종적으로 본 연구를 통해 교통 혼잡과 교통사고의 감소를 통해 사회ㆍ경제적 비용을 절감하고, 기상정보와 교통정보 등 대규모 공공데이터의 수집 및 분석ㆍ제공의 플랫폼 개발을 통해 자율주행 자동차 시대를 보다 앞당길 수 있을 것으로 기대한다.
참고문헌
- KICT, Development of Driving Environment Observation, Prediction and Safety Technology based on Automotive Sensors, KICT 2015-217, 2015.
- J.H. Park, D.G. Yun, J.G. Sung, and J.S. Lee, "Introduce Advanced Road Research Vehicle-'ARASEO'," Transportation Technology and Policy, Vol. 9, No. 4, pp. 47-52, 2012.
- D. Singer, M.Z. Visharam, Y. Wang, and T. Rathgen, International Standardization Organization, ISO/IEC 14496-15: 2004/Amd2: SVC File Format, 2007.
- Google Earth, http://www.google.com/earth/, (accessed July, 11, 2016).
- J. Wernecke, The KML Handbook: Geographic Visualization for the Web, Addison-Wesley, New York, 2008.
- B.J. Jang, S. Lim, S.H. Lee, K.S. Moon, V. Chandrasekar, and K.R. Kwon, "A Visualization Method of High Definition Weather Radar Information for various GIS Platforms," Journal of Korea Multimedia Society, Vol. 16, No. 11, pp. 1239-1249, 2013. https://doi.org/10.9717/kmms.2013.16.11.1239
- B.J. Jang, K.H. Lee, D.R. Lee, and S. Lim, "High-Precision and 3D GIS Matching and Projection Based User-Friendly Radar Display Technique," Journal of Korea Water Resources Association, Vol. 47, No. 12, pp. 1145-1154, 2014. https://doi.org/10.3741/JKWRA.2014.47.12.1145
- Google Developers, https://developers.google.com/kml/documentation/kml_tut, (accessed July, 12, 2016).