DOI QR코드

DOI QR Code

Predicting Traffic Accident Risk based on Driver Abnormal Behavior and Gaze

  • Ji-Woong Yang (Dept. of Artificial Intelligence Semiconductor Engineering, Hanyang University) ;
  • Hyeon-Jin Jung (Dept. of Computer Science, Yonsei University) ;
  • Han-Jin Lee (Dept. of Computer Science, Yonsei University) ;
  • Tae-Wook Kim (Division of Software, Yonsei University) ;
  • Ellen J. Hong (Division of Software, Yonsei University)
  • 투고 : 2024.06.11
  • 심사 : 2024.07.24
  • 발행 : 2024.08.30

초록

본 연구는 기존 연구가 주로 도로의 물리적 상태 및 도로 환경 등 외부 요인에 초점을 맞춘 것에 반해, 차량 내부에서 발생하는 운전자의 행동 및 시선 변화를 실시간으로 분석함으로써 교통사고 위험도를 측정하고 예측하는 새로운 접근법을 제시한다. 실시간으로 운전자의 이상행동과 시선 이동 패턴을 정밀하게 측정하고, 이를 통해 도출된 각각의 위험 점수를 합산하여 교통사고 위험도를 평가한다. 본 연구는 기존 연구에서 다루지 않았던 내재적 요인의 중요성을 강조하며 교통안전 연구 분야에 새로운 시각을 제공한다. 이러한 혁신적 접근 방식은 교통사고 예방 및 안전 개선을 위한 실시간 예측 모델의 개발 가능성을 제시하며, 향후 교통사고 예방 전략 및 정책 수립에 있어 중요한 기초 자료를 제공할 수 있을 것으로 기대된다.

In this paper, we propose a new approach by analyzing driver behavior and gaze changes within the vehicle in real-time to assess and predict the risk of traffic accidents. Utilizing data analysis and machine learning algorithms, this research precisely measures drivers' abnormal behaviors and gaze movement patterns in real-time, and aggregates these into an overall Risk Score to evaluate the potential for traffic accidents. This research underscores the significance of internal factors, previously unexplored, providing a novel perspective in the field of traffic safety research. Such an innovative approach suggests the feasibility of developing real-time predictive models for traffic accident prevention and safety enhancement, expected to offer critical foundational data for future traffic accident prevention strategies and policy formulation.

키워드

I. Introduction

현대 사회의 급속한 도시화와 기술의 발전은 자동차 사용의 증가를 초래하였으며, 이러한 변화는 교통사고 발생률의 상승으로 이어졌다. 교통사고의 증가는 사회적, 경제적 손실을 비롯하여 인간의 생명과 안전에 직접적인 위협을 가하는 심각한 문제로 부상하였다.

세계보건기구(WHO)가 2023년에 발행한 “Global status report on road safety 2023”[1]에 따르면 2021년에는 약 119만 명의 도로 교통사고 사망자가 발생한 것으로 보고되었다. 특히, 2019년 기준으로, 도로 교통사고는 5~29세 사이의 어린이와 청소년의 주요 사망 원인이고 사망자의 2/3는 18~59세 사람들 사이에서 발생하여 사회 전체에 걸쳐 건강, 사회적, 경제적 피해를 일으킨다고 강조하고 있다.

이에 따라, 교통사고 위험도 예측에 관한 연구는 교통의 최적화, 교통 인프라 개선 및 교통사고 예방을 위해 중요한 연구 분야로 자리 잡았다. 기존 연구들은 대체로 도로의 물리적 상태 및 도로 환경과 같은 외부 요인에 초점을 맞추어 진행되었다. 그러나 이러한 접근은 차량 내부의 상황을 고려하지 않았으며, 실시간으로 운전자에게 교통사고 위험에 대한 정보를 제공하는 데에는 한계가 있었다. 실제로 교통사고는 외부적 요인뿐만 아니라 운전자의 이상행동이나 시선 변화와 같은 내부적 요인에 의해 발생하는 경우가 많다. 운전 중 스마트폰 사용, 음식 섭취, 내비게이션 조작 등으로 인한 운전자 주의 분산, 피로도 증가, 음주 및 약물 사용과 같은 내부적 요인들이 교통사고 발생에 큰 영향을 미칠 수 있다는 다수의 논문과 통계 자료가 이를 뒷받침한다. 예를 들어, 경찰청은 2020년 졸음운전으로 인한 사고가 2,000건이 넘게 발생했고 사망자가 60명이 넘었다고 보고했다. 또한, 한국도로공사는 2014년부터 2019년까지 고속도로에서 발생한 교통사고 사망자인 1,079명 중 졸음 및 주시 태만으로 인한 사망자가 729명(67.6%)에 달한다는 통계를 발표했다. 도로교통공단의 교통사고분석시스템(TAAS)은 운전 중 휴대전화 사용이나 동영상 시청 등의 안전 운전 의무 불이행이 연중 발생하는 빗길 교통사고의 주요 원인으로, 약 55%(1만 4,242건)를 차지한다고 보고하였다.

본 연구는 차량 내부에서 발생하는 운전자의 행동 및 시선 변화에 따른 교통사고 위험도를 실시간으로 예측하는 새로운 접근법을 제시한다. 이를 위해 AI-Hub에서 제공하는 “운전자 및 탑승자 상태 및 이상행동 모니터링 데이터”를 활용하였으며, 차량 내부 환경에서 운전자의 이상행동 및 시선을 분석하기 위해 TSN(ResNet)모델과 Gaze 360 데이터셋을 통해 학습된 시선 예측 모델을 적용하였다. 본 연구에서는 운전자의 이상행동과 시선 예측을 기반으로 위험 점수를 실시간으로 계산하고 이를 합산하여 최종 교통사고 위험도를 산출하고자 한다.

II. Related Works

운전자의 인적요인으로 인한 교통사고 위험성은 과거부터 강조되어왔다. Quimby et al.[2]는 운전자의 시선 및 이상행동으로 인한 주의 분산은 운전자의 교통사고 위험을 탐지하고 반응하는 시간을 늘리는 원인이라고 하였다. Kim[3]은 운전자의 시선 및 이상행동으로 인한 주의 분산의 교통사고 위험성을 행동별로 분석하였다. 주의 분산의 요인 중 운전자의 이상행동으로는 휴대전화 사용, 물건 찾는 행위, 차량 제어 등이 존재한다. Stutts et al.[4] 및 Strayer et al.[5]은 휴대전화 사용에 대해 설문조사 및 통계분석 방법으로 주의 분산의 주된 요인임을 입증하였다. 또한, Cho et al.[6]은 휴대전화 사용, 물건 찾는 행위, 차량 제어 등을 포함한 운전자의 이상행동의 교통사고 위험성을 강조하였다. 졸음운전 및 음주운전은 운전자의 주의분산 요인 중 핵심적인 이상행동이다. 특히, 상기 언급한 두 가지 이상행동에 대한 교통사고 위험도 예측 및 탐지 연구가 활발하게 이루어지고 있다. Lee[7]은 음주운전을 포함한 운전자 이상행동의 교통사고 위험성을 구조방정식으로 입증하였다. Cho et al.[8]은 졸음운전으로 인한 교통사고 치사율이 다른 운전자 이상행동에 비해 높음을 보였다. Lee at al.[9]은 음주운전이 비정상적인 운전 행동이라 하며, 교통사고 발생 확률 상승 및 사고 발생 피해가 다른 이상행동 사고 형태보다 심대하다고 밝혔다.

교통사고 위험도 예측을 위해 운전자의 시선 및 이상행동에 대한 분석 필요성은 상기 언급한 관련 연구들을 통해 파악할 수 있다. 이러한 운전자의 시선 및 이상행동 분석을 기반으로 한 운전자의 시선 및 이상행동 위험도 예측연구를 위해 운전자의 시선 및 이상행동 분류 모델이 필요하다. 운전자 시선 및 이상행동에 관한 연구들에 대한 전반적인 특징은 Table 1과 같으며, 자세한 설명은 다음과 같다. 운전자의 이상행동 분류 모델 연구들을 보면, Song[10] 은 운전자의 이상행동을 실시간으로 식별하고 운전자의 부주의한 이상행동에 대해서 즉각 경고하여 교통사고 발생을 사전에 방지할 수 있도록 CNN-LSTM 기반 운전자 이상행동 분류 모델을 제안하였다. 또한, Xing et al.[11]은 운전자 이상행동 분류 모델의 성능 개선을 위해 정규화를 활용한 VGG-16 모델을 제안하였으며, Zhang etl al.[12]은 MobileNet을 활용한 InterCNN 기반 경량화된 운전자 이상행동 분류 모델을 제안하였다. Yang et al.[13]은 운전자 이미지가 이닌 영상으로부터 운전자의 눈, 입 등의 위치 정보와 움직임 정보를 효과적으로 추출하여 운전자의 이상행동 중 졸음에 대한 탐지 모델을 제안하였다. Li et al[14]는 운전자 이미지를 바탕으로 대조 학습을 통하여 운전자의 행동이 비정상적인지에 대한 탐지 모델을 제안하였다. 이러한 운전자의 이상행동 분류 모델들은 공통적으로 어두운 야간 상황이 되면 모델의 이상행동 분류 성능이 현저히 저하된다는 한계점이 존재한다. 따라서, 본 연구는 상기 언급한 한계점을 극복할 수 있는 모델을 활용하여 정확한 운전자의 이상행동 분류를 수행하고자 한다.

Table 1. Research on Driver Abnormal Behavior and Gaze

CPTSCQ_2024_v29n8_1_3_t0001.png 이미지

다음으로 운전자의 시선 예측 연구를 보면, Tango et al.[15]은 적외선 센서를 이용한 Eye-Tracker를 사용하지 않고 SVM 모델을 통해서 운전자의 시선 분산을 탐지하고자 하였다. Kim et al.[16]는 적외선 카메라 기반 Eye-Tracker의 비용 문제를 지적하며 딥러닝 모델 기반 MTCNN(Multi-Task Convolutional Neural Network)를 통해 일반 카메라 영상으로부터 운전자의 시선을 예측하고자 하였다. 이러한 운전자의 시선 예측 연구들은 장기간 운전 시 상당한 자원 및 연산량이 요구된다는 한계점이 존재함에 따라, 자원 및 연산량 절감이 가능하며 정확한 운전자의 시선 예측 연구가 필요하다. 최근 운전자의 이상행동 및 시선 예측 연구는 개별적으로 이루어지고 있으며 통합적인 예측을 통한 교통사고 위험도 예측 연구는 미비하다. 따라서, 본 연구는 기존의 운전자 이상행동 및 시선 예측 모델 한계점을 극복하고 통합적인 예측을 통해 차량 내부 교통사고 위험도를 예측하고자 한다.

III. The Proposed Method

본 연구는 차량 내 운전자의 행동 및 시선 변화를 분석함으로써 교통사고 위험도를 예측하는 데 목적을 두고 있다. 연구의 구성은 다음과 같다 : 첫째, 관련 데이터셋의 선정 및 활용 방법을 소개하며, 이는 운전자의 이상행동 및 시선 추적 데이터의 수집과 분석에 초점을 맞춘다. 둘째, 운전자 시선에 따른 교통사고 위험 점수를 예측하는 방법을 제시한다. 셋째, 운전자의 이상행동을 분류하는 모델을 설명한다. 넷째, 선정된 모델을 바탕으로 운전자 이상행동에 대한 위험 점수를 측정하는 기준을 제시한다. 마지막으로, 앞서 구한 위험 점수들을 합산하여 차량 내부의 교통사고 위험도를 최종적으로 평가하는 방법을 제시한다. 본 연구는 운전자의 이상행동에 대한 위험 점수 측정에 국가 기관에서 제공하는 데이터와 학습된 인공지능 모델을 활용하며, 운전자의 시선 변화에 대한 위험 점수 측정에는 Gaze360 데이터셋으로 학습된 MCGaze 모델을 사용한다. 이러한 방법론을 통해, 본 논문은 차량 내 운전자의 안전을 강화하고 교통사고의 위험을 감소시키는데 기여할 수 있는 새로운 접근 방식을 제안한다.

1. Datasets

본 연구에서는 AI-Hub에서 제공하는 운전자 및 탑승자 상태 및 이상행동 모니터링 데이터셋을 중심으로 운전 도중 발생하는 운전자 개인의 다양한 행동을 탐지하고 분석하는 데 활용한다. 해당 데이터셋은 2021년에 구축되었으며, 2023년 3월에 갱신되었다. 데이터셋의 전체 용량은 약 799.34GB로, 운전자의 이상행동을 포착한 영상 데이터(*.mp4) 총 500,000건과 이미지(*.jpg) 2,500,000장으로 구성되어 있다.

해당 데이터셋은 졸음운전, 음주운전, 물건 찾기, 통화, 휴대전화 조작, 차량 제어, 운전자 폭행 등 총 7가지 이상행동 유형으로 분류되며, 차량의 앞 좌석과 뒷좌석을 포괄적으로 촬영해 다각도에서 운전자와 탑승자의 행동을 관찰할 수 있다.

모든 영상 및 이미지 데이터는 원천데이터와 함께 인공지능 학습에 적합하도록 바운딩 박스를 활용하여 라벨링된 JSON 파일이 제공된다. 이는 머신러닝 모델의 학습 및 검증 과정에서 고도의 정확성을 요구하는 연구에 있어 중요한 자원이 된다.

2. Driver’s Gaze Changes

2.1 MCGaze Model

본 연구에서는 Guan et al.[17]을 통해 소개된 MCGaze 모델을 활용하여 운전 중인 운전자의 시선 변화를 추적하고 분석한다. 이 모델은 Gaze360 데이터셋을 이용해 학습되고 평가되었으며, 머리, 얼굴, 눈 간의 공간-시간적 상호작용 컨텍스트를 포착하는 종단간 학습 방식을 채택한다. 이 모델은 본 연구의 목적에 부합하는 실시간 운전자 시선 변화의 정밀한 추적에 매우 적합하다.

본 연구는 AI-Hub에서 제공하는 운전자 행동 데이터셋을 기반으로 MCGaze 모델을 적용하였다. MCGaze 모델은 비디오 내 등장인물의 시선 방향을 화살표로 시각화하여 제공하나, 본 연구에서는 운전자의 시선 방향을 더욱 정밀하게 x, y, z 벡터값으로 분석함으로써, 실시간 운전행동 분석에 필요한 정확한 시선 방향 예측을 가능하게 한다. 이를 위해, 기존 MCGaze 모델을 확장하여 시선 방향의 x, y, z 벡터값을 출력할 수 있도록 개선하였으며, 운전 중 시선의 빈번한 변화로 인해 발생하는 불안정성을 극복하기 위해 30프레임 당 10프레임씩 나누어 분석하는 방법을 도입하였다.

2.2 Risk Scores based on Gaze Changes

본 연구에서는 MCGaze 모델을 활용하여 운전자의 시선 방향을 정밀하게 파악하고, 이를 바탕으로 위험 점수를 부여하는 방법론을 개발하였다. 운전자의 시선을 Fig. 1과 같이 정면, 상단, 하단, 좌측, 우측의 다섯 구역으로 구분하고, 이에 해당하는 x, y, z 벡터값을 기반으로 각 구역별 Threshold 값을 설정하였다. AI-Hub에서 제공된 데이터 셋은 한국의 운전 환경을 반영하여 수집되었으므로, 운전자 좌석이 차량의 왼쪽에 위치한 점을 고려하였다.

CPTSCQ_2024_v29n8_1_4_f0001.png 이미지

Fig. 1. Areas Based on Driver's Line of Sight

운전자가 차량의 전방을 주시하는 경우를 기본으로 하여, 좌측 15도, 우측 30도, 상단 15도, 하단 15도 범위 내에서의 시선을 정면으로 간주하였다. 해당 기준을 초과하는 경우, 운전자가 특정 방향을 주시하는 것으로 판단한다. 정면 시선은 운전자의 주의 집중도가 가장 높은 상태로, 교통사고 위험도가 가장 낮은 것으로 간주한다. 반면, 좌측 및 우측 시선은 사이드미러 확인 시에 해당하나, 정면 시선보다 교통사고 위험도가 상대적으로 높다고 본다. 상단 시선은 백미러 확인을 의미할 수 있으나, 이러한 시선이 다른 구역에 비해 자주 발생하지 않음을 고려하였다. 하단 시선은 운전자의 주의력 분산 요인이 크므로 가장 낮은 점수를 부여한다. 이에 따라 위험 점수를 정면 10점, 좌측/우측 5점, 상단 3점, 하단 1점으로 설정하여, 운전자의 시선 변화에 따른 교통사고 위험도를 평가하는 기준을 마련하였다.

2.3 Driver Abnormal Behavior

2.3.1 Abnormal Behavior Classification Model

본 연구는 운전자의 이상행동을 분류하기 위해 AI-Hub의 운전자/탑승자 상태 및 이상행동 모니터링 데이터셋으로 사전 학습된 Temporal Segment Network(TSN) 모델을 활용하고자 한다[18]. TSN 모델은 비디오 데이터에서의 시간적 구조 및 패턴 분석 기반 객체 행동 인식 성능이 우수함을 입증하였다[19]. Fig. 2에서 운전자 이상행동 분류를 위한 TSN 모델 구조를 도식화하였다. TSN 모델은 비디오 V를 K개의 세그먼트 {S1, S2, ⋯, SK}로 나눈 후, 각 세그먼트에서 무작위로 샘플링된 스니펫 (T1, T2, ⋯, TK)을 기반으로 운전자의 이상행동을 분류하는 방식으로, 식 (1)와 같이 정의된다.

TSN(T1, T2, ⋯, TK) = H(G(F(T1;W), F(T2;W), ⋯, F(TK;W)))       (1)

CPTSCQ_2024_v29n8_1_5_f0001.png 이미지

Fig. 2. Temporal Segment Network Structure

F(T;W)는 샘플링된 스니펫 T에 대해 작동하는 매개변수 W를 가진 ConvNet 함수를 의미하며, ConvNet 함수는 운전자의 이상행동 클래스에 대한 클래스 점수를 출력한다. 세그먼트 합의 함수 G는 일련의 샘플링된 스니펫들로부터의 출력을 결합하여, 운전자의 이상행동 클래스 사이의 클래스 가설에 대한 합의를 도출한다. 마지막으로 예측 함수 H는 Softmax 함수로, 앞서 도출된 합의를 기반으로 비디오 데이터에 대한 스니펫별 운전자의 이상행동 클래스의 확률을 출력한다. 이러한 구조를 가진 TSN 모델을 통해 운전자의 이상행동을 정확하게 분류할 수 있는 기대효과를 얻을 수 있다.

2.3.2 Risk Scores for Driver Abnormalities

본 연구는 TSN 모델을 통해 분류한 운전자 이상행동을 기반으로 운전자 이상 행동별 위험 점수를 산정하고자 한다. 본 연구에서 제안하는 운전자 이상 행동별 위험 점수산정 알고리즘은 Algorithm 1과 같다. 입력하고자 하는 데이터는 운전자 이상 행동별 교통사고 건수, 사망자 수, 부상자 수에 대한 배열 형태로 구성한다. Table 2는 위험점수 산정이 필요한 이상행동 및 이상 행동별 교통사고 건수, 사망자 수, 부상자 수를 명시한다. 운전자 이상 행동별 교통사고 건수, 사망자 수, 부상자 수에 대한 데이터는 2018년 도로교통공단과 경찰청에서 수집한 통계 자료 기반으로 구축하였다. 본 연구는 운전자 이상 행동별 통계자료 기반 위험 점수의 정규화를 위해 운전자 이상 행동별 교통사고 건수, 사망자 수, 부상자 수에 대한 최소-최대 정규화 단계를 진행한다.

Table 2. Driver’s Abnormal Behavior Accidents/Deaths/Injuries Statistics

CPTSCQ_2024_v29n8_1_5_t0001.png 이미지

최소-최대 정규화는 교통사고 건수, 사망자 수, 부상자 수에 대한 튜플을 선형 변환하여 [0, 1] 구간으로 매핑한다. 식 (2)는 상기 언급한 변환 연산을 나타낸다.

\(\begin{align}d=\frac{x-\min }{\max -\min }\end{align}\)       (2)

Algorithm 1. Abnormal Behavior Risk Score Algorithm

JAKO202427078888498_algro 1.png 이미지

식 (2)에서 x는 이상 행동별 튜플 형태의 데이터를 의미하며, max는 이상 행동별 튜플 최댓값, min은 이상 행동별 튜플 최솟값을 나타낸다. d는 정규화된 데이터를 의미한다. 상기 언급한 방식과 같이 정규화 단계를 진행한 이후, 운전자 이상 행동별 사고심각도 계수 RF(Risk Factor)를 계산한다. 식 (3)은 RF를 구하기 위한 수식을 명시한다.

RF = Death × α + Injury × B       (3)

식 (3)의 Death, Injury는 이상 행동별 사망자 수, 부상자 수를 의미한다. α, β는 도로교통법 시행규칙상 정지처분 개별기준 중 “사고 결과에 따른 벌점 기준”에 따른 사망 90점, 부상 2점 상수를 나타내며, 위 수식을 통해 이상 행동별 사고심각도 계수를 계산할 수 있다. 마지막으로 운전자 이상행동 위험 점수 산정 단계에서는 이상행동 위험 점수 ABRS(Abnormal Behavior Risk Score)를 식 (4)로부터 계산하여 이상 행동별 위험 점수를 도출한다.

\(\begin{align}A B R S=\sqrt{R F^{2}+A c c^{2}}\end{align}\)       (4)

식 (4)는 어린이보호구역 내 교통안전 강화를 위한 도로교통법 시행규칙 설명자료에서 언급된 교통사고 위험지수 기반으로 수식화되었다. Acc는 이상 행동별 교통사고 건수를 의미한다. RF는 식 (3)에서 계산한 이상 행동별 사고 심각도 계수를 나타내며, 상기 언급한 수식을 통해 이상 행동별 위험 점수를 도출할 수 있다. 하지만, 도출된 위험점수는 Table 3에 명시한 운전자 부주의 범주의 음주운전, 졸음운전 그리고 운전자 주의 분산 범주의 통합 이상행위에 대해 스코어링이 가능하다.

Table 3. Driver‘s Abnormal Behavior

CPTSCQ_2024_v29n8_1_6_t0002.png 이미지

따라서, 운전자 주의 분산 범주의 세부 이상 행위에 대한 스코어링을 통해 운전자 주의 분산 범주의 세부 이상행위에 대한 위험 점수를 산출해야 한다. 본 연구는 이러한 스코어링 한계점을 극복하기 위해 Cho et al.[6]의 2008년부터 2012년까지의 경찰청 교통사고 자료에 근거한 운전자 주의 분산 범주의 세부 이상 행위 교통사고 빈도수를 나타낸 Table 4을 활용하고자 한다. Fig. 3은 운전자 주의 분산 범주의 세부 이상 행위 위험 점수 산출 방법을 보여준다.

Table 4. Detailed Driver’s Distraction Behavior Statistics

CPTSCQ_2024_v29n8_1_7_t0001.png 이미지

CPTSCQ_2024_v29n8_1_7_f0001.png 이미지

Fig. 3. Detailed Driver’s Distraction Behavior ABRS Scoring Method

먼저, 운전자 주의 분산 범주의 세부 이상 행위가 입력 데이터로 들어왔을 때, 최소-최대 정규화를 통해 정규화를 수행한다. 마지막으로, Fig. 2에서 산정한 운전자 주의 분산 범주의 통합 이상 행위 위험 점수를 정규화한 세부 이상 행위와 곱하여 운전자 주의 분산 범주의 세부 이상 행위에 대한 위험 점수까지 산정할 수 있다. Fig. 2 및 Fig. 3으로 산정한 운전자 이상행동 위험 점수는 Table 5로 기술하였다.

Table 5. Driver’s Abnormal Behavior Risk Score Index

CPTSCQ_2024_v29n8_1_7_t0002.png 이미지

상기 언급된 방법들을 통해 도출된 운전자의 이상행동에 대한 위험 점수는 In-vehicle 교통사고 위험도 예측을 위한 핵심적인 수치로 활용될 수 있다.

3. In-vehicle Traffic Accident Risk Prediction

본 연구에서 제안하는 차량 내 교통사고 위험도 예측 접근법은 운전자의 시선 및 이상행동을 종합적으로 분석하여 프레임별 위험도 점수를 산출하는 방식에 기반한다. 구체적으로, 각 150 프레임마다 운전자의 시선 점수와 이상행동 위험도 점수를 곱하여 식 (5)와 같이 최종 프레임별 교통사고 위험도 점수 TARS(Traffic Accident Risk Score)를 도출한다.

\(\begin{align}T A R S=\sum_{i=1}^{150}(G R S)_{i} \times(A B R S)_{i}\end{align}\)       (5)

이 점수가 높을수록 운전 중 위험 상태를 나타내며, 누적된 점수가 특정 임계값을 초과할 경우 시스템은 운전자에게 위험 경보를 발령한다. 이 방법은 실시간 모니터링을 통해 운전자의 안전을 향상시키고 사고를 예방하는 데 기여할 것으로 기대된다.

IV. Conclusions

본 연구는 차량 내부 데이터를 활용하여 운전자의 시선 변화와 이상행동을 분석함으로써 교통사고 위험도를 예측하는 새로운 접근법을 제시하였다. MCGaze 모델과 TSN(ResNet) 모델을 통해 운전자의 시선과 행동 변화를 정밀하게 파악하고, 이를 기반으로 위험 점수를 부여하는 방식을 도입하였다. 이 방법론은 운전자 개별에 대한 사고위험 경보를 제공할 수 있는 시스템 구축에 기여할 수 있음을 보여준다.

본 연구는 차량 내부에서 운전자의 시선 변화와 이상행동을 모니터링함으로써 교통사고 위험도를 예측하는 새로운 방법론을 제안하였다. MCGaze 모델을 통해 운전자의 시선을 정밀하게 분석하고, 다섯 구역으로 구분하여 위험점수를 차등 부여하였으며, TSN(ResNet) 모델을 사용하여 운전자의 이상행동을 분류하고 위험 점수를 부여하는 방식을 개발하였다. 이 접근법은 개별 운전자의 사고 위험도를 실시간으로 예측하고 경보를 제공할 가능성을 열었다.

본 연구는 차량 내부 요인에 초점을 맞춘 교통사고 위험도 예측 모델의 개발에 중요한 기여를 하였다. 특히, 운전자의 시선 변화와 이상행동을 통합적으로 분석함으로써, 기존 연구에서 주로 다루지 않았던 새로운 변수들을 사고위험도 예측에 포함하였다는 점에서 의의가 크다. 다만, 시선 변화에 대한 위험 점수 부여 기준과 이상행동의 정량화 방법에 있어서 추가적인 세부 조정이 필요함을 인식하고 있다. 이러한 부분은 향후 연구에서 더욱 세밀하게 다루어질 예정이며, 연구의 정확성과 신뢰성을 높이는 데 기여할 것이다.

결론적으로, 본 연구는 차량 내부 데이터를 활용한 교통사고 위험도 예측에 있어 새로운 시각을 제공하였다. 이 결과는 향후 차량 안전 기술 개발과 운전자 행동 분석 연구에 중요한 토대를 제공할 것이며, 교통안전을 향상시키기 위한 정책 및 프로그램 개발에도 중요한 시사점을 제공한다.

ACKNOWLEDGEMENT

This work was supported by a National Research Foundation of Korea (NRF) grant funded by the Korea government (2022R1F1A1074273).

참고문헌

  1. World Health Organization, "Global status report on road safety 2023," Geneva: World Health Organization, 2023. 
  2. A. R. Quimby, G. Maycock, I. D. Carter, R. Dixon, and J. G. Wall, Perceptual abilities of accident involved drivers. No. RR 27, 1986. 
  3. IS Kim, "The Study on Risk of Distracted Driving," 2008 Annual Conference Korean Psychologial Assocoaition, pp. 136-137, Aug 2008. 
  4. J. C. Stutts, H. F. Herman, and W. W. William, "Cell phone use while driving in North Carolina: 2002 update report," 2002. 
  5. D. L. Strayer, F. A. Drews, and D. J. Crouch, "Fatal distraction? A comparison of the cell-phone driver and the drunk driver," Driving Assessment Conference. Vol. 2. No. 2003. University of Iowa, 2003. 
  6. JH Cho, IS Song, and TJ Song, "Concept and Relationship of Driver's Inattention and Distraction in traffic accident," Proceedings of the KOR-KST Conference, No. 73, pp. 156-161. Oct 2015. 
  7. SC Lee, "The Effects of Driving Behavior Determinants on Dangerous Driving and Traffic Accidents in the Reckless Drivers Group : A Path Analysis Study," Journal of Korean Society of Transportation, Vol. 25, No. 2, pp. 95-105, Apr 2007. 
  8. JS Cho, HS Lee, JY Lee, and DK Kim, "The Hazardous Expressway Sections for Drowsy Driving Using Digital Tachograph in Truck," Journal of Korean Society of Transportation, Vol. 35, No. 2, pp. 160-168, Apr 2017. 
  9. SY Lee and SC Lee, "The effects of driving confidence level on drunken drivers: A path analysis study," Korean Journal of Industrial and Organizational Psychology, Vol. 20, No. 1, pp. 43-55. 2007. 
  10. YJ Song, "Real-time driver behavior recognition system using a CNN-LSTM model," Master's Thesis, Hanyang University, 2021. 
  11. Y. Xing, C. Lv, H. Wang, D. Cao, E. Velenis, and F. Y. Wang, "Driver Activity Recognition for Intelligent Vehicles: A Deep Learning Approach," IEEE Transactions on Vehicular Technology, Vol. 68, No. 6, pp. 5379-5390, June 2019, doi: 10.1109/TVT.2019.2908425. 
  12. C. Zhang, R. Li, W. Kim, D. Yoon, and P. Patras, "Driver Behavior Recognition via Interwoven Deep Convolutional Neural Nets With Multi-Stream Inputs," IEEE Access, vol. 8, pp. 191138-191151, Oct 2020, doi: 10.1109/ACCESS.2020.3032344. 
  13. L. Yang, H. Yang, H. Wei, Z. Hu, and C. Lv, "Video-Based Driver Drowsiness Detection With Optimised Utilization of Key Facial Features," IEEE Transactions on Intelligent Transportation Systems, Vol. 25, No. 7, pp. 6938-6950, July 2024, doi: 10.1109/TITS.2023.3346054 
  14. Z. Li and D. Jin, "Driver anomalous driving behavior detection based on supervised contrastive learning," 4th International Conference on Computer Vision and Data Mining (ICCVDM 2023), Vol. 13063, pp. 667-674, Sep 2024. 
  15. F. Tango and M. Botta, "Real-Time Detection System of Driver Distraction Using Machine Learning," IEEE Transactions on Intelligent Transportation Systems, Vol. 14, No. 2, pp. 894-905, June 2013, doi: 10.1109/TITS.2013.2247760. 
  16. HK Kim and SK Ryu, "Study of MTCNN-based driver gaze information visualization," Journal of Digital Art Engineering and Multimedia, Vol. 9, No. 4, pp. 431-440, Dec 2022, doi: 10.29056/jdaem.2022.12.09 
  17. Y. Guan, Z. Chen, W. Zeng, Z. Cao, and Y. Xiao, "End-to-End Video Gaze Estimation via Capturing Head-Face-Eye Spatial-Temporal Interaction Context," IEEE Signal Processing Letters, Vol. 30, pp. 1687-1691, Nov 2023, doi: 10.1109/LSP.2023.3332569 
  18. L. Wang, Y. Xiong, Z. Wang, Y. Qiao, D. Lin, X. Tang, and L. Van Gool, "Temporal Segment Networks: Towards Good Practices for Deep Action Recognition," European Conference on Computer Vision, pp. 20-36, Sep 2016. doi: 10.1007/978-3-319-46484-8_2. 
  19. L. Wang, Y. Xiong, Z. Wang, Y. Qiao, D. Lin, X. Tang, and L. Van Gool, "Temporal Segment Networks for Action Recognition in Videos," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 41, No. 11, pp. 2740-2755, Nov 2019.