• 제목/요약/키워드: Pedestrian Detection

검색결과 187건 처리시간 0.025초

환경변화에 강인한 단안카메라 레이더 적외선거리계 센서 융합 기반 교통정보 수집 시스템 개발 (Development of A Multi-sensor Fusion-based Traffic Information Acquisition System with Robust to Environmental Changes using Mono Camera, Radar and Infrared Range Finder)

  • 변기훈;김세진;권장우
    • 한국ITS학회 논문지
    • /
    • 제16권2호
    • /
    • pp.36-54
    • /
    • 2017
  • 본 논문은 환경변화에 강인한 센서 융합 교통정보 수집 시스템을 제안한다. 제안된 시스템은 각 센서의 특징을 융합하여 영상 검지기에 비해 환경에 강인하고, 주 야간 등 시간에 영향을 받지 않으며 루프 검지기에 비해 유지보수에 드는 비용이 적다. 이는 레이더의 물체 추적 기법과 영상검지기의 차량분류, 적외선거리계의 신뢰성 높은 객체검지 정보를 융합하고 각 센서의 문제점을 보완하여 개선을 이루었다. 구현된 시스템을 보행자의 통행이 가능한 도로에서 주 야간 5일에 걸쳐 6시간 동안 실험한 결과 88.7%의 분류정확도와 95.5%의 차량 검지율을 나타내었다. 본 시스템의 파라미터 최적화 작업을 실험환경에 따라 적응되는 방식으로 보완한다면 교통정보 수집 체계의 고도화에 기여할 수 있을 것으로 기대된다.

Deep Convolutional Neural Network를 이용한 주차장 차량 계수 시스템 (Parking Lot Vehicle Counting Using a Deep Convolutional Neural Network)

  • 림 쿠이 송;권장우
    • 한국ITS학회 논문지
    • /
    • 제17권5호
    • /
    • pp.173-187
    • /
    • 2018
  • 본 논문에서는 주차장 관리 시스템의 한 부분으로 차량 계수를 위한 감시 카메라 시스템의 컴퓨터 비전과 심층 학습 기반 기법을 제안하고자 한다. You Only Look Once 버전 2 (YOLOv2) 탐지기를 적용하고 YOLOv2 기반의 심층 컨볼루션 신경망(CNN)을 다른 아키텍처와 두 가지 모델로 구성하였다. 제안 된 아키텍처의 효과를 Udacity의 자체 운전 차량 데이터 세트를 사용하여 설명하였다. 학습 및 테스트 결과, 자동차, 트럭 및 보행자 탐지 시 원래 구조(YOLOv2)의 경우 47.89%의 mAP를 나타내는 것에 비하여, 제안하는 모델의 경우 64.30 %의 mAP를 달성하여 탐지 정확도가 향상되었음을 증명하였다.

보행자 및 차량 검지를 위한 레이더 영상 융복합 시스템 연구 (A Study on Radar Video Fusion Systems for Pedestrian and Vehicle Detection)

  • 조성윤;윤여환
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.197-205
    • /
    • 2024
  • 자율주행 자동차 개발 및 상용화에 있어서 주행안전도 확보가 가장 중요한 시점에서 이를 위해 전방 및 주행차량 주변에 존재하는 다양한 정적/동적 차량의 인식과 검출 성능을 고도화 및 최적화하기 위한 AI, 빅데이터 기반 알고리즘개발 등이 연구되고 있다. 하지만 레이더와 카메라의 고유한 장점을 활용하여 동일한 차량으로 인식하기 위한 연구 사례들이 많이 있지만, 딥러닝 영상 처리 기술을 이용하지 않거나, 레이더의 성능상의 문제로 짧은 거리만 동일한 표적으로 감지하고 있다. 따라서 레이더 장비와 카메라 장비에서 수집할 수 있는 데이터셋을 구성하고, 데이터셋의 오차를 계산하여 동일한 표적으로 인식하는 융합 기반 차량 인식 방법이 필요하다. 본 논문에서는 레이더와 CCTV(영상) 설치 위치에 따라 동일한 객체로 판단하기에 데이터 오차가 발생하기 때문에 설치한 위치에 따라 위치 정보를 연동할 수 있는 기술 개발을 목표로 한다.

제어 가능한 카메라 환경에서 실시간 다수 물체 검출 및 관심 보행자 추적 (Real-Time Multi-Objects Detection and Interest Pedestrian Tracking in Auto-Controlled Camera Environment)

  • 이병선;이은주
    • 한국정보기술응용학회:학술대회논문집
    • /
    • 한국정보기술응용학회 2007년도 춘계학술대회
    • /
    • pp.38-46
    • /
    • 2007
  • 본 논문에서는 실시간으로 획득된 영상을 분석하여 움직이는 다수 물체를 검출하고, 카메라를 자동 제어하여 관심 보행자만을 추적하는 시스템을 제안한다. 다수 물체 영역 검출은 차영상과 이전변환 밀도값을 이용한다. 검출된 다수 물체 영역에서 사람의 구조적 정보와 형태 정보를 이용하여 나무들의 흔들림으로 인한 영역이나 차량의 움직임 영역은 제거되고, 관심 보행자 영역만을 검출하였다. 관심 보행자 추적은 무게중심 차를 이용한 움직임 정보와 k-means 알고리즘으로 구한 세 점의 평균 색상 정보를 이용한다. 원거리 관심 보행자는 인식률을 높이기 위해 줌을 실행하여 확대하고, 관심 보행자의 화면상 위치에 따라 카메라 방향을 자동으로 조정하여 관심 보행자반을 연속적으로 추적한다. 실험 결과, 제안한 시스템은 실시간으로 움직이는 다수 물체를 검출하고, 사람의 구조적 특정과 형태 정보로 관심 보행자만을 검출할 수 있었고, 움직임 정보와 색상정보로 관심 보행자를 연속적으로 추적할 수 있었다.

  • PDF

In-Vehicle AR-HUD System to Provide Driving-Safety Information

  • Park, Hye Sun;Park, Min Woo;Won, Kwang Hee;Kim, Kyong-Ho;Jung, Soon Ki
    • ETRI Journal
    • /
    • 제35권6호
    • /
    • pp.1038-1047
    • /
    • 2013
  • Augmented reality (AR) is currently being applied actively to commercial products, and various types of intelligent AR systems combining both the Global Positioning System and computer-vision technologies are being developed and commercialized. This paper suggests an in-vehicle head-up display (HUD) system that is combined with AR technology. The proposed system recognizes driving-safety information and offers it to the driver. Unlike existing HUD systems, the system displays information registered to the driver's view and is developed for the robust recognition of obstacles under bad weather conditions. The system is composed of four modules: a ground obstacle detection module, an object decision module, an object recognition module, and a display module. The recognition ratio of the driving-safety information obtained by the proposed AR-HUD system is about 73%, and the system has a recognition speed of about 15 fps for both vehicles and pedestrians.

PCA와 HOG특징을 이용한 최적의 pRBFNNs 패턴분류기 기반 보행자 검출 시스템의 설계 (Design of Pedestrian Detection System Based on Optimized pRBFNNs Pattern Classifier Using HOG Features and PCA)

  • 임명호;박찬준;오성권;김진율
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2015년도 제46회 하계학술대회
    • /
    • pp.1345-1346
    • /
    • 2015
  • 본 논문에서는 보행자 및 배경 이미지로부터 HOG-PCA 특징을 추출하고 다항식 기반 RBFNNs(Radial Basis Function Neural Network) 패턴분류기과 최적화 알고리즘을 이용하여 보행자를 검출하는 시스템 설계를 제안한다. 입력 영상으로부터 보행자를 검출하기 위해 전처리 과정에서 HOG(Histogram of oriented gradient) 알고리즘을 통해 특징을 추출한다. 추출된 특징은 고차원이므로 패턴분류기 분류 시 많은 연산과 처리속도가 따른다. 이를 개선하고자 PCA (Principal Components Analysis)을 사용하여 저차원으로의 차원 축소한다. 본 논문에서 제안하는 분류기는 pRBFNNs 패턴분류기의 효율적인 학습을 위해 최적화 알고리즘인 PSO(Particle Swarm Optimization)을 사용하여 구조 및 파라미터를 최적화시켜 모델의 성능을 향상시킨다. 사용된 데이터로는 보행자 검출에 널리 사용되는 INRIA2005_person data set에서 보행자와 배경 영상을 각각 1200장을 학습 데이터, 검증 데이터로 구성하여 분류기를 설계하고 테스트 이미지를 설계된 최적의 분류기를 이용하여 보행자를 검출하고 검출률을 확인한다.

  • PDF

둔상에 의한 요관 손상 1례 (Ureteral Injury Caused By Blunt Trauma: A Case Report)

  • 권오상;문윤수;우승효;한현영;황정주;이장영;이민구
    • Journal of Trauma and Injury
    • /
    • 제25권4호
    • /
    • pp.291-295
    • /
    • 2012
  • Ureteral trauma is rare, accounting for less than 1% of all urologic traumas. However, a missed ureteral injury can result in significant morbidity and mortality. The purpose of this case presentation is to suggest another method for early detection of ureteral injury in blunt traumatic patient. A 47-years-old man was injured in pedestrian traffic accident. He undergone 3-phase abdominal CT initially and had had a short-term follow-up simple. We suspected ureteral injury. Our final diagnosis of a ureteral injury was based on follow-up and antegrade pyeloureterography, he underwent emergency surgery. We detected the ureteral injury early and took a definitive action within 24 hours. In blunt trauma, if abnormal fluid collection in the perirenal retroperitoneal space is detect, the presence of a ureteral injury should be suspected, so a short-term simple X-ray or abdominal CT, within a few hours after initial abdominal CT, may be useful.

철도건널목 사고방지를 위한 방안 연구 (Accident Prevention Technology at a Level Crossing)

  • 조봉관;류상환;황현철;정재일
    • 전기학회논문지
    • /
    • 제57권12호
    • /
    • pp.2220-2227
    • /
    • 2008
  • The safety equipments of railway level crossing which are installed at intersections between roads and railway lines prevent level crossing accidents by informing all of the vehicles and pedestrians of approaching trains. The intelligent safety system for level crossing which employs information and communication technology has been developed in USA and Japan, etc. But, in Korea, the relevant research has not been performed. In this paper, we analyze the cause of railway level crossing accidents and the inherent problem of the existing safety equipments. Based on analyzed results, we design the intelligent safety system which prevent collision between a train and a vehicle. This system displays train approaching information in real-time at roadside warning devices, informs approaching train of the detected obstacle in crossing areas, and is interconnected with traffic signal to empty the crossing area before train comes. Especially, we present the video based obstacle detection algorithm and verify its performance with prototype H/W since the abrupt obstacles in crossing areas are the main cause of level crossing accidents. We identify that the presented scheme detects both pedestrian and vehicle with good performance.

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

Movement Detection Using Keyframes in Video Surveillance System

  • Kim, Kyutae;Jia, Qiong;Dong, Tianyu;Jang, Euee S.
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1249-1252
    • /
    • 2022
  • In this paper, we propose a conceptual framework that identifies video frames in motion containing the movement of people and vehicles in traffic videos. The automatic selection of video frames in motion is an important topic in security and surveillance video because the number of videos to be monitored simultaneously is simply too large due to limited human resources. The conventional method to identify the areas in motion is to compute the differences over consecutive video frames, which has been costly because of its high computational complexity. In this paper, we reduced the overall complexity by examining only the keyframes (or I-frames). The basic assumption is that the time period between I-frames is rather shorter (e.g., 1/10 ~ 3 secs) than the usual length of objects in motion in video (i.e., pedestrian walking, automobile passing, etc.). The proposed method estimates the possibility of videos containing motion between I-frames by evaluating the difference of consecutive I-frames with the long-time statistics of the previously decoded I-frames of the same video. The experimental results showed that the proposed method showed more than 80% accuracy in short surveillance videos obtained from different locations while keeping the computational complexity as low as 20 % compared to the HM decoder.

  • PDF