• 제목/요약/키워드: Vehicle Detection Systems

검색결과 474건 처리시간 0.026초

ITS를 위한 Alamouti 기법을 이용한 차량 검출 성능 분석 (Performance of Vehicle Detection Using Alamouti for ITS)

  • 김승종;박인환;김진영
    • 한국ITS학회 논문지
    • /
    • 제10권3호
    • /
    • pp.79-84
    • /
    • 2011
  • 본 논문에서는 ITS 응용을 위한 Alamouti 기법을 이용한 효과적인 차량 검출 성능을 분석하였다. 차량 검출은 DSRC (Dedicated Short Range Communication) 기반의 하이패스 환경에서 실험하였다. 시스템 성능으로는 비트 에러 확률로 실험 결과 값에 대하여 분석하였으며, 실험환경은 진입차량의 속도를 60km/h로 가정하여 DSRC 기반의 변조방식인 ASK 기법 을 적용하여 실험하였다. 또한 적용된 채널은 Rician 채널을 적용하여 LOS (Line of Sight)환경을 고려하며 실험을 하였다. 또한 사용된 반송파 주파수는 일본 DSRC 시스템 하향링크를 참고하여 5.8GHz를 적용하였다. 실험결과로 안테나가 2개일 경우와 Alamouti 기법을 적용할 때의 검출성능을 각각 나타내었으며, Alamouti 기법을 적용할 때 성능이 보다 개선되었음을 본 실험을 통해 알 수 있었다.

Real-Time Vehicle Detector with Dynamic Segmentation and Rule-based Tracking Reasoning for Complex Traffic Conditions

  • Wu, Bing-Fei;Juang, Jhy-Hong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제5권12호
    • /
    • pp.2355-2373
    • /
    • 2011
  • Vision-based vehicle detector systems are becoming increasingly important in ITS applications. Real-time operation, robustness, precision, accurate estimation of traffic parameters, and ease of setup are important features to be considered in developing such systems. Further, accurate vehicle detection is difficult in varied complex traffic environments. These environments include changes in weather as well as challenging traffic conditions, such as shadow effects and jams. To meet real-time requirements, the proposed system first applies a color background to extract moving objects, which are then tracked by considering their relative distances and directions. To achieve robustness and precision, the color background is regularly updated by the proposed algorithm to overcome luminance variations. This paper also proposes a scheme of feedback compensation to resolve background convergence errors, which occur when vehicles temporarily park on the roadside while the background image is being converged. Next, vehicle occlusion is resolved using the proposed prior split approach and through reasoning for rule-based tracking. This approach can automatically detect straight lanes. Following this step, trajectories are applied to derive traffic parameters; finally, to facilitate easy setup, we propose a means to automate the setting of the system parameters. Experimental results show that the system can operate well under various complex traffic conditions in real time.

Classification of Objects using CNN-Based Vision and Lidar Fusion in Autonomous Vehicle Environment

  • G.komali ;A.Sri Nagesh
    • International Journal of Computer Science & Network Security
    • /
    • 제23권11호
    • /
    • pp.67-72
    • /
    • 2023
  • In the past decade, Autonomous Vehicle Systems (AVS) have advanced at an exponential rate, particularly due to improvements in artificial intelligence, which have had a significant impact on social as well as road safety and the future of transportation systems. The fusion of light detection and ranging (LiDAR) and camera data in real-time is known to be a crucial process in many applications, such as in autonomous driving, industrial automation and robotics. Especially in the case of autonomous vehicles, the efficient fusion of data from these two types of sensors is important to enabling the depth of objects as well as the classification of objects at short and long distances. This paper presents classification of objects using CNN based vision and Light Detection and Ranging (LIDAR) fusion in autonomous vehicles in the environment. This method is based on convolutional neural network (CNN) and image up sampling theory. By creating a point cloud of LIDAR data up sampling and converting into pixel-level depth information, depth information is connected with Red Green Blue data and fed into a deep CNN. The proposed method can obtain informative feature representation for object classification in autonomous vehicle environment using the integrated vision and LIDAR data. This method is adopted to guarantee both object classification accuracy and minimal loss. Experimental results show the effectiveness and efficiency of presented approach for objects classification.

무인 ATV의 종 방향 제어를 위한 CAN 기반 분산형 시스템의 고장감지 및 진단 (Fault Detection and Diagnosis of CAN-Based Distributed Systems for Longitudinal Control of All-Terrain Vehicle(ATV))

  • 김순태;송봉섭;홍석교
    • 제어로봇시스템학회논문지
    • /
    • 제14권10호
    • /
    • pp.983-990
    • /
    • 2008
  • This paper presents the fault detection and diagnosis(FDD) algorithm to enhance reliability of a longitudinal controller for an autonomous All-Terrain Vehicle(ATV). The FDD is designed to monitor and identify faults which may occur in distributed hardware used for longitudinal control, e.g., DSPs, CAN, sensors, and actuators. The proposed FDD is an integrated approach of decentralized and centralized FDD. While the former is processed in a DSP and suitable to detect faults in a single hardware, it is sensitive to noise and disturbance. On the other hand, the latter is performed via communication and it detects and diagnoses faults through analyzing concurrent performances of multiple hardware modules, but it is limited to isolate faults specifically in terms of components in the single hardware. To compensate for disadvantages of each FDD approach, two layered structure including both decentralized and centralized FDD is proposed and it allows us to make more robust fault detection and more specific fault isolation. The effectiveness of the proposed method will be validated experimentally.

무인 수상정의 융합 항법 및 GPS 이상 검출 (Fused Navigation of Unmanned Surface Vehicle and Detection of GPS Abnormality)

  • 고낙용;정석기
    • 제어로봇시스템학회논문지
    • /
    • 제22권9호
    • /
    • pp.723-732
    • /
    • 2016
  • This paper proposes an approach to fused navigation of an unmanned surface vehicle(USV) and to detection of the outlier or interference of global positioning system(GPS). The method fuses available sensor measurements through extended Kalman filter(EKF) to find the location and attitude of the USV. The method uses error covariance of EKF for detection of GPS outlier or interference. When outlier or interference of the GPS is detected, the method excludes GPS data from navigation process. The measurements to be fused for the navigation are GPS, acceleration, angular rate, magnetic field, linear velocity, range and bearing to acoustic beacons. The method is tested through simulated data and measurement data produced through ground navigation. The results show that the method detects GPS outlier or interference as well as the GPS recovery, which frees navigation from the problem of GPS abnormality.

자동차 검출을 위한 GAVaPS를 이용한 최적 분류기 앙상블 설계 (Optimal Classifier Ensemble Design for Vehicle Detection Using GAVaPS)

  • 이희성;이제헌;김은태
    • 제어로봇시스템학회논문지
    • /
    • 제16권1호
    • /
    • pp.96-100
    • /
    • 2010
  • This paper proposes novel genetic design of optimal classifier ensemble for vehicle detection using Genetic Algorithm with Varying Population Size (GAVaPS). Recently, many classifiers are used in classifier ensemble to deal with tremendous amounts of data. However the problem has a exponential large search space due to the increasing the number of classifier pool. To solve this problem, we employ the GAVaPS which outperforms comparison with simple genetic algorithm (SGA). Experiments are performed to demonstrate the efficiency of the proposed method.

비젼 기반 차량 검출 및 교통 파라미터 추출 (Vision Based Vehicle Detection and Traffic Parameter Extraction)

  • 하동문;이종민;김용득
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권11호
    • /
    • pp.610-620
    • /
    • 2003
  • 다양한 그림자는 비젼 기반 차량 검출에서 오류를 발생시키는 주요 원인이다. 본 논문에서는 노면 표시 기반 방법과 배경 빼기 및 에지(BS & Edge) 방법이라는 두 가지 방안을 차량 검출과 그림자 제거를 위해 제안하였다. 노변의 지형 지물들로 인해서 발생하는 그림자의 영향이 크게 증가하는 상황에서의 실험을 통해서 96% 이상의 차량 검출 정확도를 나타냄을 확인하였다. 전술한 두 가지 방법을 기반으로 하여, 차량 추적, 차량 계수, 차종 분류, 그리고 속도 측정을 수행하여 각 차로의 부하를 나타내는 데 사용되는 차량 흐름과 관련된 여러 가지 교통 파라미터를 추출하였다.

Faster R-CNN 기반의 관심영역 유사도를 이용한 후방 접근차량 검출 연구 (Rear-Approaching Vehicle Detection Research using Region of Interesting based on Faster R-CNN)

  • 이영학;김중수;심재창
    • 전기전자학회논문지
    • /
    • 제23권1호
    • /
    • pp.235-241
    • /
    • 2019
  • 본 논문에서는 농업 기계 시스템에서 사용하기 위한 딥러닝 알고리즘 기반의 프레임 내의 관심 영역 유사성을 이용한 새로운 후방 접근 차량 검출 알고리즘을 제안한다. 농업 기계 시스템은 후방에서 접근하는 차량만 검출해야 한다. 지나가는 자동차가 검출되면 혼란을 야기할 수 있다. 논문에서는 차량 검출을 위해 딥러닝에서 뛰어난 검출률을 나타내는 Faster R-CNN 모델을 사용하였다. 딥러닝은 뒤에서 접근하는 차량뿐만 아니라 지나가는 차량도 검출하므로 긍정오류 차량을 배제해야 한다. 본 논문에서 이를 해결하기 위해 검출된 프레임에서 관심 영역에 대한 유사성과 평균 에러를 피라미드 형태로 이용하여 접근하는 자동차만 검출하는 알고리즘을 제안하였다. 실험을 통하여 제안된 방법이 평균 98.8%의 높은 검출률을 나타내었다.

Development of a Real-Time Video Image Tracking Algorithm for Incident Detection

  • 오주택;민준영;허병도;김명섭
    • 한국ITS학회 논문지
    • /
    • 제7권4호
    • /
    • pp.49-60
    • /
    • 2008
  • 현재 비디오 영상처리시스템(VIPS: Video Image Processing System)은 실시간으로 들어오는 영상정보를 분석하여 유용한 정보를 제공하고, 하나의 카메라로 여러 차로를 동시에 감시할 수 있는 알고리즘으로 교통량, 속도뿐만 아니라 밀도 및 점유율 등 다양한 정보를 제공하나, 안전지대에서는 효과적이지 못한다. 그러나, 영상검지시스템에서 개별차량에 대한 추적시스템으로 개발할 경우 사고 및 차로 변경의 위험요소 감지 등 실시간으로 보다 다양한 정보를 제공할 수가 있다. 본 논문은 컴퓨터비전 기술을 이용하여 개별차량의 추적시스템을 개발하였으며, 이 시스템을 실제 도로영상에 적용하여 Tripwire에서 수집할 수 있는 교통정보뿐만 아니라 사고, 상충정보 등 다양한 정보를 제공한다. 본 연구의 검증을 위하여 개별차량 추적시스템으로 1) 돌발상황 감지 2) 급차로 변경과 같은 비정상적인 차량흐름의 경우를 감지하는 실험을 수행하였다.

  • PDF

어안 이미지의 배경 제거 기법을 이용한 실시간 전방향 장애물 감지 (Real time Omni-directional Object Detection Using Background Subtraction of Fisheye Image)

  • 최윤원;권기구;김종효;나경진;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권8호
    • /
    • pp.766-772
    • /
    • 2015
  • This paper proposes an object detection method based on motion estimation using background subtraction in the fisheye images obtained through omni-directional camera mounted on the vehicle. Recently, most of the vehicles installed with rear camera as a standard option, as well as various camera systems for safety. However, differently from the conventional object detection using the image obtained from the camera, the embedded system installed in the vehicle is difficult to apply a complicated algorithm because of its inherent low processing performance. In general, the embedded system needs system-dependent algorithm because it has lower processing performance than the computer. In this paper, the location of object is estimated from the information of object's motion obtained by applying a background subtraction method which compares the previous frames with the current ones. The real-time detection performance of the proposed method for object detection is verified experimentally on embedded board by comparing the proposed algorithm with the object detection based on LKOF (Lucas-Kanade optical flow).