• Title/Summary/Keyword: 카메라 기반 주행

Search Result 165, Processing Time 0.027 seconds

Unsupervised Monocular Depth Estimation Using Self-Attention for Autonomous Driving (자율주행을 위한 Self-Attention 기반 비지도 단안 카메라 영상 깊이 추정)

  • Seung-Jun Hwang;Sung-Jun Park;Joong-Hwan Baek
    • Journal of Advanced Navigation Technology
    • /
    • v.27 no.2
    • /
    • pp.182-189
    • /
    • 2023
  • Depth estimation is a key technology in 3D map generation for autonomous driving of vehicles, robots, and drones. The existing sensor-based method has high accuracy but is expensive and has low resolution, while the camera-based method is more affordable with higher resolution. In this study, we propose self-attention-based unsupervised monocular depth estimation for UAV camera system. Self-Attention operation is applied to the network to improve the global feature extraction performance. In addition, we reduce the weight size of the self-attention operation for a low computational amount. The estimated depth and camera pose are transformed into point cloud. The point cloud is mapped into 3D map using the occupancy grid of Octree structure. The proposed network is evaluated using synthesized images and depth sequences from the Mid-Air dataset. Our network demonstrates a 7.69% reduction in error compared to prior studies.

A Study on the Analysis of Research Trends on the Attention Monitoring of Drivers During Driving Tasks (주행 시 운전자의 운전작업 중 주의집중 모니터링에 대한 연구 동향 분석)

  • Han, Gaeul;Kim, Jongbae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.383-386
    • /
    • 2021
  • 본 논문에서는 주행 중 운전자의 운전작업 중 전방 주의집중 여부를 모니터링하는 연구 방안들을 조사하고 최신 연구 동향을 분석하였으며, 자율주행자동차에서 운전자의 주의집중이 필요한 상황들에 대해 사전에 안내하는 방안을 제시하고자 한다. 연구 동향을 조사한 결과 대부분의 방법은 시각 자료 기반과 생체신호 기반으로 진행하고 있다. 연구분석 결과를 바탕으로 두 가지 방법 중 본 연구에서는 시각 자료 기반 연구 방법에 초점을 맞추어, 자동차에 설치된 카메라를 통해 수집된 영상에서 운전자의 운전작업 주의 여부를 식별하는 방법들에 대해서 분석을 진행하였다. 주행 영상에서 HoG(histogram of oriented gradients) 특징과 딥러닝 학습을 통해 운전자의 주의집중 여부를 모니터링하는 방법이 효과적임을 제시한다. 본 연구조사를 통해 분석된 운전자 모니터링 방안들을 자율주행 자동차에 적용하기 위한 운전자 주의 태만 경고시스템에 적용이 가능함을 제시한다.

A Study on LaneNet Lane Detection and Fuzzy Motor Control-Based Driving System (LaneNet 차선 인식과 Fuzzy 모터 제어를 기반으로 한 주행 시스템 연구)

  • Ho-Yeon Ryu;Seokin Hong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1175-1176
    • /
    • 2023
  • 전기차의 자율주행을 위해선 차선 인식과 모터 제어가 필요하다. 카메라로 입력된 영상에 허프 변환을 적용하고, 변환된 이진 이미지에 Enet 및 DeepLabv3+ 구조를 활용한 LaneNet 모델을 적용하여 차선을 학습시키고, Fuzzy 제어 기법을 활용하여 모터의 조향이 원활이 되도록 하였다. 기존의 Rule base 기법에 비하여 차선 인식 정확도가 월등히 향상되었으며, 주행 결과 Real-Time 주행환경 판단에 대한 여지를 남겼다.

Infrastructure 2D Camera-based Real-time Vehicle-centered Estimation Method for Cooperative Driving Support (협력주행 지원을 위한 2D 인프라 카메라 기반의 실시간 차량 중심 추정 방법)

  • Ik-hyeon Jo;Goo-man Park
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.23 no.1
    • /
    • pp.123-133
    • /
    • 2024
  • Existing autonomous driving technology has been developed based on sensors attached to the vehicles to detect the environment and formulate driving plans. On the other hand, it has limitations, such as performance degradation in specific situations like adverse weather conditions, backlighting, and obstruction-induced occlusion. To address these issues, cooperative autonomous driving technology, which extends the perception range of autonomous vehicles through the support of road infrastructure, has attracted attention. Nevertheless, the real-time analysis of the 3D centroids of objects, as required by international standards, is challenging using single-lens cameras. This paper proposes an approach to detect objects and estimate the centroid of vehicles using the fixed field of view of road infrastructure and pre-measured geometric information in real-time. The proposed method has been confirmed to effectively estimate the center point of objects using GPS positioning equipment, and it is expected to contribute to the proliferation and adoption of cooperative autonomous driving infrastructure technology, applicable to both vehicles and road infrastructure.

Experimental Setup for Autonomous Navigation of Robotic Vehicle for University Campus (대학 캠퍼스용 로봇차량의 자율주행을 위한 실험환경 구축)

  • Cho, Sung Taek;Park, Young Jun;Jung, Seul
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.26 no.2
    • /
    • pp.105-112
    • /
    • 2016
  • This paper presents the experimental setup for autonomous navigation of a robotic vehicle for touring university campus. The robotic vehicle is developed for navigation of specific areas such as university campus or play parks. The robotic vehicle can carry two passengers to travel short distances. For the robotic vehicle to navigate autonomously the specific distance from the main gate to the administrative building in the university, the experimental setup for SLAM is presented. As an initial step, a simple method of following the line detected by a single camera is implemented for the partial area. The central line on the pavement colored with two kinds, red and yellow, is detected by image processing, and the robotic vehicle is commanded to follow the line. Experimental studies are conducted to demonstrate the performance of navigation as a possible touring vehicle.

Target Object Search Algorithm for Mobile Robot Using Wireless AP in Dynamic Environment (동적환경에서 무선 AP를 이용한 모바일 로봇의 목표 탐색 알고리즘)

  • Jo, Jung-woo;Bae, Gi-min;Weon, Ill-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.775-778
    • /
    • 2016
  • 로봇 주행 기술은 전통적인 로봇요소 기술 외에도 여러 기술로 대상 응용서비스에 따라 IT 기술과 적극적인 융합을 통해 다양한 주행방법과 주행성능이 향상되고 있다. 본 논문에서는 대표적인 실내 모바일 로봇인 로봇 청소기를 대상으로 기존의 방법인 적외선과 카메라 방법이 아닌 보통 가정에도 쉽게 존재하는 AP를 이용해 목표를 설정하여 포섭구조 이론을 기반으로 동적인 환경에서도 충전 스테이션 까지 자율 주행이 가능한 로봇 알고리즘을 설계하였다. 그 결과 동적인 환경을 설정하여 로봇이 AP를 찾아가는 것을 확인하였고 주행 경로와 경과 시간을 표로 도출하여 다른 경우를 예측할 수 있게 하였다. 향후 행동 기반 로봇과 다양한 센서를 이용하여 로봇의 위치와 목표점 사이의 최단거리 경로를 구하여 주행하는 것이 목표이다.

Robust Real-Time Visual Odometry Estimation for 3D Scene Reconstruction (3차원 장면 복원을 위한 강건한 실시간 시각 주행 거리 측정)

  • Kim, Joo-Hee;Kim, In-Cheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.4 no.4
    • /
    • pp.187-194
    • /
    • 2015
  • In this paper, we present an effective visual odometry estimation system to track the real-time pose of a camera moving in 3D space. In order to meet the real-time requirement as well as to make full use of rich information from color and depth images, our system adopts a feature-based sparse odometry estimation method. After matching features extracted from across image frames, it repeats both the additional inlier set refinement and the motion refinement to get more accurate estimate of camera odometry. Moreover, even when the remaining inlier set is not sufficient, our system computes the final odometry estimate in proportion to the size of the inlier set, which improves the tracking success rate greatly. Through experiments with TUM benchmark datasets and implementation of the 3D scene reconstruction application, we confirmed the high performance of the proposed visual odometry estimation method.

B-snake Based Lane Detection with Feature Merging and Extrinsic Camera Parameter Estimation (특징점 병합과 카메라 외부 파라미터 추정 결과를 고려한 B-snake기반 차선 검출)

  • Ha, Sangheon;Kim, Gyeonghwan
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.50 no.1
    • /
    • pp.215-224
    • /
    • 2013
  • This paper proposes a robust lane detection algorithm for bumpy or slope changing roads by estimating extrinsic camera parameters, which represent the pose of the camera mounted on the car. The proposed algorithm assumes that two lanes are parallel with the predefined width. The lane detection and the extrinsic camera parameter estimation are performed simultaneously by utilizing B-snake in motion compensated and merged feature map with consecutive sequences. The experimental results show the robustness of the proposed algorithm in various road environments. Furthermore, the accuracy of extrinsic camera parameter estimation is evaluated by calculating the distance to a preceding car with the estimated parameters and comparing to the radar-measured distance.

Research on Drivable Road Area Recognition and Real-Time Tracking Techniques Based on YOLOv8 Algorithm (YOLOv8 알고리즘 기반의 주행 가능한 도로 영역 인식과 실시간 추적 기법에 관한 연구)

  • Jung-Hee Seo
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.19 no.3
    • /
    • pp.563-570
    • /
    • 2024
  • This paper proposes a method to recognize and track drivable lane areas to assist the driver. The main topic is designing a deep-based network that predicts drivable road areas using computer vision and deep learning technology based on images acquired in real time through a camera installed in the center of the windshield inside the vehicle. This study aims to develop a new model trained with data directly obtained from cameras using the YOLO algorithm. It is expected to play a role in assisting the driver's driving by visualizing the exact location of the vehicle on the actual road consistent with the actual image and displaying and tracking the drivable lane area. As a result of the experiment, it was possible to track the drivable road area in most cases, but in bad weather such as heavy rain at night, there were cases where lanes were not accurately recognized, so improvement in model performance is needed to solve this problem.

An Autonomous Driving System Based on Stereo-Vision and End-to-End Learning (스테레오 비전 및 End-to-End Learning 기반 자율주행 시스템)

  • Ye-Joong Yoon;Ji-Hwan Song;Hyeong-Seob Byeon;Bae-Seong Park;Jong-hyun Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1171-1172
    • /
    • 2023
  • 자율주행 기술에서 스테레오 비전과 End-to-End Driving은 많이 사용되는 기술이며 본 연구에서는 이를 신호등 인식과 주행에 적용하였다. 신호등 인식은 좌우 카메라로부터 적색 원을 인식한 후 스테레오 비전을 통해 신호등과의 거리를 추정한다. 주행 시스템은 End-to-End Learning 기반으로 이루어지며, 출력값인 가변저항을 조향각으로 변환하여 제어할 수 있다. 또한 감마 보정을 통한 데이터 증강을 통해 빛에 대해 민감하지 않게 모델을 학습하였다. 추후 신호등 인식 시 HSV 필터가 빛에 민감한 점과 주행 시 가변저항 값이 일정하지 않은 점이 해결된다면 더욱 안정적인 시스템을 구축할 수 있을 것으로 기대된다.